Le soucis n’est pas du coté algorithmique mais du coté humain. Il est sans doute possible de créer un logiciel permettant de voter de manière anonyme et sécurisée, sans que quelqu’un ne puisse intercepter et modifier les votes. La question est : où va le vote après ? Pour être comptabilisés, ils doivent être centralisé, et il faut avoir confiance en la personne au centre.
La comparaison avec l’argent n’est pas bête, la principale différence est qu’on fait relativement confiance à notre banque pour ne pas trafiquer nos comptes (principalement parce qu’on le verrait). Mais peut-on avoir une totale confiance en n’importe quel gouvernement (ou n’importe qui d’autre d’ailleurs) pour ne jamais intervenir dans un vote ?
La méthode papier a l’avantage de permettre (voir d’inciter) à n’importe qui d’assister et de vérifier le déroulement d’un vote et d’un dépouillement. Comment maintenir cela avec un vote entièrement électronique ?
Oui ma phrase était un peu ambiguë et/ou incomplète, je ne voulais pas dire que les NGrams était un modèle de machine learning, c’est un outils en NLP; mais là aussi, on pourrait utiliser du WordEmbedding pour obtenir des réprésentations des mots plus poussée.
Effectivement tout cela est lourd à mettre en place, et l’obligation d’avoir des jeux de données très grands est un des principaux freins. Mais en mettant cela de côté, les différentes tâches en traitement des langues ont vraiment profitées des réseaux de neurones, et je voulais juste indiquer qu’il était sans doute possible d’obtenir des résultats encore meilleures que ces 79%.
La question de l’interprétabilité des résultats est un peu à part pour moi, même si très importante. Effectivement un SVM permet d’analyser beaucoup plus simplement les “raisonnements” du système, et notamment les features déterminantes. Mais il faut se poser la question de savoir si on a vraiment besoin de ces analyses, ou si seulement le résultat nous intéresse. Dans le cas d’un procès, on peut effectivement avoir le détail du “raisonnement”, mais comme personnellement je considère qu’on ne pourra jamais se passer d’un juge humain pour ce genre de tâche, je suis plutôt intéressé par les performances “brutes” et voir à quelle point un IA peut arriver à prédire les jugements humains.
Le
25/10/2016 à
12h
53
Ce qui est intéressant c’est que finalement les techniques qu’ils ont utilisés (Ngrams et SVM) sont “en retard” par rapport aux dernières avancées en Machine Learning, et notamment les réseaux de neurones qui ont permis de grandes améliorations des performances en traitement des langues ces derniers temps.
On peut donc s’attendre à d’encore meilleurs résultats avec des techniques état de l’art.
Après, on peut aussi remarquer qu’ils ont sélectionnés les catégories de procès, et l’issue de procès traitant de la torture sont peut-être plus simple à prédire que d’autres catégories. Il serait intéressant de voir si leur système arrive à généraliser à tout type de dossier traité par la CEDH.
Effectivement on est encore très loin de la singularité prédite. Mais il ne faut pour autant AlphGo est bien un programme dit “d’intelligence artificielle”. Derrière ces mots, personne n’a jamais prétendu avoir créer une vraie intelligence au sens “humain”, capable de résoudre des tâches très différentes, de faire preuve de créativité, ou même d’avoir en conscience de soi.
En revanche un système d’intelligence artificielle a pour but de réaliser des tâches spécifiques (par exemple jouer au go) de manière autonome. Avec l’essor du machine learning, on arrive à créer des algorithmes capable d’apprendre par eux-même à partir d’exemples.
Ces algorithmes sont plutôt “généralistes”, c’est-à-dire qu’ils peuvent s’appliquer à plusieurs problèmes. Cependant, ils sont le plus souvent entrainé à résoudre seulement un seul problème. On ne va pas créer un programme capable à la fois de jouer au go et de conduire une voiture, même si en dessous l’architecture du système peut-être assez semblables (même si pour des systèmes aussi complexe, on a généralement des architectures très spécifiques, composées de briques de base communes).
Même pour les échecs, il est impossible pour un ordinateur de calculer toutes les combinaisons de coup possibles jusqu’à l’échec et mat. La technique était de calculer toutes les combinaisons des N prochains coup, et d’évaluer quelles combinaisons donnaient les meilleurs résultats.
Pour le go, cette technique ne marche pas car il est impossible d’évaluer si on est en train de gagner ou de perdre juste en regardant le plateau à un instant t. Tout peut se renverser en un seul coup.
La technique qui est utilisé pour le go est plutôt celle de Monte Carlo, qui consiste à évaluer au hasard certaines combinaisons de coup jusqu’à la fin de la partie, et de choisir parmi ces quelques combinaisons la meilleur possible. Même si ça semble très aléatoire, cette technique a donné des bons résultats.
DeepMind quant à lui ajoute à Monte Carlo l’utilisation de réseaux de neurones profonds, c’est-à-dire ce qu’on appelle de l’intelligence artificielle en informatique. Ces réseaux de neurones sont revenu à la mode ces dernières années grâce à l’arrivée de meilleurs ordinateurs, mais aussi de beaucoup plus de données facilement disponible grâce à Internet.
De l’utilisation que j’en ai, le coté décentralisé de git permet de chacun pouvoir bosser tranquille de son coté. Mais quand on veut une vue d’ensemble sur le projet, on a naturellement tendance à avoir un point centralisé pour mettre ce qui est (théoriquement) à peu près au point.
Alors effectivement, git a tendance à revenir vers le centralisé, mais je connais des personnes qui font des recherches sur le travail collaboratif décentralisé, donc qui c’est, on trouvera peut-être mieux que la tendance actuelle. " />
Ça a un sens de parler d’obsolescence programmée pour un logiciel ? On sait bien qu’un logiciel peut être abandonné à tout moment, mais ça n’est pas à sa conception qu’on incorpore de obsolescence programmée. Pourquoi parler de windows xp ici ?
Pire que ça, il faudrait qu’un algo soit capable de comprendre le sens du mot pour vous (et pour votre interlocuteur). Quelqu’un prenait l’exemple toute à l’heure de personnes s’appelant negro sans que ça ne soit (pour eux) une insulte : dans ce cas, insulte ou pas ? Et de la même manière, on peut insulter quelqu’un sans n’utiliser aucune grossièreté.
Arriver à comprendre le sens de mots, on commence à le faire (difficilement). Mais arriver à comprendre le sens que vous voulez donner à un mot ça c’est beaucoup plus dur.
Et c’est sans compter l’évolution rapide de la langue (surtout sur internet) : l’arrivé de nouvelles insultes (avec d’autres mots ou juste en changeant l’orthographe) est assez rapide, surtout pour contourner la censure.
8 commentaires
François Fillon veut généraliser le vote par Internet
25/10/2016
Le 26/10/2016 à 11h 49
Le soucis n’est pas du coté algorithmique mais du coté humain. Il est sans doute possible de créer un logiciel permettant de voter de manière anonyme et sécurisée, sans que quelqu’un ne puisse intercepter et modifier les votes. La question est : où va le vote après ? Pour être comptabilisés, ils doivent être centralisé, et il faut avoir confiance en la personne au centre.
La comparaison avec l’argent n’est pas bête, la principale différence est qu’on fait relativement confiance à notre banque pour ne pas trafiquer nos comptes (principalement parce qu’on le verrait). Mais peut-on avoir une totale confiance en n’importe quel gouvernement (ou n’importe qui d’autre d’ailleurs) pour ne jamais intervenir dans un vote ?
La méthode papier a l’avantage de permettre (voir d’inciter) à n’importe qui d’assister et de vérifier le déroulement d’un vote et d’un dépouillement. Comment maintenir cela avec un vote entièrement électronique ?
Une IA capable de prédire le sort d’une requête devant la CEDH
25/10/2016
Le 25/10/2016 à 13h 33
Oui ma phrase était un peu ambiguë et/ou incomplète, je ne voulais pas dire que les NGrams était un modèle de machine learning, c’est un outils en NLP; mais là aussi, on pourrait utiliser du WordEmbedding pour obtenir des réprésentations des mots plus poussée.
Effectivement tout cela est lourd à mettre en place, et l’obligation d’avoir des jeux de données très grands est un des principaux freins. Mais en mettant cela de côté, les différentes tâches en traitement des langues ont vraiment profitées des réseaux de neurones, et je voulais juste indiquer qu’il était sans doute possible d’obtenir des résultats encore meilleures que ces 79%.
La question de l’interprétabilité des résultats est un peu à part pour moi, même si très importante. Effectivement un SVM permet d’analyser beaucoup plus simplement les “raisonnements” du système, et notamment les features déterminantes. Mais il faut se poser la question de savoir si on a vraiment besoin de ces analyses, ou si seulement le résultat nous intéresse. Dans le cas d’un procès, on peut effectivement avoir le détail du “raisonnement”, mais comme personnellement je considère qu’on ne pourra jamais se passer d’un juge humain pour ce genre de tâche, je suis plutôt intéressé par les performances “brutes” et voir à quelle point un IA peut arriver à prédire les jugements humains.
Le 25/10/2016 à 12h 53
Ce qui est intéressant c’est que finalement les techniques qu’ils ont utilisés (Ngrams et SVM) sont “en retard” par rapport aux dernières avancées en Machine Learning, et notamment les réseaux de neurones qui ont permis de grandes améliorations des performances en traitement des langues ces derniers temps.
On peut donc s’attendre à d’encore meilleurs résultats avec des techniques état de l’art.
Après, on peut aussi remarquer qu’ils ont sélectionnés les catégories de procès, et l’issue de procès traitant de la torture sont peut-être plus simple à prédire que d’autres catégories. Il serait intéressant de voir si leur système arrive à généraliser à tout type de dossier traité par la CEDH.
AlphaGo : un nouveau match de jeu de Go se profile, contre le champion Ke Jie
06/06/2016
Le 06/06/2016 à 15h 15
Effectivement on est encore très loin de la singularité prédite. Mais il ne faut pour autant AlphGo est bien un programme dit “d’intelligence artificielle”. Derrière ces mots, personne n’a jamais prétendu avoir créer une vraie intelligence au sens “humain”, capable de résoudre des tâches très différentes, de faire preuve de créativité, ou même d’avoir en conscience de soi.
En revanche un système d’intelligence artificielle a pour but de réaliser des tâches spécifiques (par exemple jouer au go) de manière autonome. Avec l’essor du machine learning, on arrive à créer des algorithmes capable d’apprendre par eux-même à partir d’exemples.
Ces algorithmes sont plutôt “généralistes”, c’est-à-dire qu’ils peuvent s’appliquer à plusieurs problèmes. Cependant, ils sont le plus souvent entrainé à résoudre seulement un seul problème. On ne va pas créer un programme capable à la fois de jouer au go et de conduire une voiture, même si en dessous l’architecture du système peut-être assez semblables (même si pour des systèmes aussi complexe, on a généralement des architectures très spécifiques, composées de briques de base communes).
[MàJ] Jeu de Go : l’intelligence artificielle AlphaGo remporte la première manche
09/03/2016
Le 08/03/2016 à 20h 24
Même pour les échecs, il est impossible pour un ordinateur de calculer toutes les combinaisons de coup possibles jusqu’à l’échec et mat. La technique était de calculer toutes les combinaisons des N prochains coup, et d’évaluer quelles combinaisons donnaient les meilleurs résultats.
Pour le go, cette technique ne marche pas car il est impossible d’évaluer si on est en train de gagner ou de perdre juste en regardant le plateau à un instant t. Tout peut se renverser en un seul coup.
La technique qui est utilisé pour le go est plutôt celle de Monte Carlo, qui consiste à évaluer au hasard certaines combinaisons de coup jusqu’à la fin de la partie, et de choisir parmi ces quelques combinaisons la meilleur possible. Même si ça semble très aléatoire, cette technique a donné des bons résultats.
DeepMind quant à lui ajoute à Monte Carlo l’utilisation de réseaux de neurones profonds, c’est-à-dire ce qu’on appelle de l’intelligence artificielle en informatique. Ces réseaux de neurones sont revenu à la mode ces dernières années grâce à l’arrivée de meilleurs ordinateurs, mais aussi de beaucoup plus de données facilement disponible grâce à Internet.
GitHub Desktop 3.0 est là, avec une visualisation graphique des branches
12/08/2015
Le 13/08/2015 à 01h 25
De l’utilisation que j’en ai, le coté décentralisé de git permet de chacun pouvoir bosser tranquille de son coté. Mais quand on veut une vue d’ensemble sur le projet, on a naturellement tendance à avoir un point centralisé pour mettre ce qui est (théoriquement) à peu près au point.
Alors effectivement, git a tendance à revenir vers le centralisé, mais je connais des personnes qui font des recherches sur le travail collaboratif décentralisé, donc qui c’est, on trouvera peut-être mieux que la tendance actuelle. " />
Le délit d’obsolescence programmée à nouveau retouché au Sénat
10/07/2015
Le 10/07/2015 à 08h 53
Ça a un sens de parler d’obsolescence programmée pour un logiciel ? On sait bien qu’un logiciel peut être abandonné à tout moment, mais ça n’est pas à sa conception qu’on incorpore de obsolescence programmée. Pourquoi parler de windows xp ici ?
La presse en ligne peut être tenue de retirer immédiatement des commentaires illicites
17/06/2015
Le 17/06/2015 à 15h 27
Pire que ça, il faudrait qu’un algo soit capable de comprendre le sens du mot pour vous (et pour votre interlocuteur). Quelqu’un prenait l’exemple toute à l’heure de personnes s’appelant negro sans que ça ne soit (pour eux) une insulte : dans ce cas, insulte ou pas ? Et de la même manière, on peut insulter quelqu’un sans n’utiliser aucune grossièreté.
Arriver à comprendre le sens de mots, on commence à le faire (difficilement). Mais arriver à comprendre le sens que vous voulez donner à un mot ça c’est beaucoup plus dur.
Et c’est sans compter l’évolution rapide de la langue (surtout sur internet) : l’arrivé de nouvelles insultes (avec d’autres mots ou juste en changeant l’orthographe) est assez rapide, surtout pour contourner la censure.