Intelligence artificielle : pour Sundar Pichai, « la question n’est pas de savoir s’il faut réguler, mais comment »
Le 21 janvier 2020 à 08h58
1 min
Sciences et espace
Sciences
Le sujet d'une régulation dans le domaine de l’IA n’est pas nouveau, mais prend de l’ampleur au fils du temps. Par exemple, la Commission européenne doit émettre des propositions dans un mois sur ce thème.
Sundar Pichai, patron de Google et d’Alphabet, a profité d’un passage à Bruxelles pour s‘exprimer sur cette question, comme le rapporte l’AFP. Le dirigeant met en avant deux points saillants : les deepfake et la reconnaissance faciale. Cette dernière « peut être utilisée dans les nouvelles technologies d’assistance et les outils pour aider à trouver les personnes disparues. Mais elle peut aussi être utilisée avec des objectifs plus néfastes ».
De manière générale, il affirme qu’une « réglementation judicieuse doit adopter une approche proportionnée, en équilibrant les préjudices potentiels et les opportunités au niveau social ». « Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables », ajoute-t-il.
Enfin, il invite les gouvernements à se saisir pleinement de cette question « plutôt tôt que tard ».
Le 21 janvier 2020 à 08h58
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/01/2020 à 09h43
" /> on peut peut-être lancer une IA à réfléchir sur le sujet " />
Le 21/01/2020 à 10h28
Le 21/01/2020 à 10h49
Il faut faire une commission et mettre une taxe " />
Le 21/01/2020 à 10h50
Le 21/01/2020 à 11h00
Le 21/01/2020 à 11h09
Who watches the watchmen? " />
Le 21/01/2020 à 13h11
« Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables »
Traduction: “Il y a des opportunités business, mais la législation ne va pas assez vite. Laissez-nous écrire la loi à votre place, bande de limaces !”
Le 21/01/2020 à 14h35
Le 21/01/2020 à 14h56
Le 21/01/2020 à 17h05
Le problème principal est de définir “intelligence”. A partir de quand tu considères que quelque chose est intelligent ?
Bien souvent derrière le terme d’intelligence on a une définition très philosophique de la chose, au contour vague qui permet de la modeler au besoin. Ainsi l’intelligence sert bien souvent un anthropocentrisme (l’intelligence de l’Homme lui permet de se distinguer des bêtes et de tout le reste) et du coup permet de bien flatter son égo.
Sinon, d’un point de vu purement biologique, un cerveau pourrait entre décomposé pour arriver à de simple réactions chimiques qui ne sont que purement mécanique. Si l’on fait fit des phénomènes aléatoires quantiques (qu’on peut au pire considéré comme négligeable grâce à de la loi des grands nombres), le cerveau humain est un objet déterministe. Et un objet déterministe, c’est représentable par une algorithme déterministe qui est exécutable sur n’importe quel machine de Turing. L’intelligence humaine ne serait finalement aussi qu’une répétition algorithmique.
Le 22/01/2020 à 10h31