Intelligence artificielle : pour Sundar Pichai, « la question n’est pas de savoir s’il faut réguler, mais comment »

Intelligence artificielle : pour Sundar Pichai, « la question n’est pas de savoir s’il faut réguler, mais comment »

Intelligence artificielle : pour Sundar Pichai, « la question n’est pas de savoir s’il faut réguler, mais comment »

Le sujet d'une régulation dans le domaine de l’IA n’est pas nouveau, mais prend de l’ampleur au fils du temps. Par exemple, la Commission européenne doit émettre des propositions dans un mois sur ce thème.

Sundar Pichai, patron de Google et d’Alphabet, a profité d’un passage à Bruxelles pour s‘exprimer sur cette question, comme le rapporte l’AFP. Le dirigeant met en avant deux points saillants : les deepfake et la reconnaissance faciale. Cette dernière « peut être utilisée dans les nouvelles technologies d’assistance et les outils pour aider à trouver les personnes disparues. Mais elle peut aussi être utilisée avec des objectifs plus néfastes ».

De manière générale, il affirme qu’une « réglementation judicieuse doit adopter une approche proportionnée, en équilibrant les préjudices potentiels et les opportunités au niveau social ». « Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables », ajoute-t-il. 

Enfin, il invite les gouvernements à se saisir pleinement de cette question « plutôt tôt que tard ».

Commentaires (11)


<img data-src=" /> on peut peut-être lancer une IA à réfléchir sur le sujet <img data-src=" />








monpci a écrit :



<img data-src=" /> on peut peut-être lancer une IA à réfléchir sur le sujet <img data-src=" />







Mouais, effectivement. Dans le même ordre d’idée, IBM a lancé il y a quelques mois un algorithme censé lutter contre les biais cognitifs des IA et autres machine-learning. Un algorithme pour surveiller un algorithme. Y a que moi que ça a fait rire, apparemment.



Bref.



Je suis d’accord avec Sundar : il faudrait réguler, et au plus vite. Malheureusement, à un niveau mondial, l’informatique est une des choses les plus difficiles à réguler. Exemple : quelqu’un arrive à dicter sa loi à Google ou Facebook ? La plupart du temps les initiatives ne font qu’effleurer la surface…



<img data-src=" />



Il faut faire une commission et mettre une taxe <img data-src=" />








janiko a écrit :



Dans le même ordre d’idée, IBM a lancé il y a quelques mois un algorithme censé lutter contre les biais cognitifs des IA et autres machine-learning. Un algorithme pour surveiller un algorithme. Y a que moi que ça a fait rire, apparemment.





A partir du moment ou ton modèle de machine learning dispose de plusieurs couche c’est déja un algo qui surveille un algo… Et c’est aussi vieux que le monde en programmation traditionnelle, ça évite de coder des surcouche pour rien.



&nbsp;









skankhunt42 a écrit :



A partir du moment ou ton modèle de machine learning dispose de plusieurs couche c’est déja un algo qui surveille un algo… Et c’est aussi vieux que le monde en programmation traditionnelle, ça évite de coder des surcouche pour rien.





Ca n’est pas là dessus que je voulais mettre l’accent. Je voulais dire que pour surveiller et corriger un algorithme dont on n’est pas sûr (peu importe le nombre de couches qu’il a), on va se fier à un autre algorithme dont on n’est pas plus sûr. En gros : pour corriger un biais, on va utiliser un programme qui potentiellement a aussi des biais. Qui va corriger les biais de l’algo qui corrige les biais ? Un autre algo ?



La question de la preuve formelle de bon fonctionnement d’un programme n’est pas simple…



Who watches the watchmen?&nbsp;<img data-src=" />




« Nous voulons offrir notre expertise, notre expérience et nos outils alors que nous sommes aux prises avec des tensions et des compromis inévitables »





Traduction: “Il y a des opportunités business, mais la législation ne va pas assez vite. Laissez-nous écrire la loi à votre place, bande de limaces !”








janiko a écrit :



Ca n’est pas là dessus que je voulais mettre l’accent. Je voulais dire que pour surveiller et corriger un algorithme dont on n’est pas sûr (peu importe le nombre de couches qu’il a), on va se fier à un autre algorithme dont on n’est pas plus sûr. En gros : pour corriger un biais, on va utiliser un programme qui potentiellement a aussi des biais. Qui va corriger les biais de l’algo qui corrige les biais ? Un autre algo ?



La question de la preuve formelle de bon fonctionnement d’un programme n’est pas simple…





En effet on a pas de système parfait, l’alternative que constitue l’être humain étant elle aussi pleine de biais et son encadrement par des être humain contrôleurs tout aussi susceptible de poser problème.



L’IA a cependant un meilleur potentiel d’amélioration que l’être humain.









Uther a écrit :



L’IA a cependant un meilleur potentiel d’amélioration que l’être humain.





Stricto sensu, je pense que tu as raison : l’IA est aujourd’hui tellement “bête” qu’elle a un sacré potentiel d’amélioration…

<img data-src=" />

Mais si je comprends bien ce que tu veux dire, à savoir que l’IA va s’améliorer énormément pour s’approcher ou dépasser l’être humain, moi je pense que non : l’IA est infiniment plus efficace, car cela permet un traitement d’une rapidité inaccessible aux humains, mais la seule intelligence introduite dans l’IA est celle que les développeurs ont apporté, la suite n’étant qu’une répétition algorithmique (donc mécanique), je le concède à des vitesses dépassant depuis longtemps ce qu’on est capable de faire.



Après, les misanthropes diront aussi que l’être humain est tellement <img data-src=" /> qu’il n’est pas difficile de faire mieux.



Le problème principal est de définir “intelligence”. A partir de quand tu considères que quelque chose est intelligent ?



Bien souvent derrière le terme d’intelligence on a une définition très philosophique de la chose, au contour vague qui permet de la modeler au besoin. Ainsi l’intelligence sert bien souvent un anthropocentrisme (l’intelligence de l’Homme lui permet de se distinguer des bêtes et de tout le reste) et du coup permet de bien flatter son égo.



Sinon, d’un point de vu purement biologique, un cerveau pourrait entre décomposé pour arriver à de simple réactions chimiques qui ne sont que purement mécanique. Si l’on fait fit des phénomènes aléatoires quantiques (qu’on peut au pire considéré comme négligeable grâce à de la loi des grands nombres), le cerveau humain est un objet déterministe. Et un objet déterministe, c’est représentable par une algorithme déterministe qui est exécutable sur n’importe quel machine de Turing. L’intelligence humaine ne serait finalement aussi qu’une répétition algorithmique.









janiko a écrit :



&nbsp;

Mais si je comprends bien ce que tu veux dire, à savoir que l’IA va s’améliorer énormément pour s’approcher ou dépasser l’être humain, moi je pense que non : l’IA est infiniment plus efficace, car cela permet un traitement d’une rapidité inaccessible aux humains, mais la seule intelligence introduite dans l’IA est celle que les développeurs ont apporté, la suite n’étant qu’une répétition algorithmique (donc mécanique), je le concède à des vitesses dépassant depuis longtemps ce qu’on est capable de faire.



Après, les misanthropes diront aussi que l’être humain est tellement <img data-src=" /> qu’il n’est pas difficile de faire mieux.





Tout ce que je dis, c’est que c’est pas plus inteligent de défendre le cerveau humain par principe que l’IA. Tout comme l’IA, l’intelligence humaine a des limitations et des défauts bien connus.

&nbsp;

Après l’IA a tout simplement plus de marge de progression car l’intelligence humaine s’appuie sur le même cerveau qui met quelques millions d’années pour évoluer significativement alors que les machines et les algorithmes utilisés par les IA évoluent tous les jours.



Fermer