La fondation Google met 20 millions de dollars pour financer des projets étiquetés « IA responsable »

La fondation Google met 20 millions de dollars pour financer des projets étiquetés « IA responsable »

La fondation Google met 20 millions de dollars pour financer des projets étiquetés « IA responsable »

Google.org, le volet caritatif de Google, a annoncé la création d’un fonds de 20 millions de dollars pour financer des bourses accessibles « à des think tanks de premier plan et à des établissements universitaires dans le monde entier, afin de faciliter le dialogue et la réflexion sur cette technologie importante ».

La fondation se justifie en affirmant que l'IA peut nous faciliter la vie « mais elle soulève également des questions sur l'équité, la partialité, la désinformation, la sécurité et l'avenir du travail ».

Pour comparaison, l'entreprise Semi Analysis a évalué à 4 milliards de dollars l'investissement effectué par Microsoft pour déployer ChatGPT dans Bing.

Cette préoccupation de la fondation Google se situe dans un contexte particulier puisque c'est Google (l'entreprise cette fois) qui a décidé, en 2020, de licencier la chercheuse Timnit Gebru, chargée, à l'époque, des questions d’éthique sur l’intelligence artificielle puis, en 2021, Margaret Mitchell, qui travaille aussi sur ces sujets.

Toutes deux sont co-autrices d'un article qui prévenait, dès cette époque, des dangers des grands modèles de langage utilisés par les IA génératives.

Commentaires (6)


Rien de tel que créer un groupe autonome dédié à un problème pour se dédouaner du problème.



Technique bien connue en politique, management, gestion de crise…



La fondation se justifie en affirmant que l’IA peut nous faciliter la vie « mais elle soulève également des questions sur l’équité, la partialité, la désinformation, la sécurité et l’avenir du travail ».




Ce sont en fait des éléments qu’on voit beaucoup lors des formations autour de l’entraînement et l’utilisation des modèles d’IA générative. Outre la technique, ils parlent beaucoup de l’éthique autour avec les risques pour les personnes a cause des biais que l’IA peut avoir.


C’est leur éthique à eux hein. Il faut débiaisé l’IA en la biaisant mais à notre façon.


MoonRa

C’est leur éthique à eux hein. Il faut débiaisé l’IA en la biaisant mais à notre façon.


“Débiaiser” l’IA est une chimère. Les jeux d’entraînement ne vont pas inventer une parfaite équité qui n’existe pas dans la réalité. Cet outil reste un reflet de ce qui existe.



C’est la raison pour laquelle l’approche est de considérer et accepter ces biais (avoir un biais n’est pas un défaut ni une tare, c’est un simple fait), les prendre en considération et s’assurer que le résultat produit par l’IA ne soit pas affecté par ceux-ci si le but est par exemple de trier des personnes (éviter des critères discriminants, ou des clichés sociétaux basés sur le sexe, religion, ethnicité, etc).



Personnellement je produis des images via StableDiffusion et je propose ce service. Dans l’offre, j’ai clairement précisé et rappelé que l’IA est biaisée. De ce fait, je demande lorsqu’il s’agit d’une mise en scène d’un personnage de préciser tous les critères de genre, ethnicité, type de corps, etc, attendus. Car les modèles ont vite tendance à rester sur certaines typologies (majoritairement caucasienne mais aussi beaucoup asiatiques, de nombreux modèles étant d’origine chinoise) que son entraînement lui aura potentiellement fait considérer comme étant un “standard” (donc biaisé) et qu’il faut donc compléter son résultat via les LoRA adéquat pour obtenir quelque chose au plus proche du résultat attendu.



Tout ça, ça s’apprend, ça se pratique, et ça se considère.


Une IA locale, bio et equitable et qui emploie des personnes en situation de réinsertion et de handicap, le tout bien entendu en biodynamie. <3


Pour compléter mon précédent message, un autre cas de biais dont l’IA peut souffrir pour la génération d’image est aussi causé par méconnaissance. Des modèles entraînés en mode “prude” avec des jeux d’entraînement n’intégrant pas la nudité se retrouvent moins efficaces que ceux qui l’ont intégré. Car l’absence d’information anatomique plus précise (grâce à la nudité) fait que le résultat est incomplet.


Fermer