Connexion
Abonnez-vous

#FranceIA : le plan de bataille de la France sur l’intelligence artificielle

Il faut éviter la « bêtise artificielle »

#FranceIA : le plan de bataille de la France sur l'intelligence artificielle

Le 20 janvier 2017 à 14h00

L'intelligence artificielle est sans aucun doute une technologie d'avenir qui soulève de nombreuses questions, mais aussi des craintes. Dans tous les cas, la France compte être un des moteurs de son développement et le gouvernement lance ainsi des groupes de réflexion à travers son projet « France IA ».

Ce matin, le gouvernement organisait une conférence de presse afin de lancer son projet « France IA ». Il s'agit de définir « les orientations stratégiques de la France dans le domaine de l’intelligence artificielle ». Comme nous avons déjà eu l'occasion de l'évoquer à de nombreuses reprises, cela touche de très nombreux domaines, avec d'importants débouchés, mais aussi des problématiques liées à l'exploitation des données.

La France veut être présente et Thierry Mandon tire la sonnette d'alarme

Avec plus de 200 start-ups recensés dans le domaine de l'intelligence artificielle, la France veut continuer à jouer un rôle important... mais aussi éviter une fuite de ses cerveaux et entrepreneurs à l'étranger. Thierry Mandon explique d'ailleurs que la recherche « est en grand danger » et qu'aujourd'hui, les centres français « sont pillés ». « Leurs chercheurs sont débauchés par des sociétés qui ne sont pas françaises et qui ont le bon goût de ne pas payer d'impôt en France » tonne-t-il.

Sans être directement cité, on lit entre les lignes qu'il est notamment question de Facebook. Pour rappel, fin 2013, le réseau social a justement recruté le français Yann Le Cun comme directeur pour son laboratoire de recherche sur l'intelligence artificielle. 

L'intelligence artificielle, entre fantasmes et peur

Pour entrer dans le vif du sujet, notre confrère Jacques Henno explique qu'autour de l'intelligence artificielle, il y a « toute une série de fantasmes et de peurs, sur les robots tueurs ». Derrière cette idée, deux concepts : symboliques d'abord avec des risques sur les emplois, et plus terre à terre ensuite avec les armes.

Mais, comme le résume Axelle Lemaire un peu plus tard durant la conférence, « l'intelligence artificielle en soit, ce n’est pas bien ou mouvais, c'est une technologie et comme tout outil ça dépend de ce qu'on veut en faire ». Un sujet que nous avions déjà largement abordé dans nos colonnes.

Une crainte largement plus présente en France qu'aux USA

La secrétaire d'État au numérique et à l'innovation souhaite justement que la France continue à jouer un rôle de locomotive : « l'intelligence artificielle est là, elle va se développer avec un potentiel extraordinaire ». Mais elle rappelle également que c'est un sujet sensible. Elle cite ainsi une étude (sans aucune précision) selon laquelle « 65 % des Français ont peur de l'intelligence artificielle », contre seulement 22 % des personnes aux États-Unis.

Isabelle Falque-Pierrotin, la présidente de la CNIL était également sur place, et rejoint Axelle Lemaire sur la préoccupation des Français. Dans un sondage demandé à Ipsos, mais qui ne sera dévoilé que lundi prochain à l'occasion du premier grand débat sur les algorithmes (qui sera diffusé sur YouTube), elle explique qu'il ressort « des chiffres un peu préoccupants ». Lesquels ? Il faudra attendre la semaine prochaine pour le savoir...

La délicate question des données (personnelles)

Il y a au moins une raison à cela : « les données c'est le cœur de l'IA » rappelle la présidente de la Commission nationale de l'informatique et des libertés. Pour rappel, afin d'apprendre à reconnaitre un objet dans une image, il faut qu'une intelligence artificielle dispose d'une base de données de plusieurs millions ou milliards d'images de référence. Dans le cas de Facebook par exemple, les photos que vous publiez sont une aide précieuse et surtout... gratuite pour le réseau social.

Mais qui dit données, dit également informations personnelles. Rand Hindi, entrepreneur et membre du Conseil National du Numérique, ne s'en cache pas : pour que les assistants numériques fonctionnent correctement, il faut qu'ils aient « accès à un maximum de données sur la vie des gens ». Néanmoins, il ajoute rapidement cela ne veut pas dire qu'il faut pour autant laisser complètement tomber sa vie privée. Par exemple, les données pourraient très bien être traitées localement sur les machines.

Le chiffrement homomorphe à la rescousse

Et ce n'est pas tout, il est également possible de « faire du machine learning sur des données chiffrées récupérées de plusieurs utilisateurs différents ». Cette technologie porte d'ailleurs un nom : le chiffrement homomorphe. Ainsi, chaque utilisateur peut envoyer des données chiffrées qui servent de base pour des calculs, sans avoir besoin d'être déchiffrées pour cela. 

France IA

Au-delà du traitement des données (chiffrées ou non), Jean-Louis Fréchin, designer numérique et fondateur de NoDesign.net, explique qu'il faut ouvrir « la boite noire », c'est-à-dire laisser accessibles les algorithmes afin que chacun puisse vérifier comment les données sont utilisées. Plusieurs géants du secteur ont d'ores et déjà commencé à ouvrir leurs algorithmes... mais pas leurs données, qui sont pourtant le carburant des intelligences artificielles.

Attention à la « bêtise artificielle »

Si la donnée est la base de base de l'intelligence artificielle, Laurence Devillers, professeur d'informatique et membre du CNRS, explique que cette matière première qui peut engendrer « des dégâts énormes » suivant l'utilisation qui en est faite. Il faut ainsi bien s'assurer que les données soient neutres et n'induisent aucun biais dans les algorithmes. De l'intelligence artificielle, on peut facilement se retrouver à « faire de la bêtise artificielle » lâche-t-elle.

Se pose également la question de l'éthique de l'intelligence artificielle, un sujet déjà abordé avec la problématique du choix des victimes par une voiture autonome en cas d'un accident mortel (voir cette actualité). Isabelle Falque-Pierrotin rappelle que ce débat n'est pas simplement franco-français : « tous les pays sont en train de toucher du doigt » cette question, « on a un fil rouge vraiment mondial sur cette question de l'éthique de l'intelligence artificielle et des algorithmes ».

France IAFrance IA

En guise de conclusion de cette partie sur la présentation de l'intelligence artificielle, Jean-Louis Fréchin explique que « même s'il y a des risques, il faut y aller ». Il sera d'ailleurs rejoint par Thierry Mandon en fin de conférence : « Il faut y aller maintenant, sinon ça sera trop tard ». France IA est justement là pour établir un plan de bataille.

Sept groupes de travail sur l'intelligence artificielle

Afin de déblayer le terrain, sept groupes de travail ont ainsi été annoncés, chacun centré sur un sujet précis : 

  • Établir une cartographie nationale des activités en intelligence artificielle
  • Identifier et définir la priorisation des sujets de recherches
  • Identifier et définir les priorités sur les besoins en formation
  • Préparer l'industrialisation de l'intelligence artificielle (mettre en relation les centres de recherche et l'industrie)
  • Développer l'écosystème de l'intelligence artificielle en France
  • Définir les règles de souveraineté et de sécurité nationale
  • Anticiper les impacts macro-économiques et sociaux, notamment sur les emplois

Comme on peut le voir, il s'agit principalement d'organiser les différentes institutions (publiques et privées) autour d'un projet commun : l'intelligence artificielle. David Sadek, qui préside le premier groupe, explique que « quand on veut livrer bataille, il faut faire l'inventaire de ses forces ». Une manière de présenter sa mission principale (cartographier l'IA en France), mais qui peut facilement s'étendre à l'ensemble de ce projet.

Notez que des regroupements plus petits seront également de la partie afin de plancher sur des sujets plus précis. Il est notamment question des véhicules autonomes, du monde de la finance, de la relation client, etc. Rien n'est définitif et des ajustements peuvent être faits si nécessaire.

Un rapport sera présenté fin mars

Ces groupes devront rapidement rendre leur premier bilan puisque la fin des travaux est prévue pour le 14 mars 2017. Le 21 mars aura lieu une réunion du comité d'orientation afin que les responsables de groupes puissent présenter leurs conclusions. Enfin, le 28 mars sera le jour de la remise du rapport. Il sera alors temps de faire le point sur les propositions qui seront faites.

Commentaires (31)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

C’est quand même plus dangereux que la création d’une machine lambda. Il s’agit ici de munir une machine d’un libre arbitre.

votre avatar

Un de mes rêves c’est de mettre Sky Net au monde.

votre avatar







revker a écrit :



C’est quand même plus dangereux que la création d’une machine lambda. Il s’agit ici de munir une machine d’un libre arbitre.







Avant ca c’est simplifier les interfaces homme machine.


votre avatar

Ou, c’est plus des machines à deviner ce que cet idiot d’humain veut qu’autre chose pour la plupart. Pour ensuite te proposer ce que tu voulais vraiment. On peut appeler ça simplifier les ihm.



Le libre arbitre, c’est encore vague pour une IA.

votre avatar

Comme ça a été dit avant moi on en est pas encore là (mais peu importe car ça viendra, effectivement).



Cependant, ça n’est pas plus dangereux que mettre au monde un être humain qui pourra potentiellement devenir un tyran coupable de génocide, cela étant une loi naturelle, le débat n’existe pas mais la problématique au fond est la même.

votre avatar







revker a écrit :



C’est quand même plus dangereux que la création d’une machine lambda. Il s’agit ici de munir une machine d’un libre arbitre.





Libre arbitre? Et pourquoi pas une âme aussi?



Pour munir une machine de libre arbitre (ou d’une âme) il faudrait déjà arriver à le mettre en évidence chez l’homme..


votre avatar







Matsod a écrit :



Cependant, ça n’est pas plus dangereux que mettre au monde un être humain qui pourra potentiellement devenir un tyran coupable de génocide, cela étant une loi naturelle, le débat n’existe pas mais la problématique au fond est la même.



Une machine n’a pas du tout les mêmes limites qu’un humain.. donc non ce n’est pas du tout comparable.


votre avatar







revker a écrit :



C’est quand même plus dangereux que la création d’une machine lambda. Il s’agit ici de munir une machine d’un libre arbitre.







Il n’est pas du tout question de donner un libre arbitre à une machine, c’est tout bonnement impossible à l’heure actuelle.

Quand on parle d’IA de nos jours c’est principalement du machine learning. Des algorithmes matricielles qui permettent, en gros, de trier des données à partir d’une base de données “d’entrainement”. C’est utilisé un peu partout: de la reconnaisse d’images chez Google à l’analyse de données scientifiques (très utilisé par les expériences du LHC).

Et par exemple dans les pilotes auto de voiture, à partir des données de capteurs un algo peut “trier” la situation et en déduire la meilleure marche à suivre. On est encore très loin du concept de libre arbitre quand même.


votre avatar







Matsod a écrit :



cela étant une loi naturelle





Et non, désolé, mais le génocide n’a rien d’une “loi naturelle”, c’est parfaitement artificiel (créé par l’homme).


votre avatar

C’est pourtant bien une comparaison que tu fais en parlant des limites de l’un et de l’autre, mais là c’est de la sémantique.



Après, on peut débattre sur la notion de risque (il y a par exemple le potentiel de nuisance et la probabilité que ça arrive). De mon côté je pense que le potentiel de nuisance est le même (un humain pourrait tout a fait avoir le pouvoir d’anéantir l’espèce humaine) en revanche effectivement, une machine suffisamment intelligente et autonome pourrait certainement y arriver plus facilement si elle le souhaitait.



 Il y a cependant énormément de “si” dont certains relèvent de la philosophie et qui ne trouveront probablement jamais aucune réponse, encore moins si l’on essaie pas. Une IA, générique, reste une technologie beaucoup plus neutre que la bombe atomique par exemple. Refuser les IA ou vouloir les brider très tôt, c’est comme si la recherche liée à la nature de la matière avait été stoppée avant la découverte de l’atome, histoire d’être sûr de ne jamais mettre au point la bombe A; ça n’a pas de sens.



Considérant l’état de l’art tel qu’il est aujourd’hui, ça relève encore du débat assez creux, il faut encore avancer pour en discuter différemment; et je trouve ça bien que ça fasse d’ailleurs partie d’une certaine façon des missions de FranceIA.

votre avatar

Je parlais de la reproduction en tant que loi naturelle, pas du génocide évidemment.

Encore que, c’est plus une question philosophique qu’autre chose dans la mesure ou l’homme est bel et bien une création de la nature, désolé.



Mais je comprends bien que l’idée sous-jacente est qu’un génocide prémédité n’est pas une catastrophe naturelle au sens où on l’entend.

votre avatar

Tu oublies les fourmis

votre avatar







Matsod a écrit :



C’est pourtant bien une comparaison que tu fais en parlant des limites de l’un et de l’autre, mais là c’est de la sémantique.



Non c’est bien du concret, un corps humain à des limites physique qui n’ont absolument rien à voir avec les limites physique d’une machine.



Si une jour une machine a une capacité de raisonnement analogue à celui d’un homme et que comme tu dis elle a un profil “génocidaire” elle aura infiniment moins de limites physique pour le mettre en application.







Matsod a écrit :



Il y a cependant énormément de “si” dont certains relèvent de la philosophie et qui ne trouveront probablement jamais aucune réponse, encore moins si l’on essaie pas. Une IA, générique, reste une technologie beaucoup plus neutre que la bombe atomique par exemple. Refuser les IA ou vouloir les brider très tôt, c’est comme si la recherche liée à la nature de la matière avait été stoppée avant la découverte de l’atome, histoire d’être sûr de ne jamais mettre au point la bombe A; ça n’a pas de sens.





Si bien-sur que si ça a du sens. Quand le risque encouru est moins intéressant que les bénéfices à en tirer ou parce que ça pose des problème éthique ça prend tout son sens !

Si la majorité des tests en laboratoire sont fait avec des rats c’est bien parce-que ça nous pose des problèmes éthique de le faire avec des hommes… pourtant pour ça permettrait de faire bien plus rapidement des avancées en sciences sociales, médicales, anatomique etc.. etc..







Matsod a écrit :



Considérant l’état de l’art tel qu’il est aujourd’hui, ça relève encore du débat assez creux, il faut encore avancer pour en discuter différemment; et je trouve ça bien que ça fasse d’ailleurs partie d’une certaine façon des missions de FranceIA.



Oui, en discuter c’est essentiel !


votre avatar

Un algo de machine learning qui te classifie une image et te dit si c’est un humain ou pas utilise grossos modo les mêmes principes d’apprentissage que l’être humain. La seule chose qui change, c’est l’échelle des connaissances acquises et du “cerveau” utilisé pour faire l’opération. Mais à la base, c’est bien une machine qui prend une décision (parfois à tord).



Le libre arbitre, finalement, c’est un peu la liberté de prendre les décisions que l’on veut. Si demain on prend un algo de machine learning et qu’on l’utilise pour prendre la décision de quel algo de machine learning utiliser, c’est extrêmement proche du principe du libre arbitre, mais là encore à une échelle différente de ce que fait l’être humain.

votre avatar

Une machine a les limites physiques qu’on lui donne. Tu peux rendre ta tour super intelligente, si tu la déconnectes d’internet son champ d’action sera bien limité, bien plus que celui d’un humain.

votre avatar

Ce qui relève de la sémantique c’est le fait que tu fasses une comparaison tout en disant que ce n’est pas comparable; pas la comparaison en elle même bien sûr.



Ton exemple avec les rats de labo est plutôt mal choisi, puisque justement on mène ces expériences, on ne les arrête pas. Il n’y a pas vraiment d’équivalent aux rats de labo pour l’IA mais qui te dit que les règles de déploiement d’une éventuelle IA suffisamment perfectionnée ne seront pas aussi sécurisantes (pour ce que ça a de comparable…) aux études sur animaux avant de passer à l’homme?



De mon point de vue, il ne s’agit pas de dire que les IA ne poseront jamais aucun problème à l’humanité, mais en avoir peur aujourd’hui et vouloir déjà les limiter, c’est une peur irrationnelle qui n’a pas de réelle substance.

votre avatar







ErGo_404 a écrit :



Une machine a les limites physiques qu’on lui donne. Tu peux rendre ta tour super intelligente, si tu la déconnectes d’internet son champ d’action sera bien limité, bien plus que celui d’un humain.



Le propre de l’intelligence c’est de trouver de nouvelles solutions.. Je ne doute pas qu’une machine intelligente ne restera pas bien longtemps “déconnectée”.



Et dans ton cas tu parles d’une machine que tu “déconnectes” (un peut à la manière d’un homme que l’on emprisonne) donc elle a déjà été connectée.. donc comment savoir que l’IA est physiquement présente uniquement dans la machine que tu débranches?



Les limites théoriques l’homme (qui commencent à être biens connues) sont incomparables aux limites théoriques d’une machine intelligente (qui dépasseront sans difficulté celle de l’homme d’après le peu de projections que l’on ose faire.. ).


votre avatar







Matsod a écrit :



Ton exemple avec les rats de labo est plutôt mal choisi, puisque justement on mène ces expériences, on ne les arrête pas.





Ce que je voulais mettre en évidence c’est qu’on ne les fait pas/plus directement avec des hommes (alors que ce serait plus efficaces pour les recherches, on se bride volontairement)

Et si, certaines expériences sont “stoppée” comme ce qui concerne le clonage humain par exemple.

“Le 8 mars 2005, l’Assemblée générale des Nations unies a décidé d’interdire le clonage, même à des fins thérapeutiques.”



EDIT : L’eugénisme aussi est une pratique interdite.


votre avatar

C’est un abus de langage anthropomorphique.

La destruction d’une colonie par une autre colonie ne se faire que lorsqu’il y a raréfaction des ressources. C’est tuer ou mourir.

On retrouve les mêmes comportements chez d’autres espèces qui sont prêtent à se mettre sur la gueule jusqu’à la mort quand la pression du milieux est trop importantes.

Ce qui rend le phénomène “spectaculaire” chez les fourmis c’est que ça se passe non pas entre quelques individu isolé ou entre groupes, mais bien entre colonies entières (bha oui c’est des fourmis !)



Mais tout ça pour dire qu’un génocide humain n’a pas du tout les même motifs et que c’est un abus de langage.



C’est pareil que si l’on dit qu’un trou noir avale une étoile, c’est un abus de langage anthropomorphique.

votre avatar

Former des pionniers en la matière : checked

Voir ses pionniers aller bosser ailleurs : checked

prendre du retard : in progress

créer un drama sociétal : in progress

pleurer que les autres nous pillent : starting process

créer une exception française : waiting


votre avatar

Le calcul homomorphe c’est théoriquement simple, il s’agit d’outils mathématiques qui permettent par exemple de répondre au besoin suivant :




  • J’ai un calcul qui demande des ressources informatiques que je n’ai pas, je chiffre d’une certaine manière mes données,

  • j’envoie ces données chiffrées à une machine dans le cloud par exemple,

  • la machine effectue les calculs sur les données chiffrés sans avoir la possibilité de remonter aux données en clair, c’est toute la beauté de la chose !

  • la machine me renvoie son résultat que moi seul peut déchiffrer.



    Tout ça pour dire que je ne vois pas le rapport avec la choucroute <img data-src=" />

votre avatar







Matsod a écrit :



De mon point de vue, il ne s’agit pas de dire que les IA ne poseront jamais aucun problème à l’humanité, mais en avoir peur aujourd’hui et vouloir déjà les limiter, c’est une peur irrationnelle qui n’a pas de réelle substance.





Au contraire la substance est bien réelle.

Aujourd’hui on a peur (a raison) des intrusions dans les systèmes informatique critiques par de simples virus (qui ne sont pourtant pas forcément bien malin).

Sans tomber dans la paranoïa, je te laisse imaginer ce que pourra faire une IA couplée à un virus, je pense que c’est une hypothèse relativement crédible qui donne largement matière à réflexion..


votre avatar

Question bête, c’est quoi la différence entre une Intelligence Artificielle spécialisée (comme on voit Google le faire sur différent produits: traduction, lecture sur les lèvres, etc) et un “simple” réseau neuronal ?

votre avatar

Le calcul homomorphe permet surtout de faire des opérations sur des données chiffrées.



Exemple : C1 est le chiffré de V1 (C(V1)) et C2 le chiffré de V2 (où Vx est un nombre quelconque). Le chiffrement homomorphe permet des opérations du genre C3 = C1 + C2 = C(V1 + V2) &nbsp; &lt;= les opérations + n’étant pas forcément des additions au sens entendu mais des opérations définies selon le chiffrement utilisé.



Ce type de chiffrement permet d’agréger des données chiffrées sur lesquelles on peut travailler sans pour autant révéler les valeurs individuelles. C’est utile pour le machine learning qui a besoin de données pour construire des modèles.



Par contre je ne suis pas à jour dans les algos homomorphes mais il me semblait que les tailles de clés étaient astronomiques pour que le chiffrement ne puisse pas être cassé en 2 secondes.

votre avatar

Justement, je ne vois pas ce que l’on peut faire sur les données agrégées sans les déchiffrer ? Et être capable de les déchiffrer donne (potentiellement pour rester gentil) la capacité de déchiffrer les vecteurs en entrée, non ?

votre avatar

Ou alors maintenant, grossomodo avec les approximations d’un ciboulot le vendredi soir, si on suppose pour faire simple deux signaux en entrée :

On applique une transformation opposée aux deux signaux (pour empêcher de les retrouver) puis on les chiffre de deux manières ‘opposées’ d’une certaine manière.

Le système homomorphe applique l’opération qui va bien qui à la fois :




  • neutralise la transformation appliquée aux vecteurs en entrée,

  • et fait disparaitre le chiffrement ?

votre avatar







_Quentin_ a écrit :



Question bête, c’est quoi la différence entre une Intelligence Artificielle spécialisée (comme on voit Google le faire sur différent produits: traduction, lecture sur les lèvres, etc) et un “simple” réseau neuronal ?







Un réseau de neurone est un outils informatique dans le domaine de l’apprentissage automatique. Il en existe tout plein de type différent plus ou moins adapté à certain type d’apprentissage, de donnée et de classement que l’on souhaite.

De base, un réseau de neurone ne sais rien faire. Ce qui fait qu’elle est capable de faire quelque chose, c’est l’apprentissage. Par diverse techniques selon les cas, on est capable de configurer le réseau pour qu’il classe comme on souhaite qu’il classe. Et c’est là que l’on obtient une IA. Bon, après il y a un boulot de design des réseaux, d’assemblage avec d’autres outils voir d’autre réseaux.



Par exemple, tu voudrais créer une IA capable de reconnaître des chiffres ecrits individuel. Tu va tout d’abord commencer à récolter plein de chiffres écrits par différentes personnes dont tu sais déjà à quel chiffres il correspond que tu enregistres par exemple dans une image en 32*32, ça sera ton jeu d’apprentissage. Dans le cas présent, tu vas faire un apprentissage supervisé car ton jeu d’apprentissage est déjà annoté, tu es comme un tuteur qui apprend a son élève en lui présentant des exemples (il existe plusieurs type d’apprentissage dont les principaux sont en plus de l’apprentissage supervisé l’apprentissage non supervisé oùtu laisse la machine essayé de trouver un système de classement et l’apprentissage par renforcement qui est très adapté pour les jeux par exemple car le principe est d’optimiser la récompense).

Maintenant, tu construit ton réseau de neurone, 3 couches de neurone :

-1 pour l’entrée 1 neurone par pixel, soit 32*32 neurone

-1 pour la sortir, par exemple 1 neurone par chiffres soit 10 neurone

-1 caché (combien ? j’en sais trop rien).



Un neurone dans un réseau de neurones, c’est simple, c’est quelque chose qui a plusieurs entrée (sauf dans la couche d’entrée, il n’en a qu’un seul), une fonction de combinaison de ces entrée, un fonction dite d’activation qui permet d’obtenir une valeur allant généralement de -1 à 1 ou de 0 à 1. Entre 2 neurones, la connexion passe par un multiplication par une valeur propre à cette connexion (c’est géré dans la fonction de combinaison). C’est ces valeurs que l’on va modifier. Dans le cadre simple, on va relier tout les neurones d’une couche avec tous les neurones de la couche précédente. A ceci, on rajoute à chaque couche (sauf à celle de sortie) un neurone qui sort toujours une valeur de 1. Alors ce neurone est très important, mais pour comprendre son intérêt, il faut considérer qu’un neurone n’est ni plus ni moins qu’une fonction mathématique. Sans ce neurone, tous les facteurs de cette fonction sont dépendant de l’entrée, si l’on souhaite être exhaustif en terme de possibilité, il nous faut une constante. De la même manière que lors d’une régression linéaire, la fonction y=ax+b a bien besoin de la constante b si l’on veux dessiner autre chose que des droites passant par le (0.0).



Maintenant, tu commences l’apprentissage, tu donnes en entré une image, et tu regardes ce qu’il donne à la sortie. Peu de chance qu’il donne la bonne solution au début et fera surtout n’importe quoi. En comparant la sortie avec la solution voulu, tu essayes, en couche par couche en partant de la sortie, de corriger un tout petit peu l’erreur en modifiant légèrement la valeur entre 2 neurones. Le but n’est pas d’avoir tout de suite le bon résultat, c’est de s’en rapprocher lentement. A force de petites corrections en petites corrections, ton réseau va arriver à un moment où il ne fera pratiquement plus d’erreur. Ainsi, pour connaître le chiffre qui est ecrit, il suffit de regarder la valeur la plus élevé dans la couche de sortie. Chose intéressant, on peut même voir s’il doute entre 2 valeurs. Certains calcules permettent même de partir de la sortie et remonter le réseau pour voir comment le réseau se représente un chiffre, les points importants pour qu’il le reconnaissance.


votre avatar

Merci pour cette réponse très détaillée ! <img data-src=" />

votre avatar

En fait c’est un des principe du chiffrement homomorphe de pouvoir déchiffrer les résultats ensemblistes sans pouvoir le faire de manière individuelle.



JE vais donner l’exemple avec un système de vote utilisant ce chiffrement : chaque votant envoie le choix de son vote chiffré. Le système central récupère les données et peut appliquer des opérations sur les différents choix. A la fin, le système peut dire qui est le gagnant du vote sans pour autant pouvoir dire qui a voté quoi.



Le procédé mathématique de ce genre de chiffrement me dépasse. Les cours d’introduction à ce genre de chiffrement &nbsp;m’a valu le claquage d’un bon paquet de neurones.&nbsp;



Pour en revenir au sujet, je reste sceptique quant à l’utilisation des données personnelles chiffrées de cette manière, premièrement parce que le chiffrement homomorphe reste assez facilement décryptable (sauf nouveaux algos dont je n’ai pas entendu parler) et qu’il y a toujours la question de la génération de clé. Qui la fournit ? Qui fournit ces données personnelles ? Parce que je me vois mal perdre du temps pour mettre en place un système que je ne considère pas sûr et qui utilisera massivement mes données.

votre avatar







DUNplus a écrit :



Un de mes rêves c’est de mettre Sky Net au monde.





On demande mon expertise ?



<img data-src=" /> <img data-src=" />


votre avatar

“Les fourmis sont les formes de vie parmi les plus agressives de la planète, basant leur politique étrangère sur l’agression ininterrompue, la conquête territoriale constante et l’annihilation des colonies voisines par génocide, et ceci dès que possible.

Depuis 100 millions d’années, les fourmis se livrent des luttes sans merci et conquièrent la quasi totalité de la surface habitable.

Elles représentent en nombre quelques 10 millions de milliards d’individus.

Elles correspondent en biomasse à près de 4 fois la biomasse de tous les vertébrés terrestres, et près de 20 % de celles de l’ensemble des insectes.

Preuve, s’il en fallait, de l’omniprésence et de la puissance adaptative de ces éternels constructeurs et guerriers.”



Drees M. B., Knutson E. (2002). Potential biological control agent for the red imported fire ant. Texas A&M University. College station, Texas.

#FranceIA : le plan de bataille de la France sur l’intelligence artificielle

  • La France veut être présente et Thierry Mandon tire la sonnette d'alarme

  • L'intelligence artificielle, entre fantasmes et peur

  • Une crainte largement plus présente en France qu'aux USA

  • La délicate question des données (personnelles)

  • Le chiffrement homomorphe à la rescousse

  • Attention à la « bêtise artificielle »

  • Sept groupes de travail sur l'intelligence artificielle

  • Un rapport sera présenté fin mars

Fermer