L’IA sur tous les fronts : d’Amazon à Google, en passant par La Poste et Sony
Intelligence artificielle, mais profits réels
Le 23 mai 2016 à 12h00
8 min
Sciences et espace
Sciences
L'intelligence artificielle va devenir de plus en plus incontournable tant son champ d'action est important. Ces derniers jours, les annonces ont été nombreuses : Google présente son TPU, Amazon publie son application DSSTNE en open source, tandis que Sony et La Poste investissent dans des startups spécialisées.
Depuis que l'ordinateur AlphaGo de DeepMind (filiale de Google) a battu le champion Lee Sedol au jeu de Go, l'intelligence artificielle et l'apprentissage profond sont revenus sur le devant de la scène. Ces techniques n'ont pourtant rien de nouveau, mais elles progressent très rapidement (voir notre analyse). Au cours des derniers jours, plusieurs acteurs de poids ont fait part de leurs ambitions dans ce domaine.
Tensor Processing Unit : une solution matérielle pour l'apprentissage de l'IA
Commençons par Google qui présente son Tensor Processing Unit (TPU). Il s'agit d'un circuit intégré spécialisé (ASIC, ou application-specific integrated circuit) qui a été « construit spécifiquement pour l'apprentissage de la machine et taillé sur mesure pour TensorFlow », le moteur d'apprentissage profond de la société de Mountain View qui a été publié en open source à la fin de l'année dernière.
Dans une interview accordée à nos confrères d''EE Times, l'auteur du billet de blog sur le TPU, Norm Jouppi, explique qu'il s'agit d'un projet débuté il y a maintenant près de trois ans. À l'époque, Google exploitait des CPU, GPU et des FGPA pour ses calculs. La décision a donc été prise de produire des puces maison avec une idée en tête : améliorer grandement les performances.
Aujourd'hui, les TPU sont d'ores et déjà utilisées dans les datacenters de la société de Mountain View, depuis maintenant plus d'un an selon la société. Celle-ci ajoute qu'elle obtient de « meilleures » performances par watt... sans préciser combien exactement et sur quoi elle se base pour la comparaison.
Toujours aussi avare en détail, le géant du Net indique que cette technologie permettrait d'effectuer un bond de sept ans dans le futur de l'apprentissage profond. Des chiffres qu'il faut donc croire sur parole en l'absence de la moindre donnée technique, dommage.
Google l'utilise déjà dans de nombreux produits, NVIDIA propose une solution clés en main
Seule certitude, le Tensor Processing Unit est déjà largement utilisé par Google. On le retrouve notamment dans son ordinateur AlphaGo qui a battu Lee Sedol au jeu de Go, dans RankBrain, une intelligence artificielle qui s'occupe de certaines requêtes du moteur de recherche, ainsi que dans StreetView « pour améliorer la précision et la qualité des cartes de navigation ». Au total, « plus de 100 équipes utilisent aujourd'hui l'intelligence artificielle chez Google ».
Google n'est évidemment pas le seul à développer des solutions matérielles afin d'accélérer l'apprentissage profond. Pour rappel, lors de sa GTC, NVIDIA présentait « le premier superordinateur dans une boite pour l'apprentissage profond » : le DG-X1. Il s'agit d'une machine complète vendue 129 000 dollars avec huit Tesla P100 (des cartes avec des GPU exploitant l'architecture Pascal).
Si NVIDIA mise sur la simplicité avec une solution prête à fonctionner, aussi bien sur le plan matériel que logiciel, Google met en avant la facilité de mise en place : « une carte avec un TPU s'insère dans l'emplacement d'un disque dur dans nos datacenters ». Reste maintenant à savoir si Google commercialisera ses TPU et, le cas échéant, sous quelle forme, car rien n'est précisé pour le moment.
Selon Wired qui a pu s'entretenir avec Urs Hölzle, vice-président des infrastructures chez Google, il ne serait pas question de vendre les puces TPU. Dans tous les cas, il ne s'agit vraisemblablement que d'une première étape, car toujours selon nos confrères, « cette nouvelle puce personnalisée est juste la première d'une série ». Notez qu'il est ici question de puces dédiées à des tâches précises, Urs Hölzle explique à nos confrères de Wired qu'il ne compte pas s'attaquer au marché des CPU et des GPU pour le moment.
Le dirigeant en profite d'ailleurs pour tacler un peu NVIDIA au passage : « Le GPU est trop généraliste pour l'intelligence artificielle. Il n'a actuellement pas été conçu pour cela ».
Google libère SyntaxNet, Amazon propose son DSSTNE en open source
Ce n'est pas la seule annonce récente de Google dans le domaine de l'intelligence artificielle. Quelques jours plus tôt, le géant américain annonçait que SyntaxNet, sobrement présenté comme l'analyseur syntaxique « le plus précis du monde », passait en open source. Il s'agit d'un réseau de neurones qui exploite justement TensorFlow et qui permet de comprendre le langage naturel. Tous les détails techniques se trouvent par ici.
Mais la bataille de l'intelligence artificielle ne se déroule pas uniquement sur la partie matérielle, les logiciels permettant de créer et d'entrainer des intelligences artificielles sont également au centre d'une petite guerre. Plus de six mois après la publication sous licence Apache 2.0 de TensorFlow, le moteur d'apprentissage profond de Google, Amazon lui emboite le pas avec son Deep Scalable Sparse Tensor Network Engine (DSSTNE).
Le but de la manœuvre : « que la promesse d'un apprentissage profond puisse se prolonger au-delà de la parole, de la compréhension du langage et de la reconnaissance d'objets, à d'autres liés à la recherche et aux recommandations » explique la société de Jeff Bezos.
Derrière l'ouverture d'Amazon et Google, un intérêt dans le traitement des données
Derrière ces belles paroles se cache aussi un autre point, certainement plus décisif pour le géant de la vente en ligne : « Nous espérons que les chercheurs du monde entier puissent collaborer ensemble afin de l'améliorer ». Amazon, comme Google avant lui, espère donc que la mise à disposition en open source de ces outils permettra de les faire évoluer à moindres coûts, aussi bien pour la communauté que pour son propre compte.
Comme nous l'avions expliqué dans cette actualité, disposer d'un réseau de neurones informatique est un premier pas vers l'intelligence artificielle, mais cela ne sert pas à grand-chose sans les données qui permettent d'entrainer l'IA. Et le moins que l'on puisse dire c'est qu'il faut des quantités astronomiques de données (des millions, voire des milliards). Exactement comme l'indiquait déjà Google il y a deux semaines, en donnant à un bot des centaines de romans d'amour pour lui faire adopter un langage plus naturel.
Que ce soit chez Google (avec SyntaxNet/TensorFlow) ou Amazon, si les applications sont librement disponibles, ce n'est pas le cas des données. Si l'outil permettant de traiter les données est amélioré, c'est donc tout bénéfice pour Amazon et Google qui pourront ainsi les passer plus efficacement à la moulinette.
Du mouvement côté entreprises : Sony investit dans Cogitai, La Poste croque ProbaYes
Si les GAFA (Google, Amazon, Facebook, Apple, Microsoft, etc.) travaillent sur leur propre solution d'intelligence artificielle, d'autres sociétés ont décidé de prendre le train en marche en s'aidant de startups spécialisées dans ce domaine.
C'est le cas de Sony qui investit dans Cogitai (montant non précisé), une startup fondée en 2015 par trois chercheurs spécialisés dans l'intelligence artificielle : Mark Ring, Peter Stone et Satinder Singh Baveja. Dans son communiqué de presse, Sony explique que cette collaboration permettra de développer de nouvelles technologies d'intelligence artificielle utilisant l'apprentissage profond par renforcement.
De son côté, La Poste annonce l'acquisition « stratégique » de la startup grenobloise ProbaYes. Elle a été fondée en 2003 par des universitaires spécialisés dans la robotique et l'intelligence artificielle, et elle développe « des solutions prédictives et d’optimisation à travers l’analyse de données ».
La Poste explique que ce rachat lui permet de se doter d'un centre de recherche en intelligence artificielle. Une compétence en particulier est mise en avant par le groupe : « savoir faire le pont entre la recherche et les applications industrielles » ; c'est-à-dire passer de la théorie des formules mathématiques à des cas concrets pour faire simple. Bref, La Poste a enfin décidé d'entrer de plain-pied dans le numérique, l'internet des objets (avec son bouton Domino) et l'intelligence artificielle.
Grâce à l'IA, La Poste veut optimiser ses flux et la tournée de ses facteurs
Dans un entretien à nos confrères des Échos, Nathalie Collin, directrice générale adjointe de La Poste, explique que ProbaYes travaillait déjà avec La Banque Postale sur la détection des fraudes et que son « savoir-faire dans la gestion des flux logistiques et de l'énergie sera très utile au reste du groupe, notamment dans l'optimisation des tournées de livraison ». La jeune pousse continuera également de travailler avec ses partenaires comme Toyota ou STMicroelectronics.
Si Google, Amazon, Sony et La Poste ont récemment fait des annonces dans le domaine de l'intelligence artificielle, ce ne sont pas les seules sociétés à plancher sur la question, loin de là. On peut également citer le cas de Facebook qui utilise massivement cette technique pour la reconnaissance des visages et des objets, avec la description de photos depuis peu.
Dans tous les cas, les mois à venir seront certainement riches, et ce, même s'il ne faut pas attendre tout de suite une intelligence artificielle forte capable de penser, d'avoir des émotions, des projets, conscience d'elle-même, etc.
L’IA sur tous les fronts : d’Amazon à Google, en passant par La Poste et Sony
-
Tensor Processing Unit : une solution matérielle pour l'apprentissage de l'IA
-
Google l'utilise déjà dans de nombreux produits, NVIDIA propose une solution clés en main
-
Google libère SyntaxNet, Amazon propose son DSSTNE en open source
-
Derrière l'ouverture d'Amazon et Google, un intérêt dans le traitement des données
-
Du mouvement côté entreprises : Sony investit dans Cogitai, La Poste croque ProbaYes
-
Grâce à l'IA, La Poste veut optimiser ses flux et la tournée de ses facteurs
Commentaires (17)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/05/2016 à 12h13
le couplage avec la physique quantique et les neuro-technologie … va être redoutables pour l’humain.
Le 23/05/2016 à 13h45
Ne pourrait-t-on pas inventer l’intelligence artificielle pour nos politiciens? Ce ne serait pas pire que ce qu’on a actuellement
Le 23/05/2016 à 14h46
Tu veux I Robot, Skynet ou Matrix ? En vrai ?
La question va se poser rapidement.
Le 23/05/2016 à 14h53
Je sais pas, nos politiciens ont besoin d’être un minimum démago pour se faire réélire, une IA risquerait de prendre que des décisions qui ne plaisent pas sans aucun remords…
Oh wait ! Ah non, t’as raison ça serait pas pire en fait " />
Le 23/05/2016 à 14h53
La police belge compte s’équiper aussi. L’IA pour croiser les données et aider la police dans son quotidien (genre dresser le PV sur place).
Pourquoi pas. Pour moi ça ressemble à “l’informatisation” de vieilles structures, il y a 50 ans (sauf que là on peut parler d’optimisation).
On a fait le passage au numérique (+ ou - réussi /fini). Et maintenant on se sert des données et comme y en a beaucoup, une aide informatique est la bienvenue ;)
Le 23/05/2016 à 17h40
Pas certains que les services publics actuels ait réellement fini cette transition, malheureusement…
L’envoi de courrier papier reste encore le seul moyen de transmettre des documents à la CAF par exemple.
Y’a bien une fonction pièce-jointe sur l’espace en ligne, qui ne fonctionne pas et n’apparait pas à la demande. Bref on parle d’IA alors qu’on est encore au stade de Neandertal en France " />
Le 23/05/2016 à 18h34
Moi, La Poste me fait un peu peur au sujet de son implication dans la bancassurance et dans le marketing utilisant les Big Data / Intelligence Artificielle. En effet, ProbaYes est une filiale de Mediapost (la filiale marketing / collecte de données au sein du groupe La Poste)
 http://www.commentcamarche.net/news/5868174-la-poste-a-l-heure-du-big-data
Le 23/05/2016 à 18h45
Automatiser tous les processus de relation client, comme le font déjà beaucoup les GAFA, ça ne durera qu’un temps. Actuellement, j’ai l’impression que toutes les grandes entreprises fantasment sur le Big Data, le e-machin qui collecte, traite et transforme l’information en décision pro-active ou prédictive d’un événement probable.
Or je suis persuadé que la relation client, comme la relation médecin-patient, ne peut pas obéir aveuglément au résultat parfois ubuesque d’un algorithme.
Le 23/05/2016 à 19h51
Le 23/05/2016 à 20h17
La Poste : “…utile, notamment dans l’optimisation des tournées de livraison”
J’ai monopolisé 2 neurones " /> personnels pour faire un peu de reverse engineering sur les processus de La Poste :
if {\(Taille\_Colis} >= {\)Taille_Boite_aux_lettres}; then
retour_depot_sans_sonner() ;
else
retour_depot_sans_sonner() ;
fi
" />
NB : Fonctionne aussi avec “if any_colis then pas_bouger_du_depot” " />
" />
Le 23/05/2016 à 20h33
Le 23/05/2016 à 21h02
“J’espère également que le giron Mediapost n’est là que pour regrouper les activités numérique, mais que les problématiques seront bien celle de la poste. Sinon ça serait du gâchis !”
Réhumaniser la relation client à l’ère du digital : Interview de Jack Azoulay dailymotion.fr
Le 24/05/2016 à 06h17
Google ne compte pas vendre ses TPU, ils ont probablement rendu cette info publique pour que ça leur ramène des clients sur GCP, et plus précisément sur Google Cloud ML qui est aujourd’hui en Alpha.
Tensorflow est utilisé dans une cinquantaine de produits Google actuellement. Pour la recherche, le machine learning remplace des règles telles que “si la requête vient de France et qu’il y a tel événement en cours alors …” par des exemples, et les résultats sont meilleures. C’est un gros changement :)
Le 24/05/2016 à 06h49
La POSTE…Intelligence Artificielle: tellement vrai. Je pense que cette institution a de milliers d’années d’expérience humaines sur le sujet. L’idée est bonne.
Le 24/05/2016 à 07h37
C’est météo-france qui devrait investir, parce que les prévisions même à un jour c’est pas encore ça " />.
Le 24/05/2016 à 11h13
“Comme nous l’avions expliqué dans cette actualité, disposer d’un réseau de neurones informatique est un premier pas vers l’intelligence artificielle, mais cela ne sert pas à grand-chose sans les données qui permettent d’entrainer l’IA. Et le moins que l’on puisse dire c’est qu’il faut des quantités astronomiques de données (des millions, voire des milliards). Exactement comme l’indiquait déjà Google il y a deux semaines, en donnant à un bot des centaines de romans d’amour pour lui faire adopter un langage plus naturel.”
… et c’est ce que je me tue à expliquer que justement Google est en train de gaver son IA avec VOS DONNÉES !!!
Dois-je parler des BigData ou OpenData, que certains essaient de mettre en marche et promouvoir à coups de lobbying partout sur la planète ???
VOTRE PROPRE PERTE !!!!!
Signé : Les idiots utiles.
Le 24/05/2016 à 14h18