Microsoft Ignite 2023 : produits IA plus matures, du Copilot partout et une bonne dose de réorganisation

Microsoft Ignite 2023 : produits IA plus matures, du Copilot partout et une bonne dose de réorganisation

Un Planner pour les réunir tous

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

20/11/2023 14 minutes
2

Microsoft Ignite 2023 : produits IA plus matures, du Copilot partout et une bonne dose de réorganisation

Le PDG de Microsoft, Satya Nadella, avait prévenu : tout est désormais une question d’intelligence artificielle dans l’entreprise. L’édition 2023 de la conférence Ignite le prouve, avec de nombreuses annonces en ce sens, qu’il s’agisse du Copilot, de puces personnalisées et dédiées (nous y reviendrons dans un second article dédié) ou de nouveaux outils dans des produits existants.

On pouvait s’en douter, mais Ignite 2023 a bien été le théâtre de nombreuses annonces liées à l’IA, de près ou de loin. Microsoft tient d’ailleurs à ce que son offre dans ce domaine reste lisible et a pris, pour une fois, une bonne décision dans le domaine du nommage : Bing Chat est renommé Copilot in Bing.

Le changement permet de souligner le rôle du Copilot dans les produits de l’entreprise, qui fournit à chaque fois le même type de fonctions, avec une partie spécialisée. Il peut s’agir également d’un aveu d’échec, les parts de marché des moteurs de recherche n’ayant pratiquement pas évolué ces derniers mois, si l’on en croit StatCounter.

Le Copilot est donc maintenant disponible partout ou presque, notamment dans Windows, même si en Europe il faut attendre quelques mois de plus, le temps que Microsoft se mette en phase avec les différents règlements. Le service sera inclus dans la formule Microsoft 365 F3, et disponible pour 5 dollars/euros par utilisateur et par mois pour les autres.

De l’assistant à l’écosystème

Copilot va également débarquer dans d’autres produits et créer un écosystème à part entière. La technologie reste jeune et comporte les mêmes faiblesses que toutes celles liées à l’IA, dès lors qu’il s’agit de rendre service : soit elle obéit à des ordres directs et s’en sort relativement bien, soit elle propose spontanément des actions et contenus, mais sans prévisibilité, donc en prenant le risque de tomber à côté.

Cela n’empêche pas Microsoft d’annoncer plusieurs nouveaux services, dont Copilot for Azure, qui est en quelque sorte la réponse au Duet AI de Google. Il s’agit de rendre accessibles les fonctions du Copilot depuis Azure, pour qu’elles puissent être utilisées pour tous les produits s’alimentant au cloud de Microsoft. Les développeurs peuvent s’en servir pour intégrer ces services dans leurs propres applications : demandes par chat, suggestions de solutions, aide au dépannage ou à la gestion des ressources, assistance dans le développement, etc. Pour chaque réponse, il sera possible de demander à Copilot d’expliquer son raisonnement et d’indiquer ses sources.

Autre produit, Copilot for Service. Plus spécifique, ce produit doit s’intégrer aux CRM et est spécialisé dans la relation client. Il est prévu pour être compatible avec Dynamics 365 bien sûr, mais également Salesforce, SAP, Workday et ServiceNow. Disponible dans Windows ou via Teams, il doit donner des réponses aux questions posées sur les ventes, les comptes, les dossiers et tout ce qui touche aux clients. Le produit n’est pas encore prêt et ne sera disponible que début décembre en préversion, à un tarif plus élevé que ce que l’on a vu jusqu’à présent : 50 dollars par utilisateur et par mois. Le vrai prix de l’entrainement des grands modèles se voit désormais davantage.

On reste dans la relation client avec Copilot in Dynamics 365 Guides. Cette fois, l’IA est chargée de résumer et d’expédier des informations potentiellement utiles aux personnes travaillant en première ligne, tout en les superposant à leurs équipements. Le descriptif prend tout son sens quand on sait que ce service est prévu avant tout pour le casque HoloLens 2, même si une compatibilité est prévue pour les appareils mobiles. En clair, une personne équipée du casque de réalité augmentée pourra regarder une pièce sur une machine ou un bouton et poser des questions, l’appareil lui donnant alors des informations directes ou contextuelles.

Pendant la conférence, Microsoft a indiqué que la précision des informations offertes par ce service dépendait étroitement de la quantité d’informations l’entreprise utilisatrice lui faisait ingurgiter. C’est le cas bien sûr avec l’ensemble des services liées à l’IA, mais encore plus avec celui-ci, puisque les précisions apportées en dépendront directement.

Puisque l’on parle de l’écosystème dans Azure, Microsoft a annoncé toute une série d’autres modèles pris en charge : Phi 1.5 et 2, OpenAI-Whisper-Large-V3, quatre modèles Salesforce-BLIP (Bootstrapping Language-Image Pre-training), trois modèles OpenAI-CLIP (Contrastive Language-Image Pre-Training), huit modèles CodeLlama (de Meta), quatre modèles Falcon (du Technical Innovation Institute), cinq modèles Nemotron (de NVIDIA), trois modèles Facebook-Sam-Vit et cinq modèles Stable-Diffusion.

Deux studios pour faciliter le développement

Copilot Studio était l'annonce la plus simple à prévoir. Il s’agit de ce que le nom suggère : mettre en relation des données spécifiques avec tout ce qui touche à la création de chatbots. Le service, disponible en préversion, permet aux entreprises de déverser les données de leurs CRM, bases et magasins de données, ou encore de leurs systèmes de gestion de ressources dans la création d’assistants. Ces derniers peuvent être paramétrés finement, pour toujours répondre par exemple d’une certaine manière aux questions d’une même thématique, utile notamment dans la préparation d’agents d’accueil en ligne.

C’est un pas important dans le processus général d’intégration de l’IA dans les entreprises. La personnalisation des chatbots permet l’appropriation de la technologie et la création de services répondant plus finement aux attentes. Ces chatbots, nourris à l’IA générative, ont un vaste potentiel, surtout quand on les compare à la génération actuelle, qui ne peut réagir qu’à une liste de questions préparées par avance.

Autre ajout majeur, Windows AI Studio. Ce service veut faciliter l’utilisation locale des grands modèles, sans forcer celle-ci. Il permet la préparation des modèles et leur potentielle utilisation sur une ou plusieurs machines spécifiques. La plupart sont présents, et pas seulement ceux d’OpenAI, puisqu’on y retrouve notamment Llama 2 de Meta et Stable Diffusion XL de Stability AI.

Pour l’instant, AI Studio est un service à part, mais Microsoft prévoit de l’intégrer dans Visual Studio Code sous forme d’une extension. Microsoft n’a pas pour l’instant pas abordé la question des performances, centrale pour une utilisation locale.

Windows AI Studio Ignite

GPT-4 Turbo et GPT-3.5-Turbo débarquent dans Azure OpenAI Service

Il y a quelques semaines, OpenAI a annoncé des versions Turbo pour deux de ses modèles : les versions 3.5 et 4 de son GPT. Dans les deux cas, on s’en doute, il s’agit de versions améliorées des modèles existants.

Pour le principal GPT-4 Turbo, l’une des différences majeures est l’agrandissement de la fenêtre de contexte à 128K (128 000 jetons). Traduction, le modèle peut accepter des entrées équivalentes à 300 pages complètes de texte, augmentant de manière significative la précision des réponses. En outre, le modèle Turbo puise dans des données remontant jusqu’en avril 2023, contre septembre 2021 pour le modèle d’origine. Autre différence importante, GPT-4 Turbo accepte des images dans les entrées, en plus du texte.

Microsoft, qui a investi des milliards de dollars dans OpenAI, récupère ces nouveautés, disponibles en préversions. Dans son billet daté de vendredi, l’entreprise annonce que les nouveaux modèles sont plus puissants et reviennent à moins cher à l’utilisation et autorisant un mode JSON, permettant un formatage structuré. En entrée, le tarif est de 0,01 dollar par tranche de 1 000 tokens, et 0,03 dollar en sortie.

Autre avantage mis en avant par Microsoft, la possibilité de générer des résultats reproductibles. Les grands modèles générant des résultats probabilistes de manière inhérente, un mode spécifique a été ajouté pour les clients qui en exprimaient le besoin.

Les versions finales de GPT-4 Turbo et GPT-3.5-Turbo doivent arriver dans quelques semaines. Elles remplaceront les préversions, sans toucher aux tarifs annoncés.

Un atelier pour les… deepfakes ?

Si certaines annonces étaient attendues, d’autres ne l’étaient clairement pas. C’est le cas d’Azure AI Speech, un atelier permettant de créer un avatar photoréaliste d’une personne, pour l’animer pendant qu’il parle, avec synchronisation labiale.

Les contenus ainsi produits peuvent servir par exemple de supports de cours ou de vidéos d’assistance. La synthèse vocale peut se faire depuis une voix préconstruite ou entrainée à partir d’une personne réelle. Il ne reste plus qu’à entrer un script pour préparer l’ensemble. Mais la technologie va plus loin, selon Microsoft :

« Grâce à l'avatar de synthèse vocale, les utilisateurs peuvent créer des vidéos de manière plus efficace. Les utilisateurs peuvent utiliser l'avatar pour créer des vidéos de formation, des présentations de produits, des témoignages de clients, etc., simplement en saisissant du texte […]

Grâce à l'avatar de synthèse vocale, les utilisateurs peuvent créer des interactions numériques plus attrayantes. Vous pouvez utiliser l'avatar pour créer des agents conversationnels, des assistants virtuels, des chatbots, etc. »

Il ne s’agit donc pas seulement de contenus statiques, mais bien d’accompagnement potentiel pour des agents conversationnels, faisant entrer les chatbots dans une dimension supérieure en matière d’interactivité.

Cependant, Microsoft est consciente que cette technologie peut servir de sombres desseins. Dans sa présentation, elle explique que les clients ne peuvent disposer que d’une série d’avatars préconstruits. S’ils souhaitent proposer un avatar basé sur une personne réelle, les demandes seront examinées au cas par cas.

Il est tout aussi intéressant de se pencher sur les garde-fous mis en place sur les questions éthiques. Comme le rappelle TechCrunch, les questions de reproduction numériques des visages ont été au cœur de la grande grève des scénaristes et acteurs à Hollywood. Toute personne servant à alimenter un avatar généré par IA, qu’il s’agisse de traits du visage, d’élocution ou de timbre de voix, doit avoir donné explicitement son autorisation écrite à une telle utilisation.

« L'utilisation des modèles vocaux doit rester au sein d'une application et les résultats ne doivent pas être publiables ou partageables à partir de l'application. Les clients répondant aux critères d'éligibilité pour un accès limité conservent le contrôle exclusif de la création, de l'accès et de l'utilisation des modèles vocaux et de leurs résultats [lorsqu'il s'agit] de doublage de films, de programmes télévisés, de vidéos et d'enregistrements audio pour des scénarios de divertissement uniquement », précise Microsoft sur son billet.

Autre précision importante : comme tous les contenus générés par IA chez Microsoft et représentant des personnes, réelles ou non, un filigrane (watermark) sera ajouté.

Une extension de la protection des droits d’auteur

En septembre, Microsoft annonçait une protection sur certains de ses produits dans le cas où des clients se retrouvaient attaqués pour violation du droit d’auteur à cause des contenus fournis par les IA génératives. Ces dernières s’abreuvent à une montagne de données, dont certaines sont soumises au copyright. Il est possible statistiquement que certaines réponses soient donc des « régurgitations », c’est-à-dire des passages entiers provenant d’une œuvre protégée.

À la conférence Ignite, l’entreprise a indiqué que cette protection était étendue à un plus grand nombre de clients et services, comprenant notamment tous ceux disponibles en préversion et payants. Elle inclut des indemnisations en cas d’échec devant les tribunaux.

En revanche, cette aide n’est pas automatique. Pour pouvoir y prétendre, Microsoft impose que les clients suivent un référentiel de bonnes pratiques, permettant au passage de motiver la clientèle se pencher sur la réduction des risques.

Pour l’instant, Microsoft n’a pas évoqué de mécanisme de compensation ou d’exclusion, qui permettraient de rémunérer les auteurs/autrices des œuvres quand elles ressortent dans les résultats, ou au contraire d’en demander leur exclusion.

To Do, Planner et Project réunis dans un seul produit

Ces dernières années, Microsoft a multiplié les outils liés à l’organisation et la gestion des tâches, au point que l’offre s’est troublée. Pendant sa conférence Ignite, l’entreprise a annoncé que trois produits allaient être réunis en un seul, dopé à l’IA bien entendu.

To Do, Planner et Project vont ainsi fusionner en un seul service, nommé Planner. Dans un premier temps, il ne sera disponible qu’au travers de Teams, au printemps de l’année prochaine. Plus tard en 2024, une version web sera ajoutée. On ne sait rien encore d’éventuelles applications natives pour Windows, macOS, Android ou encore iOS.

Les trois applications actuelles ont chacune leurs forces, que le nouveau Planner est censé reprendre : les listes simples de choses à faire, la planification de type kanban et la gestion de projets plus complexe. Le nouveau Planner est censé suivre tous les besoins, permettant notamment de commencer par des éléments simples et d’enrichir le projet au fur et à mesure que les besoins augmentent.*

Du neuf pour Teams aussi bien sûr

Aucune conférence de Microsoft ne se termine depuis plusieurs années sans qu’une foule de nouveautés soit annoncée pour Teams, et Ignite 2023 ne fait pas exception.

Plusieurs annonces sont directement liées au Copilot, notamment la possibilité d’interroger l’assistant pendant une réunion sans qu’il réalise automatiquement une transcription des échanges. Ce choix peut être bloqué par l’équipe d’administration, ou laissé aux personnes organisant les réunions, avant chaque lancement. Sans transcription automatique, la fonction de résumé intelligent n’est pas disponible non plus.

Le Copilot peut en outre être appelé dans la fenêtre de rédaction des messages pour reformuler une entrée. Microsoft donne l’exemple d’une liste succincte, que l’on peut retravailler en appelant Copilot, selon un style que l’on pourra définir comme décontracté, professionnel, confiant ou enthousiaste.

L’assistant s’invite également dans plusieurs services, notamment pour faire des sessions rattrapage de conversations que l’on aurait ratées. Copilot propose alors de faire un résumé des principaux points abordés. Il peut également mettre en avant les points-clés d’un long échange. Les points cités sont accompagnés de la source de l’information et de la personne qui en est à l’origine. Dans Teams Phone, Copilot peut automatiquement mettre de côté les points considérés comme importants dans l’échange. Même chose dans les notes collaboratives et dans la fonction tableau blanc.

Toutes ces fonctions sont disponibles dès à présent dans les entreprises disposant de comptes Copilot pour Microsoft 365.

Ajoutons deux autres fonctions liées à l’IA, mais pas au Copilot. La première est une nouvelle isolation de la voix. Teams apprend à la reconnaître dans les échanges, puis procède à la suppression de tous les autres sons. Prévue pour début 2024, elle sera intégrée dans Phone et Meetings. L’autre permettra de changer le fond de l’image pour une composition générée par une IA, en fonction de l’ambiance souhaitée, dans le cas où l’on se trouve dans un endroit peu adapté (un chez soi en bazar par exemple). Elle sera elle aussi disponible début 2024, mais réservée cette fois aux détenteurs de licences Teams Premium.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

De l’assistant à l’écosystème

Deux studios pour faciliter le développement

GPT-4 Turbo et GPT-3.5-Turbo débarquent dans Azure OpenAI Service

Un atelier pour les… deepfakes ?

Une extension de la protection des droits d’auteur

To Do, Planner et Project réunis dans un seul produit

Du neuf pour Teams aussi bien sûr

Fermer

Commentaires (2)



Le Copilot est donc maintenant disponible partout ou presque, notamment dans Windows, même si en Europe il faut attendre quelques mois de plus, le temps que Microsoft se mette en phase avec les différents règlements. Le service sera inclus dans la formule Microsoft 365 F3, et disponible pour 5 dollars/euros par utilisateur et par mois pour les autres.




L’annonce du “Copilot” qui s’inclue dans F3 est l’ancien “Bing Chat Enterprise” (peu ou prou, ChatGPT 4 dans l’environnement du Tenant): https://techcommunity.microsoft.com/t5/microsoft-365-blog/new-copilot-amp-microsoft-teams-innovations-for-a-secure-simple/ba-p/3982425
Hors, Copilot in Bing/BCE n’est pas dispo que pour MF3, il est inclus dans les autres plans de type M/F/B :
https://blogs.bing.com/search/november-2023/our-vision-to-bring-microsoft-copilot-to-everyone-and-more



Par contre, je ne retrouve pas la trace de ce coût additionnel de 5$, si possible j’aimerais bien un lien pour comprendre cette annonce et les cas d’usages associés



Cependant, Microsoft est consciente que cette technologie peut servir de sombres desseins. Dans sa présentation, elle explique que les clients ne peuvent disposer que d’une série d’avatars préconstruits. S’ils souhaitent proposer un avatar basé sur une personne réelle, les demandes seront examinées au cas par cas.




Il me semblait justement avoir vu dans les docs de l’offre autour d’OpenAI que les fonctions d’IA générative étaient soumises au fait de montrer patte blanche pour éviter ce genre de travers. Je ne sais pas trop comment ça se concrétise, mais visiblement faut valider les projets avec MS.



Quasi tout le parcours de formation autour des produits IA chez Azure rappelle les notions d’éthique, donc il serait étonnant qu’ils laissent ça en mode open bar.