Publié dans IA et algorithmesLogiciel

13

Apple discuterait avec Google d’une intégration de Gemini dans iOS 18

AI IA

Selon Bloomberg, Apple serait en négociations avec Google pour inclure le grand modèle de langage Gemini dans iOS 18. Concurrent de GPT-4 d’OpenAI, il serait au cœur des fonctions d’IA dans le prochain système mobile.

Il s’agirait d’une aubaine immense pour Google, en retard dans la course à l’IA face au duo formé par OpenAI et Microsoft. Une extension, en quelque sorte, de l’accord qui lie déjà l’entreprise avec Apple, avec son moteur de recherche installé par défaut sur deux milliards d’appareils Apple.

Toujours selon Bloomberg, Apple chercherait à faire exécuter autant que possible les tâches liées à l’IA directement sur les appareils, sans passer par ses serveurs.

Si la rumeur s’avérait fondée, cela signifierait qu’Apple est très en retard dans ce domaine. Elle aurait dans ses cartons son propre modèle, nommé Ajax, mais ne serait manifestement pas prête. On peut s’étonner toutefois que les entreprises en soient encore aux négociations, alors que la première bêta d’iOS 18 doit arriver dans trois mois environ.

Enfin, Apple discuterait de cette même option avec d’autres entreprises, dont OpenAI. Mais il semblerait que les échanges avec Google soient les plus avancés.

13

Tiens, en parlant de ça :

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 4
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 6

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

Rogntudjuuu !

11:18 Soft 60
next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

13

Fermer

Commentaires (13)


Je suis le seul à tiquer sur le fait que Google ait choisi Gemini comme nom ? Alors que le protocole Gemini (https://fr.wikipedia.org/wiki/Gemini_(protocole) ) existe depuis déjà 4 ans. Oui, c'est un tout petit projet. Ridicule même. Mais enfin, c'est exactement dans le même domaine lexical.
J'imagine que le nom du protocole n'a jamais été déposé comme marque…
Je note surtout que toute la news est au conditionnel, on qu'on évoque une rumeur.

Dude76

Je note surtout que toute la news est au conditionnel, on qu'on évoque une rumeur.
Effectivement, et même si c'était avéré, c'est pas illogique pour Apple d'avoir bossé sur les intégrations de plusieurs IA concurrentes dans iOS 18 et que ça en soit toujours à la négo 3 mois avant la sortie de l'OS.

Apple pour la partie SoC / Processeur fait tourner sur plusieurs types de systèmes chaque génération, notamment pour regarder quand une migration s'avère pertinente (bascule vers Intel, bascule vers ARM, ..)
Je vois pas en quoi faire la même chose pour ça serait déconnant pour eux.

Pour la partie négo, c'est logique d'avoir les choses de pas backées, négo prix / image pour les futurs partenaires.
Bref, on verra quand l'un ou l'autre sortira du bois.
Plus probablement, ils ont cherché un nom basé sur les initiales de mots clés comme "Google", "Multimodal LLM", "Neural Network" et "Generative AI"... => G/Ge + M + NN + AI

127.0.0.1

Plus probablement, ils ont cherché un nom basé sur les initiales de mots clés comme "Google", "Multimodal LLM", "Neural Network" et "Generative AI"... => G/Ge + M + NN + AI
Les américains lors du débarquement utilisaient des "criquets" pour échanger sans parler... Et le fils de Walt a dû leur dire "ah, comme Gemini ?".

CQFD
Je dirais que Google en a surtout rien à cirer, mais c'est un avis perso.
"Apple chercherait à faire exécuter autant que possible les tâches liées à l’IA directement sur les appareils, sans passer par ses serveurs."

Quand je vois les actuels besoins pour faire tourner de l'IA, les téléphones n'ont pas entre 50 et 300Go de DDR GPU
Attention, l'entraînement est différent de l'inférence (on parle des IA génératives).
L'entraînement nécessite des grosses ressources, mais c'est ce qui permet de créer ou de raffiner le modèle.

Pour l'utilisation (=> la génération de texte, image, etc.), c'est l'inférence, et ça nécessite… pas grand chose. Mon CPU (AMD Ryzen 4750G) avec ses 16Go de RAM permet de générer 4 à 6 tokens par seconde en utilisant Mistral, dont le modèle actuel fait 4Go sur le disque. C'est pas très rapide, mais c'est un circuit pas du tout optimisé.
Avec une puce adaptée, ce que semble faire Apple (et ce n'est pas la seule entreprise), l'inférence pourrait être plus rapide et efficace. Il faut quand même de la RAM, ça, c'est plutôt utile.

Glandos

Attention, l'entraînement est différent de l'inférence (on parle des IA génératives).
L'entraînement nécessite des grosses ressources, mais c'est ce qui permet de créer ou de raffiner le modèle.

Pour l'utilisation (=> la génération de texte, image, etc.), c'est l'inférence, et ça nécessite… pas grand chose. Mon CPU (AMD Ryzen 4750G) avec ses 16Go de RAM permet de générer 4 à 6 tokens par seconde en utilisant Mistral, dont le modèle actuel fait 4Go sur le disque. C'est pas très rapide, mais c'est un circuit pas du tout optimisé.
Avec une puce adaptée, ce que semble faire Apple (et ce n'est pas la seule entreprise), l'inférence pourrait être plus rapide et efficace. Il faut quand même de la RAM, ça, c'est plutôt utile.
La générosité en RAM d'Apple est légendaire :D

Glandos

Attention, l'entraînement est différent de l'inférence (on parle des IA génératives).
L'entraînement nécessite des grosses ressources, mais c'est ce qui permet de créer ou de raffiner le modèle.

Pour l'utilisation (=> la génération de texte, image, etc.), c'est l'inférence, et ça nécessite… pas grand chose. Mon CPU (AMD Ryzen 4750G) avec ses 16Go de RAM permet de générer 4 à 6 tokens par seconde en utilisant Mistral, dont le modèle actuel fait 4Go sur le disque. C'est pas très rapide, mais c'est un circuit pas du tout optimisé.
Avec une puce adaptée, ce que semble faire Apple (et ce n'est pas la seule entreprise), l'inférence pourrait être plus rapide et efficace. Il faut quand même de la RAM, ça, c'est plutôt utile.
Ah bon ? Parce que, de ce que j'avais compris, le modèle LLAMA de Facebook à 7 milliards de paramètres (le plus faible) avait besoin de 7*4 = 28Go de DDR GPU. Et donc certains avait modifié le modèle pour travailler avec des "half-float" et ainsi tenir sur une seule carte graphique haut de gamme mais grand public.
Ca n'aboutira pas car Google n'aidera jamais le concurrent d'Android.
Les GAFAM woke main dans la main, vivement.
L'IA d'Apple se nomme Ajax car (rayer les mentions inutiles) :
- Ils n'ont aucune imagination.
- Ils bossent sur du javascript pour faire des appels serveur en js pour faire croire qu'il y a une IA.
- Ils veulent faire un hommage à "Gérard M'ajax".
- Car ça commence par un A comme Apple et qu'ils font se faire nettoyer (une bonne grosse charrette) suite à cet échec.