Apple discuterait avec Google d’une intégration de Gemini dans iOS 18
Le 19 mars à 06h52
2 min
IA et algorithmes
IA
Selon Bloomberg, Apple serait en négociations avec Google pour inclure le grand modèle de langage Gemini dans iOS 18. Concurrent de GPT-4 d’OpenAI, il serait au cœur des fonctions d’IA dans le prochain système mobile.
Il s’agirait d’une aubaine immense pour Google, en retard dans la course à l’IA face au duo formé par OpenAI et Microsoft. Une extension, en quelque sorte, de l’accord qui lie déjà l’entreprise avec Apple, avec son moteur de recherche installé par défaut sur deux milliards d’appareils Apple.
Toujours selon Bloomberg, Apple chercherait à faire exécuter autant que possible les tâches liées à l’IA directement sur les appareils, sans passer par ses serveurs.
Si la rumeur s’avérait fondée, cela signifierait qu’Apple est très en retard dans ce domaine. Elle aurait dans ses cartons son propre modèle, nommé Ajax, mais ne serait manifestement pas prête. On peut s’étonner toutefois que les entreprises en soient encore aux négociations, alors que la première bêta d’iOS 18 doit arriver dans trois mois environ.
Enfin, Apple discuterait de cette même option avec d’autres entreprises, dont OpenAI. Mais il semblerait que les échanges avec Google soient les plus avancés.
Le 19 mars à 06h52
Commentaires (13)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 19/03/2024 à 09h02
J'imagine que le nom du protocole n'a jamais été déposé comme marque…
Le 19/03/2024 à 09h31
Le 19/03/2024 à 10h43
Apple pour la partie SoC / Processeur fait tourner sur plusieurs types de systèmes chaque génération, notamment pour regarder quand une migration s'avère pertinente (bascule vers Intel, bascule vers ARM, ..)
Je vois pas en quoi faire la même chose pour ça serait déconnant pour eux.
Pour la partie négo, c'est logique d'avoir les choses de pas backées, négo prix / image pour les futurs partenaires.
Bref, on verra quand l'un ou l'autre sortira du bois.
Le 19/03/2024 à 09h59
Le 19/03/2024 à 21h02
CQFD
Le 19/03/2024 à 19h50
Le 19/03/2024 à 12h53
Quand je vois les actuels besoins pour faire tourner de l'IA, les téléphones n'ont pas entre 50 et 300Go de DDR GPU
Le 19/03/2024 à 14h32
L'entraînement nécessite des grosses ressources, mais c'est ce qui permet de créer ou de raffiner le modèle.
Pour l'utilisation (=> la génération de texte, image, etc.), c'est l'inférence, et ça nécessite… pas grand chose. Mon CPU (AMD Ryzen 4750G) avec ses 16Go de RAM permet de générer 4 à 6 tokens par seconde en utilisant Mistral, dont le modèle actuel fait 4Go sur le disque. C'est pas très rapide, mais c'est un circuit pas du tout optimisé.
Avec une puce adaptée, ce que semble faire Apple (et ce n'est pas la seule entreprise), l'inférence pourrait être plus rapide et efficace. Il faut quand même de la RAM, ça, c'est plutôt utile.
Le 19/03/2024 à 19h37
Le 20/03/2024 à 00h00
Le 19/03/2024 à 15h39
Le 19/03/2024 à 21h57
Le 19/03/2024 à 22h52
- Ils n'ont aucune imagination.
- Ils bossent sur du javascript pour faire des appels serveur en js pour faire croire qu'il y a une IA.
- Ils veulent faire un hommage à "Gérard M'ajax".
- Car ça commence par un A comme Apple et qu'ils font se faire nettoyer (une bonne grosse charrette) suite à cet échec.