Voici le Snapdragon 6 Gen 4, avec prise en charge d’INT4 « pour un traitement IA plus rapide »

Avec son nouveau SoC Snapdragon 6 Gen 4, Qualcomm veut ajouter de l’IA générative aux smartphones de milieu de gamme. Elle améliore un peu les performances par rapport à la Gen 3, mais prend surtout en charge la précision INT4 pour l’inférence.
Le 13 février à 08h00
3 min
Droit
Droit
Qualcomm continue d’annoncer de nouveaux SoC à un rythme relativement soutenu. Le Snapdragon 6 Gen 3 (successeur du Snapdragon 6 Gen 1, le Gen 2 n’existe pas) était discrètement ajouté au catalogue en septembre dernier, avec toujours la même complexité dans la nomenclature des puces.
11 % de mieux sur la partie CPU, jusqu’à 29 % sur le GPU
Voilà aujourd’hui que la Gen 4 arrive. Qualcomm annonce « des performances CPU améliorées de 11 % grâce au dernier processeur Kryo, des performances GPU jusqu’à 29 % supérieures avec le GPU Adreno et 12 % d’économies d’énergie pour améliorer l’expérience utilisateur à tous les niveaux ».
Comme les autres SoC de cette gamme, la partie CPU comprend huit cœurs : un cœur « Prime » jusqu’à 2,3 GHz (100 MHz de moins que sur la Gen 3), trois cœurs « Performance » jusqu’à 2,2 GHz et quatre cœurs « Efficiency » jusqu’à 1,8 GHz.
Pour le reste, rien de surprenant : de la 5G jusqu’à 2,9 Gb/s, du Wi-Fi 6E, du Bluetooth 5.4 LE, jusqu’à 16 Go de LPDDR4X ou LPDDR5X au choix, une finesse de gravure en 4 nm, etc. La fiche technique se trouve par là, la page dédiée au Snapdragon 6 Gen 4 par ici.

Prise en charge de l’IA générative, une première pour la série 6
Le constructeur met surtout en avant, « pour la première fois dans cette série, une prise en charge de l’IA générative ». L’IA était déjà présente dans les précédentes versions. En effet, avec la Gen 3 du Snapdragon 6, Qualcomm annonçait des gains jusqu’à 10 % sur la partie CPU, 30 % sur le GPU et 20 % sur le Qualcomm AI Engine. La nouveauté n’est donc pas à chercher dans ce dernier, mais dans le détail des fonctionnalités.
Le constructeur indique que le NPU (neural processing unit) Hexagon de la puce Snapdragon 6 Gen 4 prend désormais en charge les nombres INT4 « pour un traitement IA plus rapide », en plus des INT8 et INT16. Le Snapdragon 8 Gen 2 annoncé en 2022 avait déjà droit à cette précision de 4 bits sur les entiers. À l’époque, Qualcomm affirmait que « la prise en charge de la précision INT4 augmentait les performances par watt de 60 % pour une inférence d'IA soutenue ».
La société évoque aussi une efficacité améliorée du Qualcomm Sensing Hub, avec « un système IA à faible consommation ».

De nouveaux smartphones dans les mois à venir
Selon Qualcomm, plusieurs fabricants annonceront de nouveaux smartphones dans les mois à venir, notamment realme, OPPO and Honor. Le Mobile World Congress (MWC) de Barcelone, qui se tiendra du 3 au 6 mars 2025, devrait être le théâtre de nombreuses présentations de smartphones avec un SoC Snapdragon 6 Gen 4.
Voici le Snapdragon 6 Gen 4, avec prise en charge d’INT4 « pour un traitement IA plus rapide »
-
11 % de mieux sur la partie CPU, jusqu’à 29 % sur le GPU
-
Prise en charge de l’IA générative, une première pour la série 6
-
De nouveaux smartphones dans les mois à venir
Commentaires (24)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 13/02/2025 à 08h48
La qualité du calcul ?
Le 13/02/2025 à 09h12
Modifié le 13/02/2025 à 09h19
Mais comme les modèles sont enooooormément quantisés, la dégradation reste raisonnable.
Encore plus avec si on construit from-scratch le modèle en 4-bit (au lieu de "réduire" un modèle 8-bit existant)
Model.......... Size ..... VRAM
LLaMA-7B-8bit.. 9.2GB .... 10GB
LLaMA-7B-4bit.. 3.5GB .... 6GB
Bien sur, on peut aussi faire du calcul INT4 sur un modèle 8-bit en réduisant sauvagement la précision lors de l'utilisation (e.g. au runtime), mais j'espère que c'est pas ce que Qualcomm à en tête.
Le 13/02/2025 à 09h28
ça implique quoi pour la génération de token?
Modifié le 13/02/2025 à 09h44
En terme d'analogie, c'est comme rédiger un texte avec 1/16ème des mots du dictionnaire versus tous les mots du dictionnaire.
(une meilleure analogie serait la capacité à trouver le bon mot dans le dictionnaire complet, mais bon c'est l'idée)
Le 13/02/2025 à 10h20
Le problème qui se pose, c'est que dans les calculs, pour gagner de la place et potentiellement de la vitesse, des formats de données existent en IA qui n'étaient pas standard. INT4, FP8, FP16 par exemple.
Lors du chargement, si le CPU (NPU d'ailleurs) ne connaît pas un type de données, on adapte en mémoire les données en utilisant un format plus précis, mais qui va consommer plus de données:
INT4 -> INT8 (voir INT16, voir INT32!), FP8 -> FP32, FP16 -> FP32.
Cela consomme de la RAM, et ont peut faire moins de calculs parallèles (par exemple sur des lignes 256bits, ont traite les INT4 par 32, mais si on a dû les stocker en INT8, ce sera par 16).
En LLM, les INT4 sont anecdotique il me semble, par contre si on utilise l'IA pour des arbres de décision les INT4 sont très représentés, ou dans les traitements d'images noir et blancs (par exemple pour des séparations de couche)
On peut perdre en qualité si le modèle a été traité pour descendre en précision. Mais cela est risqué, augmente les hallucinations (quand un LLM te sort des mots qui n'existent pas, c'est qu'on a trop baissé le nombre de neurones ou la qualité du calcul)
Le 13/02/2025 à 11h08
je pense que je suis trop con pour comprendre lol
Le 13/02/2025 à 11h30
Donc pour être clair: c'est presque de l'enfumage pour le client final. Si le NPU utilise le INT4, encore faut-il que le constructeur prenne la peine de créer des modèles optimisés avec du INT4, et les mettent à dispo en gérant le bazar d'avoir de smodèles INT4/INT8...
Les modèles montrés par @127.0.0.1 sont des "downgrade", et effectivement la qualité en pâti.
Le 13/02/2025 à 14h56
Le 13/02/2025 à 15h58
Le 13/02/2025 à 11h25
Modifié le 13/02/2025 à 11h49
Je dirais que le gain en mémoire (VRAM) est autrement plus significatif, mais je peux me tromper.
Le 13/02/2025 à 15h56
Le 13/02/2025 à 17h06
Le 13/02/2025 à 09h16
Le 13/02/2025 à 16h08
Déjà que l'IA INT8 c'était un peu la revanche du MMX ... (8 op par cycle)
Le 13/02/2025 à 09h45
Le 13/02/2025 à 10h08
Je trouve déjà incroyable que mon wifi soit aussi rapide que mon lien Ethernet.
Le 13/02/2025 à 12h01
Le 13/02/2025 à 13h21
Le 13/02/2025 à 14h05
Le 14/02/2025 à 08h54
Le 13/02/2025 à 10h14
Le 13/02/2025 à 13h56