Connexion
Abonnez-vous

Les prochaines Google Glass pourraient embarquer une puce Intel

Oui, mais en x86 ou ARM ?

Les prochaines Google Glass pourraient embarquer une puce Intel

Le 01 décembre 2014 à 16h45

Selon le Wall Street Journal, Google et Intel ont noué un important partenariat qui devrait aboutir sur une nouvelle mouture des Google Glass, équipée d’un processeur maison. Mais alors que Google a parlé jusqu’à présent d’un produit destiné à tous, Intel envisage plutôt des usages spécifiques.

Une puce Intel dans les prochaines Google Glass

Les Google Glass sont officiellement disponibles depuis bientôt trois mois, mais seulement aux États-Unis depuis la boutique officielle Play Store. À 1 500 dollars, le ticket d’entrée est relativement élevé. Cette Explorer Edition est équipée d’une puce ARM fournie par Texas Instrument, mais ses caractéristiques et ses facultés techniques sont souvent reléguées au second plan, tant les questions liées à leur interdiction dans certains cas (en voiture ou au cinéma par exemple) et à la vie privée sont nombreuses.

 

Le Wall Street Journal, citant plusieurs sources proches du sujet, indique cependant que Google a signé un important accord avec Intel afin de travailler sur une nouvelle version de ses lunettes connectées. L’arrivée d’Intel se ferait dans le cadre d’un programme Glass at Work, centré donc sur une utilisation dans un cadre professionnel, par exemple l’industrie, la construction ou la santé.

 

Intel n’est pour l’instant pas forcément très présent dans le monde des objets connectés mais montre des signes évidents d’intérêt. Le fondeur a par exemple dévoilé début septembre (pratiquement le même jour que le lancement des Google Glass) un bracelet connecté de luxe baptisé MICA. Conçu avec Opening Ceremony, ses caractéristiques techniques n’étaient pas connues, excepté l’utilisation d’un écran incurvé recouvert de cristal de saphir. Le dernier IDF avait également été l’occasion d'évoquer Edison, un PC ultra compact de la taille d’une carte SD et intégrant notamment un SoC à deux cœurs cadencés à 500 MHz.

 

Intel Edison

Une utilisation centrée sur certains domaines professionnels 

On peut donc suggérer que la prochaine version des Google Glass pourrait emporter un SoC Intel qui serait une évolution de celui intégré dans l’Edison, d’autant que la firme compte étendre l'utilisation de la gravure en 14 nm dans les mois à venir. Toujours selon les sources du Wall Street Journal, le géant de Santa Clara prévoirait une promotion particulière de ce modèle dans les champs d’activité couverts par Glass at Work. Mais l’équipe dévolue à ce programme concerne moins de 5 % du groupe centré sur les lunettes connectées et qui comprend environ 300 personnes.

 

Eric Johnsen, qui a créé le programme Glass at Work, est désormais vice-président commercial de la société APX Labs. Interrogé par le Journal, il a indiqué : « Nous nous attendons à ce que les Glass évoluent et soient plus utiles pour les entreprises ». Un point de vue d’autant plus certain qu’APX est fortement engagée sur l’utilisation des lunettes de Google dans certains domaines professionnels. Selon lui, la prochaine version des Glass devait présenter une meilleure autonomie, ce qui n’est pas un mal.

 

Un tel partenariat pourrait être une preuve supplémentaire du rapprochement entre les deux sociétés qui ont travaillé conjointement sur le 64 bits pour Android, Google faisant aussi déjà une large utilisation des processeurs Intel, dans ses serveurs, les Chromebook de ses partenaires ou dans son Nexus Player. Mais il faudra voir si le fondeur sera à même de proposer une puce compacte comme peuvent l'être ses SoC de la série Quark tout en disposant d'une puissance suffisante pour les tâches parfois complexes que des lunettes connectées peuvent nécessiter.

Commentaires (20)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

les actuels ont déjà du plomb dans l’aile pas sur que des prochaines sortent.

votre avatar

Je vois bien plutôt un cpu x86 qu’un cpu ARM. Intel avec le quark et d’autres cpus a un large choix dans les cpus x86 avec une large gamme Selon les watts demandés. Je vois mal intel y mettre un soc arm maintenant. Aavnt oui mais plus maintenant ou alors cela signifie qu’ils n’ont pas encore l’équivalent en x86. J’en doute vu le travail fourni ces 2 dernières années.

votre avatar

Mdrr tu fais de la spéculation inutile pour des lunettes qui ne vont pas se vendre..

votre avatar

“d’autant que la firme compte étant l’utilisation de la gravure en 14 nm dans les mois à venir.”



étant = étendre ?

votre avatar

Justement, les architecture x86 (CISC) sont généralement plus consommatrice que les architecture “RISC” (comme ARM). Le seul intérêt que je vois de faire appel à intel, c’est qu’ils ont les sous-traitant pour faire les gravures les plus fines (et donc moins de consommation).

votre avatar

Je m’autorise un questionnement sur l’intérêt d’utiliser une puce x86 plutôt qu’ARM : serait-ce parce que ça permet de créer des applications plus puissantes (évoluées ?). Je sais que je ne devrais pas comparer un desktop avec une tablette/smartphone, mais force est de constater que les applis complexes sont sur les premiers appareils, pas les seconds.

Maintenant, est-ce dû uniquement à la nature de l’ordi plutôt qu’à son architecture, je ne sais pas.

Est-ce que ça existe des serveurs ARM en entreprise/université/recherche ?

votre avatar

La génération actuelle surchauffe très rapidement, j’espère que la solution proposée par Intel sera plus efficace de ce cotés là.

votre avatar







Aloyse57 a écrit :



Je m’autorise un questionnement sur l’intérêt d’utiliser une puce x86 plutôt qu’ARM : serait-ce parce que ça permet de créer des applications plus puissantes (évoluées ?). Je sais que je ne devrais pas comparer un desktop avec une tablette/smartphone, mais force est de constater que les applis complexes sont sur les premiers appareils, pas les seconds.

Maintenant, est-ce dû uniquement à la nature de l’ordi plutôt qu’à son architecture, je ne sais pas.

Est-ce que ça existe des serveurs ARM en entreprise/université/recherche ?







 Oui ça existe, et c’est une solution de plus en plus étudié du fait de sa consommation moindre qui allège le budget de refroidissement. Je vois le marché avec ses différents formats d’appareils comme un champ de bataille entre deux architectures, l’une ayant l’avantage de la consommation et l’autre celle de la puissance. Chacune des deux essayant de renforcer son point faible pour aller grignoter du terrain à l’adversaire. Le front actuel est au niveau des tablettes où Intel propose des puces qui ne plombent pas la consommation et où ARM parvient à proposer une technologie permettant aux constructeurs de créer des puces suffisamment puissantes pour faire tourner les applications plus gourmandes. Intel risquant de se faire prendre à revers par une infiltration d’ARM dans les serveurs, ils se concentrent beaucoup sur leur possibilité de pénétrer le marché de objets connectés, fief d’ARM pour le moment. A la fin…


votre avatar

Il pourrait pas plutôt virer tout le stockage et le cpu pour en faire un simple périphérique d’affichage/enregistrement en mettant l’accent sur la discrétion :

mettre le prisme (enfin je suppose que c’est un prisme)derrière les lunettes,

intégrer la caméra entre les 2 verres.

 

et le faire communiquer en crypté avec un smartphone qui assure le cpu et le stockage

votre avatar

Je pense aussi que la partie “calcul” devrait être déportée pour alléger pour l’ensemble (niveau masse et coût).

Je pense qu’il peut y avoir un gros potentiel d’usage pour ces lunettes : guidage amélioré pour les automobilistes, informations en réalité augmentée pour les touristes/visiteurs, et tant de choses à imaginer!

votre avatar

Un Quark est assez peu probable, ses performances sont vraiment réduites (micro architecture i486 avec certaines instructions Pentium en plus), surtout comparées à celles des 2 Cortex-A9 @1.2 GHz (OMAP 4430) de la version actuelle des Google Glass.

votre avatar

Faut bien qu’elles trouvent des acheteurs et des développeurs vu que tout le monde fuit les Google Glass déjà interdite à tellement d’endroit que personne en voit la moindre utilité.



Au moins dans un usage pro elle trouveronts des débouchées.

votre avatar

Alors que des iGlass, ce serait trop la classe à porter <img data-src=" />

votre avatar







uzak a écrit :



Alors que des iGlass, ce serait trop la classe à porter <img data-src=" />





C’est pas la question, Toshiba a développé des glass et a directement visé le marché adéquat, le marché pro (médical, industrie). Vu tous les endroit où les glass sont interdite elle voient leurs usages grand public grandement restreintes quand même.


votre avatar







tazvld a écrit :



Justement, les architecture x86 (CISC) sont généralement plus consommatrice que les architecture “RISC” (comme ARM). Le seul intérêt que je vois de faire appel à intel, c’est qu’ils ont les sous-traitant pour faire les gravures les plus fines (et donc moins de consommation).





C’est faux, l’archi x86 n’est pas plus consommatrices que l’archi ARM. Les dernières puces mobiles x86 d’intel consomment comme les puces arm voir moins à perf identique.



&nbsp;


votre avatar







the true mask a écrit :



Mdrr tu fais de la spéculation inutile pour des lunettes qui ne vont pas se vendre..





Évitons les trolls qui n’apportent rien.


votre avatar







mightmagic a écrit :



C’est faux, l’archi x86 n’est pas plus consommatrices que l’archi ARM. Les dernières puces mobiles x86 d’intel consomment comme les puces arm voir moins à perf identique.





A finesse de gravure identique ? Sur des programmes usuels ? avec quel compilateur ?

Car bon, c’est bien gentil, mais entre un processeur graver au marteau/burin et un autre par lithogravure 14nm, il n’y a pas photo.

De même, un processeur ARM n’a pas tous les jeux d’instructions d’un processeur x64 moderne, et rare sont les programmes usant de ces fameux jeux d’instructions.

De même, le compilateur va jouer un rôle important, car par exemple, celui d’intel va optimiser les instructions utilisé pour son processeur, alors que GCC par exemple va essayer plutôt d’optimiser plus généralement (et utiliser par défaut les instructions universelles X86 ou X64).


votre avatar







tazvld a écrit :



A finesse de gravure identique ? Sur des programmes usuels ? avec quel compilateur ?

Car bon, c’est bien gentil, mais entre un processeur graver au marteau/burin et un autre par lithogravure 14nm, il n’y a pas photo.

De même, un processeur ARM n’a pas tous les jeux d’instructions d’un processeur x64 moderne, et rare sont les programmes usant de ces fameux jeux d’instructions.

De même, le compilateur va jouer un rôle important, car par exemple, celui d’intel va optimiser les instructions utilisé pour son processeur, alors que GCC par exemple va essayer plutôt d’optimiser plus généralement (et utiliser par défaut les instructions universelles X86 ou X64).





Va voir les tests des derniers cpus intel pour mobile, tu verras.



On s’en fout que ça soit ou pas à la même gravure, on compare ce qui est disponible. Ce n’est pas la faute d’intel si la concurrence fait moins bien en finesse de gravure.

Google ne va pas se demander, intel ferait moins bien à finesse identique donc on ne prend pas même s’ils ont une bien meilleure finesse et donc des cpus aussi bons ou meilleure. Ce serait totalement stupide comme décision.



&nbsp;


votre avatar

Je me cite :







tazvld a écrit :



Justement, les architecture x86 (CISC) sont généralement plus consommatrice que les architecture “RISC” (comme ARM). Le seul intérêt que je vois de faire appel à intel, c’est qu’ils ont les sous-traitant pour faire les gravures les plus fines (et donc moins de consommation).





Et je te cite :





mightmagic a écrit :



C’est faux, l’archi x86 n’est pas plus consommatrices que l’archi ARM. Les dernières puces mobiles x86 d’intel consomment comme les puces arm voir moins à perf identique.





Dans un usages “courant” à finesse de gravure équivalente, c’est très certainement l’ARM qui aura le meilleur rapport perf/consommation. Mais j’avais nuancé mes propos au travers de la finesse de gravure et donc dans les faits, oui, Intel est un choix intéressant.

Après, je pense que google va quand même essayer de tirer partie au maximum des puces intel et de instructions un peu “exotique” (j’ai entendu parler de l’AVX2 par exemple apparu dans les dernières puces intel pour paralléliser les calculs sur les entiers).


votre avatar







tazvld a écrit :



Je me cite :



Et je te cite :



Dans un usages “courant” à finesse de gravure équivalente, c’est très certainement l’ARM qui aura le meilleur rapport perf/consommation. Mais j’avais nuancé mes propos au travers de la finesse de gravure et donc dans les faits, oui, Intel est un choix intéressant.

Après, je pense que google va quand même essayer de tirer partie au maximum des puces intel et de instructions un peu “exotique” (j’ai entendu parler de l’AVX2 par exemple apparu dans les dernières puces intel pour paralléliser les calculs sur les entiers).





Peut être mais à l’heure actuelle aucune puce arm ne peut bénéficier des gravures d’intel et intel ne va pas vendre des puces arms quand il a des puces x86 aussi bonnes. Si tu regardes la stratégie d’intel, c’est imposer le x86 partout, pas de faire de l’arm. L’arm c’était et c’est pour des domaines où le x86 n’est pas encore valable dans un produit.


Les prochaines Google Glass pourraient embarquer une puce Intel

  • Une puce Intel dans les prochaines Google Glass

  • Une utilisation centrée sur certains domaines professionnels 

Fermer