IDF 2014 : Intel veut profiter des révolutions en cours, et évoque Skylake
Intel partout, ARM nulle part ?
Le 09 septembre 2014 à 17h02
5 min
Sciences et espace
Sciences
C'est aujourd'hui que s'ouvrait le second IDF avec Brian Krzanich aux commandes. Le nouveau PDG d'Intel est ainsi venu sur scène pour évoquer les nouveaux marchés visés par l'entreprise et sa stratégie à long terme, toujours avec le x86 au cœur.
L'année dernière, Intel montrait toute sa volonté de se lancer dans le monde des objets connectés, mais aussi sur le marché du « wearable ». Une volonté qui prenait la forme de l'annonce du processeur Quark, mais qui s'est renforcée depuis avec l'arrivée d'un nouveau modem ultra compact ou de plusieurs produits créés avec de grands nom de la mode ou de la musique.
Intel, c'est fashion !
Une volonté d'obtenir rapidement des résultats exprimée assez clairement par Brian Krzanich dès l'ouverture de sa keynote de cette année, ce dernier évoquant l'importance de montrer que les annonces mènent à du concret d'une année à l'autre. L'occasion d'apprendre qu'AT&T sera le distributeur exclusif du bracelet MICA. Il est néanmoins rapidement revenu aux basiques d'Intel et le besoin d'étendre la présence des puces x86, qui étaient plus de 2,2 milliards sur le marché en 2013.
Après que Greg McKelvey de Fossil Group se soit un peu appesanti sur la notion de marque, de partenariat et comment des sociétés peuvent travailler ensemble pour créer des produits innovants, notamment dans le monde de la mode, Krzanich est revenu sur Edison. Ce PC ultra compact, de la taille d'une carte SD, était annoncé il y a quelques mois et est arrivé sur le marché depuis. Proposé à 50 $ chez certains revendeurs, il devrait être présent dans 65 pays d'ici la fin de l'année. Pour rappel, il est composée d'un SoC à deux cœurs fonctionant à 500 MHz et gravé en 22 nm, et d'un microcontrôleur Quark 32 bits à 100 MHz. Il intègre 1 Go de LPDDR3, 4 Go d'eMMC, du Wi-Fi double bande, du Bluetooth LE et peut supporter un connecteur GPIO à 40 brocheS.
Intel espère ainsi voir « une explosion de l'innovation » autour de ce produit, notamment via les « makers » qui sont mentionnés partout dans la communication d'Intel ces derniers temps. Il en est surement de même concernant un autre produit, moins compact mais qui vise un public similaire : Galileo.
Des objets aux serveurs en passant par la recherche, Intel veut être partout
Mais le vrai focus d'Intel reste l'internet des objets (IoT pour les intimes), qui a un double intérêt pour la société, qui peut à la fois chercher à se placer dans les objets en questions, mais aussi dans le secteur du Big Data et des serveurs nécessaires pour traiter la multitude de données générées par tous ces gadgets, plus ou moins utiles, mais qui vont prendre une place de plus en plus importante dans nos vies, qu'on le veuille ou non. De quoi nous faire entrer dans « l'ère de l'analytique ».
Intel vise aussi le marché de la médecine et de la génétique, multipliant les partenariats et les efforts afin de prendre une place de choix dans l'étude du génome et l'analyse des maladies pouvant toucher chacun d'entre nous, qui sera sans doute l'un des marchés en pleine expansion dans les prochaines années. La promesse ? Séquencer votre génome, détecter vos cancers possibles et vous donner des conseils médicaux, le tout en une seule journée d'ici 2020. Dans seulement six ans.
Plus proche de nous, il a été question d'un nouveau programme réservé aux développeurs, A-Wear (Analytics for wearables) pensé pour faciliter la création d'applications et de services permettant d'analyser et de traiter les données issues d'objets connectés. Celui-ci permet d'accéder à des outils spécifiques mais aussi aux solutions de Cloudera, sans que l'on ait pour le moment tous les détails.
Le 14 nm bientôt dans vos portables, l'année prochaine dans vos PC de bureau
Il était ensuite temps de parler des machines qui font notre quotidien, notamment avec les récentes annonces ou l'arrivée du 14 nm et des Core M, les versions de bureau étant bien prévues pour le début de l'année prochaine. Bien entendu, Kirk Skaugen nous a vanté les intérêts de son nouveau bébé, que ce soit en termes de performance, de finesse ou même d'autonomie.
Mais la suite de la roadmap a aussi été évoquée, avec Skylake. Pour rappel, il s'agira ici d'une nouvelle architecture qui sera la seconde à profiter du 14 nm. Une première démonstration a été faite sur 3DMark, mais aussi un 2-en-1 qui sera proposé aux développeurs afin de leur permettra d'adapter leurs applications. Skylake est attendu pour la seconde moitié de 2015.
Du côté des usages, on a eu droit à l'habituelle charge contre les mots de passe qu'il faut absolument remplacer, sans doute par des outils biométriques qui ne conviendront pas non plus... nous incitant à rester sur les mots de passe. Mais c'est du côté des usages sans fil qu'il faut chercher des éléments intéressants, que ce soit du côté de la charge sans fil (via Rezence, ex AW4P). Mais comme l'on pouvait s'y attendre, des stations d'accueil sans fil seront aussi de la partie, tout comme WiDi (Wireless Display).
Tant de pistes qui devraient permettre à Intel de s'assurer une omniprésence dans notre avenir... si tout se passe comme prévu.
IDF 2014 : Intel veut profiter des révolutions en cours, et évoque Skylake
-
Intel, c'est fashion !
-
Des objets aux serveurs en passant par la recherche, Intel veut être partout
-
Le 14 nm bientôt dans vos portables, l'année prochaine dans vos PC de bureau
Commentaires (21)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/09/2014 à 17h38
Du coup intel lance les i3-i5-i7 Broadwell en 14 nm début 2015 et les Skylake au deuxième semestre ?
Le 09/09/2014 à 18h16
Le 09/09/2014 à 18h52
Le 09/09/2014 à 19h02
Et sur le LGA 1150 y aura du 6 cœurs au moins ? ou c’est encore reparti avec du 4 cœurs ?
edit = visiblement c’est que du quad core même pour skylake bon ben…… X99
Le 09/09/2014 à 20h00
Damned j’ai en commande une cm itx z97 un i7 4790k et 16go ddr3….. " />
Leurs remplaçants déjà dans 6 mois ?
" />
Le 09/09/2014 à 20h19
Remercions l’éco-taxe, que le client paie et qui permet aux entreprises et avec la complicité de nos chers politocards, de prendre notre planète pour une poubelle géante en incitant à la sur-consommation et à la prolifération de déchets électronique.
Le 10/09/2014 à 05h27
Remercions l’éco-taxe, que le client paie et qui permet aux entreprises et avec la complicité de nos chers politocards, de prendre notre planète pour une poubelle géante en incitant à la sur-consommation et à la prolifération de déchets électronique.
Et oui ! D’autant plus que plus les gravures sont fines (16 nm, c’est une grosse centaine d’atomes …) plus la durée de vie des ces circuits est limitée. Bref, attendez-vous à remplacer assez souvent ces inutiles gadgets.
Le 10/09/2014 à 06h02
Le 10/09/2014 à 07h15
Le 10/09/2014 à 08h14
Vraiment pressé de voir qu’est ce que ces core M vont donner :)
Le 10/09/2014 à 08h18
Le 10/09/2014 à 08h44
Je pense que tu connais assez mal le sujet, parce que c’est assez bien caractérisé justement l’usure de chaque point du circuit.
Je connais très bien le sujet. Je m’occupe avec les fabricants de semi-conducteurs des problèmes posés par les composants utilisés dans l’industrie pour qui la fiabilité et la durée de vie des équipements est fondamentale. Dans les années 60 70, l’industrie électronique est guidée par les besoins des industriels qui représentaient alors la majorité du marché en valeur. Avec le développement explosif du marché grand public de ces dernières décennies, l’essentiel du chiffre d’affaires des fabricants de semi-conducteurs est réalisé avec ce marché grand public. Les industriels sont désormais obligés de se servir des composants grand public pour fabriquer des automates industriels. La preuve en est que les gammes de composants dits “militaires” ou “industriels” ne sont plus dans les catalogues. Il fut une période (années 80 et 90) où les composants grand public et industriels étaient confondus, ce qui à permis de faire baisser les coûts des applications industrielles.
C’est donc le marché grand public qui oriente la recherche et le développement des composants. Et là, c’est la course en avant, comme le montre cet article. Les technologies des semi-conducteurs ne seront jamais matures parce qu’en perpétuelle évolution, et ce n’est pas moi qui le dit, ce sont les fabricants eux-mêmes. Cette fiabilité relative des composants électroniques actuelle n’est par en soi gênante pour un marché qui se renouvelle rapidement, mais elle est très gênantes pour les utilisateur qui ont besoin de matériels sérieux. Et cette distance entre les besoins des industriels et les disponibilités du marché augmente d’années en années.
Et pouvoir graver a 16nm n’empêche pas de graver des mos de 1um bien au contraire.
Non, les usines ont disparu pour la plupart. Et s’il en reste pour des raisons évoquées plus haut (fiabilité), les coûts de production sont d’un tout autre ordre.
Il est possible en effet que dans l’avenir, on retrouve comme dans les années 60 deux marché séparés, un marché industriel, avec des technologies éprouvées fabriquées avec des process rares et chers, et un marche grand public où la durée de vie des composants n’est pas une affaire puisque l’on jette une fois que c’est en panne.
Le 10/09/2014 à 09h05
Le 10/09/2014 à 09h10
Le 10/09/2014 à 09h11
Le 10/09/2014 à 15h46
Le 10/09/2014 à 15h52
Le 10/09/2014 à 18h19
Bon, désolé si je te froisse mais tu parles de composants discrets plutot on dirait.
Je ne vois pas où tu vois que je parle de composants discrets. Il s’agit bien de VLSI.
Un cahier des charges ne fait pas tout. C’est un papier. Le circuit intégré obéit à des lois physiques et non à une spécification. Disons seulement qu’il est étudié pour respecter une spécification, cela ne veut pas dire que des phénomènes non contrôlés sont alors exclus.
Voici une liste non exhaustive dont peut souffrir un circuit intégré
Tout cela est d’autant plus sensible que les gravures sont fines et que la température de fonctionnement est élevée.
Les fabricants ont intérêt à pousser leurs produits aux limites physiques pour proposer à moindre coût des circuits de plus en plus puissants. Il n’est donc pas dans leur projet de limiter la température de fonctionnement à fonctions égales, mais d’intégrer dans le même composant plus de fonctions à température de fonctionnement égale.
Le 10/09/2014 à 18h21
Tu aurais un article qui parle du phénomène de cause a effet?
Je pensais que du fait de la finesse ça chauffait plus et donc que c était plus fiable
Il y en a plein :
Google
Le 10/09/2014 à 21h06
Le 10/09/2014 à 21h59
@ptetbien:
Comme toujours, il faut qu’on atteigne les limites et les problèmes pour s’en inquiéter, tant que ça passe, on ne met pas d’énergie dessus. Le cycle prend du coup quelques années (développement, production, échec, construction d’outils pour prévenir).