Connexion
Abonnez-vous

IBM rassemble les photons et les électrons dans une puce « nanophotonique »

Le Graal de la lumière

IBM rassemble les photons et les électrons dans une puce « nanophotonique »

Le 11 décembre 2012 à 16h27

IBM, en tête depuis des années dans le classements des dépôts de brevets, pourrait révolutionner le monde de l’informatique avec la présentation récente de travaux sur la lumière : le mariage de l’optique et de l’électronique classique au sein d’équipements prêts à entrer en production de masse.

datacenter

Crédits : Robert Scoble, licence Creative Commons

Maîtriser la lumière

L’optique représente dans l’informatique une certaine forme de Graal. Sa capacité de transport de l’information attire depuis longtemps mais sa maîtrise s’est toujours heurtée à un mur. En effet, l'infrastructure nécessaire à son utilisation est radicalement différente de ce que l’industrie informatique utilise depuis plusieurs décennies : le circuit imprimé et le transistor. Comment relier alors l’onde lumineuse au transport traditionnel des électrons ?

 

En 2010, IBM avait présenté des travaux sur une technologie nommée « Silicon Nanophotonics ». Il s’agissait alors, comme le rappelle Ars Technica, de concevoir une machine dotée d’une monstrueuse puissance de calcul pour le compte du NCSA (National Center for Supercomputing Applications) de l’université américaine de l’Illinois. Le projet, nommé Blue Waters, fut finalement abandonné car la technologie n’était pas encore prête. Big Blue a cependant continué à travailler sur la pièce maîtresse, l’émetteur-récepteur, en vue de la rendre propre à une production de masse.

 

La firme est finalement parvenue aux résultats escomptés. Elle est arrivée à produire une puce intégrant à la fois des composants photoniques et des composants électroniques via une gravure d’une finesse inférieure à 100 nm. Plus exactement, la puce est capable de convertir les signaux d’une partie à une autre sans pratiquement aucune latence, ouvrant la voie de gigantesques flots de données dans des infrastructures telles que les centres de données (datacenters).

Rassembler deux mondes très différents

Contrairement à l’informatique standard, les puces d’IBM permettent de transporter l’information à la vitesse de la lumière en se servant des impulsions au lieu du courant électrique. Tant que l’onde peut circuler, elle n’est pas affectée par les problèmes inhérents à l’électricité et que l’ingénierie d’IBM, Intel ou AMD a pu rencontrer jusqu’à aujourd’hui dans les processeurs. Par exemple : un équilibre délicat entre la finesse de gravure, l’échauffement des transistors voire les pertes d’électrons. On se souvient d’ailleurs qu’IBM avait introduit la technologie SOI (silicon-on-insulator) pour réduire les pertes, et que l’on retrouvait alors dans les Athlon d’AMD.

 

nanophotonics

 

Pour mieux comprendre le fonctionnement de la puce d’IBM, il faut observer l’image ci-dessus. Ce « cube » présente un fonctionnement simple dans son ensemble : un détecteur photonique, en rouge à gauche, et un modulateur, en bleu à droite, font figure d’entrée et de sortie pour les impulsions lumineuses. Le reste est constitué d’un empilement de neuf étages métalliques.

 

nanophotonics

 

Cette deuxième image montre comment la lumière et l'électricité interagissent. Les courbes bleues représentent les guides lumineux transportant les impulsions. Ils sont en contact avec les parties jaunes, des réseaux de structures en cuivre dans lesquels circulent les signaux électriques. On retrouve bien la « fusion » des deux structures.

De larges perspectives

IBM a en outre réussi à produire sa puce dans un classique procédé CMOS d’une finesse de 90 nm. Selon la firme, cela ouvre la porte à la production de nombreux composants tels que des modulateurs ou encore des multiplexeurs ultra-compacts. Un seul émetteur-récepteur utilisant la technologie d’IBM peut transférer plus de 25 Gb/s. Les « silicon nanophotonics » peuvent également embarquer des composants réalisant du multiplexage en longueur d'onde. C’est d’ailleurs là une clé de l’évolution pour IBM : la possibilité de multiplexer de grands flux de données à très haute vitesse entre des zones distantes d’équipements informatiques, sans passer par des équipements supplémentaires pour convertir le signal.

 

Les retombées devraient se faire en priorité sur les équipements réseaux qui servent d’infrastructure maîtresse dans les centres de données. La communication entre les différentes machines pourrait se faire à des vitesses bien supérieures à aujourd’hui. Pour une intégration plus fine cependant, il faudra attendre encore.

 

Les travaux d’IBM seront présentés plus en détail la semaine lors de la conférence IEEE International Electron Devices Meeting (IEDM). Comme indiqué cependant par le docteur John E. Kelly, il s’agit dans tous les cas pour IBM d’une « percée technologique », le « résultat de plus de dix ans de recherches pionnières ».


Notez qu'en dépit de l'enthousiasme d'IBM, aucune production concrète n'a encore été annoncée. Cependant, Big Blue est certaine que la production de masse se fera prochainement, le procédé utilisé étant relativement économique.

Commentaires (45)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







HarmattanBlow a écrit :



De toute façon j’ai envie de dire que tout progrès dans la vitesse de calcul impacte d’autres domaines. Un bon exemple est l’IRM : un procédé connu dès avant la seconde guerre mondiale mais rendu possible uniquement dans les années 80 grâce à la puissance de calcul. Si l’on pouvait facilement réaliser des simulations pour tester l’effet de divers molécules, d’altérations génétiques ou autres, cela promettrait de très belles avancées dans de très nombreux domaines.





Vrai, mais incomplet. On utilise la RMN depuis longtemps en chimie pour la caractérisation, et pour des applications simples d’imagerie (pas médicale).

L’IRM c’est l’application de la RMN à l’imagerie médicale, où là effectivement ca demande un max de calculs.


votre avatar

m’ouais … c’est jamais que la 4837ème annonce du genre en 30 ans

Ils finiront par avoir raison mais ça m’étonnerait que ça révolutionne quoi que ce soit avant au moins 10 ans.



c’est un peu comme IPv6 … en pire, y a aucun impératif pour laisser tomber l’électronique classique.

votre avatar







HarmattanBlow a écrit :



De toute façon j’ai envie de dire que tout progrès dans la vitesse de calcul impacte d’autres domaines. Un bon exemple est l’IRM : un procédé connu dès avant la seconde guerre mondiale mais rendu possible uniquement dans les années 80 grâce à la puissance de calcul. Si l’on pouvait facilement réaliser des simulations pour tester l’effet de divers molécules, d’altérations génétiques ou autres, cela promettrait de très belles avancées dans de très nombreux domaines.





Vrai, mais si j’ai bien compris, ça ne va en rien accéléré les calculs, puisque toujours réalisés sur puces silicium, mais réduire les temps de latence sur les transmission.


votre avatar







gimiz a écrit :



Comme pour les amplis de gratte donc ? On parle du passé ou du futur ? :P







J’ai toujours dis que le futur c’était mieux avant. Quelqu’un chez IBM a du entendre ma complainte ! <img data-src=" />


votre avatar







Sariote a écrit :



J’ai rien pigé au fonctionnement mais le résultat est hyper prometteur.

Est-ce que cela augure la quasi-suppression des étranglements dans les bus ?





Je dirais que ça dépend où t’habites, à Londres y’a du boulot



———–&gt;[si vous me cherchez je suis déjà sorti]


votre avatar







ZeHiro a écrit :



Parler de photonique est encore trop tôt, plutôt de la photoelectronique. On a toujours besoin de l’électronique pour traiter les données.

L’avènement de la photonique arrivera lorsque la commutation de lumière sera possible sans dispositif électronique externe. En gros, on attend toujours l’invention du transistor tout optique. Ce qui n’a pas encore été fait.





Merci pour la précision. <img data-src=" />


votre avatar







ZeHiro a écrit :



Vrai, mais si j’ai bien compris, ça ne va en rien accéléré les calculs, puisque toujours réalisés sur puces silicium, mais réduire les temps de latence sur les transmission.





Oui mais ça pourrait bénéficier au temps de calcul tout de même: aujourd’hui la latence de la mémoire est un frein important dans certaines applications, ce genre de chose permet peut-être d’y remédier. Qui sait, ça pourrait même amener du changement dans le conception de nos CPU avec moins de cache et plus d’instructions.



Bon, je spécule.


votre avatar







Optrolight a écrit :



Vraiment simpa cet article. Outre les centre de donnée la première application grand publique que je vois est pour le FTTH. en effet les SFP (les convertisseurs opto electronique du signal coute cher et sont encore important en terme de volume. Avec ce genre de pus directement on ship cela permettra de réduire le cout de déploiement du FTTH ainsi qu’une plus grande facilité d’intégration.





Il n’y aurait pas un soucis de puissance de faisceau quand même?



Mais avec ce genre de technos, on verra peut être apparaitre des processeurs optiques?

Et là en termes de puissance ça pourra devenir incomparable, de même qu’en termes de conso!


votre avatar







jinge a écrit :



Mais avec ce genre de technos, on verra peut être apparaitre des processeurs optiques?





Le transistor optique n’existe toujours pas, donc pas de processeur optique.


votre avatar

C’est le principe du thunderbolt ??<img data-src=" /><img data-src=" />

votre avatar







ZeHiro a écrit :



Le transistor optique n’existe toujours pas, donc pas de processeur optique.





Si il existe depuis pas longtemps. Mais il consomme encore beaucoup beaucoup trop d’energie….

Patience !


votre avatar

IBM, toujours des années d’avance sur les concurrents dans la R&D… impressionnant, comme toujours!

votre avatar







Drepanocytose a écrit :



Si il existe depuis pas longtemps. Mais il consomme encore beaucoup beaucoup trop d’energie….

Patience !





Oups, j’avais pas suivi. My bad.

Il y a encore de la recherche avant les premiers procos, mais on y arrive progressivement


votre avatar

Le type d’innovation qui mérite largement un brevet. On est loin des “rectangles à bord arrondis” et autres gamineries du même genre.

Bravo IBM ! <img data-src=" />

votre avatar







Drepanocytose a écrit :



Si il existe depuis pas longtemps. Mais il consomme encore beaucoup beaucoup trop d’energie….

Patience !







Mouais… Il y a aussi la taille du bidule… “The device has a rectangular crosssection

of 250 nm in thickness and 500 nm in width,”



C’est toujours le même soucis avec la lumière…



Pour en revenir à la news, je ne comprends pas bien la nouveauté, ils font de l’opto-électronique avec du silicium au lieu de III-V?


votre avatar



Et Intel ils en sont où? Me rappelle une news sur un processeur photonique, avec des signaux qui se croisent (bien pratique la lumière pour ça) et surtout de la serialisation qui poutre, vu qu’on n’est pas obligé d’attendre que la donnée arrive pour en envoyer une autre, sur le même chemin.



En tous cas, bravo IBM, c’est la classe <img data-src=" />

votre avatar

Ouh-là !



Voilà qui va faire faire un bond en avant à la capacité, à la vitesse des transferts des données !



Ça va roxxer dans les PC dans quelques temps !!! <img data-src=" />

votre avatar

Big Blue est toujours à la pointe. Et c’est pas près de s’arrêter.

C’est en effet un grand pas de franchi, et les 90 nm, c’est un exploit technique impressionnant pour une telle puce.

Depuis un certain temps, IBM souhaite repenser les unités de calculs, et je pense que l’interface photon / electron sera de toutes façon l’un des nerfs de la guerre !

votre avatar

Ca promet aussi des choses intéressantes pour le multi-coeur / multi processeurs… Et grosso modo pour tous les bus de donnée, pour qui la montée en fréquence et la distance seraient moins dimensionnant. Sans parler que le multiplexage des fréquences permettrait d’augmenter la largeur de bus par brin…

votre avatar

J’ai pensé à TRON…

votre avatar

Donc dans le futur, pour bien overclocker son processeur, il faudra mettre une ampoule plus puissante dans son PC <img data-src=" />



<img data-src=" />



<img data-src=" />


votre avatar

IBM rassemble les photos et les électrons dans une puce « nanophotonique »



Ce n’est pas plutôt photons ?

votre avatar

Plus besoin de matos dédié pour faire du tuning-led sur son proco <img data-src=" />



Sinon à part ça, très bonne techno et bon article <img data-src=" />

votre avatar

En fait, on ne ppourra même plus parler d’ « électronique », il faudra dire « photonique », CQFD !

votre avatar







paradise a écrit :



En fait, on ne ppourra même plus parler d’ « électronique », il faudra dire « photonique », CQFD !







Toutafé, on passe de la fermionique à la bosonique … c’est tout de suite plus marrant dis comme ça <img data-src=" />


votre avatar

J’ai rien pigé au fonctionnement mais le résultat est hyper prometteur.



Est-ce que cela augure la quasi-suppression des étranglements dans les bus ?

votre avatar







John Shaft a écrit :



Donc dans le futur, pour bien overclocker son processeur, il faudra mettre une ampoule plus puissante dans son PC <img data-src=" />



<img data-src=" />



<img data-src=" />







Comme pour les amplis de gratte donc ? On parle du passé ou du futur ? :P


votre avatar







gimiz a écrit :



Comme pour les amplis de gratte donc ? On parle du passé ou du futur ? :P









Plutot comme les premiers transistors :)


votre avatar







Sariote a écrit :



J’ai rien pigé au fonctionnement mais le résultat est hyper prometteur.



Est-ce que cela augure la quasi-suppression des étranglements dans les bus ?







De ce que j’en ai compris, oui, dans la mesure où cela peut s’appliquer aux coeurs techniques des infra-réseau, cela devrait s’appliquer aux bus (les bus d’une machine ne formant qu’une sorte de réseau bas niveau, avec leur protocoles de Rx/Tx)


votre avatar

Intéressant, et ca pourrait avoir de multiples implications dans bien d’autres domaines que l’info et l’electronique.



Par contre, quid des soucis avec cette techno et des aspects négatifs encore à solutionner ?

Par exemple (au pif), des effets quantiques non desirés sur le tranport des photons ? De la diffraction ? Des interférences, genre fentes d’Young ? Des difficultés dans le comptage photonique ? etc.

votre avatar







paradise a écrit :



En fait, on ne ppourra même plus parler d’ « électronique », il faudra dire « photonique », CQFD !





Parler de photonique est encore trop tôt, plutôt de la photoelectronique. On a toujours besoin de l’électronique pour traiter les données.

L’avènement de la photonique arrivera lorsque la commutation de lumière sera possible sans dispositif électronique externe. En gros, on attend toujours l’invention du transistor tout optique. Ce qui n’a pas encore été fait.


votre avatar







Drepanocytose a écrit :



Intéressant, et ca pourrait avoir de multiples implications dans bien d’autres domaines que l’info et l’electronique.





De toute façon j’ai envie de dire que tout progrès dans la vitesse de calcul impacte d’autres domaines. Un bon exemple est l’IRM : un procédé connu dès avant la seconde guerre mondiale mais rendu possible uniquement dans les années 80 grâce à la puissance de calcul. Si l’on pouvait facilement réaliser des simulations pour tester l’effet de divers molécules, d’altérations génétiques ou autres, cela promettrait de très belles avancées dans de très nombreux domaines.


votre avatar

Vraiment simpa cet article. Outre les centre de donnée la première application grand publique que je vois est pour le FTTH. en effet les SFP (les convertisseurs opto electronique du signal coute cher et sont encore important en terme de volume. Avec ce genre de pus directement on ship cela permettra de réduire le cout de déploiement du FTTH ainsi qu’une plus grande facilité d’intégration.

votre avatar

On verra ce que ça va donner, mais il faut rester prudent. A cette taille et ces fréquences, ils vont avoir fort à faire pour gérer le problème des plasmons (en très très résumé et très très grossièrement, interférences/interactions entre photons, électrons et vibrations notamment avec des nanoparticules).

votre avatar







Citan666 a écrit :



Je dirais que ça dépend où t’habites, à Londres y’a du boulot



———–&gt;[si vous me cherchez je suis déjà sorti]







<img data-src=" /> <img data-src=" />


votre avatar

Plusieurs question me vienne a l’esprit:




  • La vitesse du courant électrique est proche de la vitesse de la lumière, donc hormis les déperdition énergique, on gagne tant que ça en rapidité de transmission de l’info ?

  • Et si ce gain est important, il ne va pas y avoir un goulet d’étrangement entre la transmission de la donnée et sont traitement ?

votre avatar







Nunch a écrit :



Plusieurs question me vienne a l’esprit:




  • La vitesse du courant électrique est proche de la vitesse de la lumière, donc hormis les déperdition énergique, on gagne tant que ça en rapidité de transmission de l’info ?

  • Et si ce gain est important, il ne va pas y avoir un goulet d’étrangement entre la transmission de la donnée et sont traitement ?







    Contrairement à l’électricité, tu peux envoyer d’autres photons avant que les autres soient arrivés. Et niveau thermique, ça devrait être mieux, à voir en pratique.


votre avatar

Bonne nouvelle mais il va falloir que le reste de la chaine suive la même évolution sinon ça va limiter l’intérêt (à 25Gb/s, les SSD vont faire taches :p ).

votre avatar







Nunch a écrit :





  • La vitesse du courant électrique est proche de la vitesse de la lumière, donc hormis les déperdition énergique, on gagne tant que ça en rapidité de transmission de l’info ?





    Je ne saurais pas te répondre précisément mais l’optique c’est :



    • Pas d’interférences (peu de bruit)

    • Débits plus élevés (pas d’induction = importante superposition sur une seule ligne)

    • Émission vraisemblablement faible sur les lignes (à l’extrémité, en revanche, on n’y gagne apparemment pas).

    • Moins de problèmes dus au vieillissement ou à l’encrassement.



      A mon avis à terme on devrait pouvoir simplifier les archis pour y caser plus de transistors. Mais pour l’instant, comme dit dans l’article, c’est avant tout côté équipements réseaux que le bénéfice sera important.



votre avatar







HarmattanBlow a écrit :



Je ne saurais pas te répondre précisément mais l’optique c’est :




  • Pas d’interférences (peu de bruit).





    Faux. C’est une onde, donc ca interfère.

    Cf fentes d’Young, interféromètre de Michelson, etc.







    Nunch a écrit :



    Plusieurs question me vienne a l’esprit:

  • La vitesse du courant électrique est proche de la vitesse de la lumière





    Dans le vide, et sans résistivité… C’est la nuance.




votre avatar







Nunch a écrit :



Plusieurs question me vienne a l’esprit:




  • La vitesse du courant électrique est proche de la vitesse de la lumière, donc hormis les déperdition énergique, on gagne tant que ça en rapidité de transmission de l’info ?

  • Et si ce gain est important, il ne va pas y avoir un goulet d’étrangement entre la transmission de la donnée et sont traitement ?







    Une résistance (tout ce qui conduit l’électricité même les supraconducteurs), une capacité parasite (des qu’il y a 2 bouts, il y a forcément une capacité) et hop, une fréquence de coupure.



    Maintenant, avoir de l’optique c’est bien (principe de la fibre…) mais cela reste essentiellement des conversions de électrique vers l’optique puis dans l’autre sens pour du transport d’information. Le traitement d’opérations en optique, cela reste très hypothétique à priori…




votre avatar







Drepanocytose a écrit :



Faux. C’est une onde, donc ca interfère.





Et l’eau mouille !



Essaie de remettre dans le contexte : quand on parle d’interférences à propos d’un signal, on parle là de pollution par une source extérieure. Or le fait est que la pollution EM ambiante a très vite une incidence sur un signal électrique porté par un fil de cuivre alors que les fibres y sont très peu sensibles (tu as besoin de très peu de répétiteurs par unité de distance).



Pour la simple raison que dans le cas électrique le signal qui vient se superposer est le courant induit par les ondes EM alors que dans l’autre cas ce sont les ondes EM elles-mêmes. Or, concernant ce dernier, via-à-vis d’une longueur d’onde donnée une fibre est presque toujours soit quasi-imperméable (et presque rien n’entrera) ou quasi-transparent (et la quasi-totalité de ce qui est entré ressort aussitôt sans être réfléchi par la surface interne, contrairement au signal, et sans perturber le signal).



D’ailleurs si je ne m’abuse, dans une fibre les répétiteurs ne sont là que pour lutter contre l’affaiblissement du signal et non sa pollution. Alors que je crois que dans un conducteur électrique le répétiteur est plutôt là pour le bruit.







Drepanocytose a écrit :



Dans le vide, et sans résistivité… C’est la nuance.





Non, la vitesse de l’information transmise par le courant électrique dans nos fils de cuivre est proche de la vitesse de la lumière. Et il n’y a de toute façon pas de courant électrique dans le vide : tu peux toujours y promener des électrons, à la vitesse que tu voudras (1m par an ou la vitesse de la lumière), mais pas un signal électrique comme celui que nous observons dans un conducteur et dans lequel les électrons se content de vibrer autour d’un point fixe.


votre avatar







HarmattanBlow a écrit :



Essaie de remettre dans le contexte : quand on parle d’interférences à propos d’un signal, on parle là de pollution par une source extérieure..





Evidemment

Mais un des problèmes avec la lumière, c’est également les interférences dans le système entre les photons eux mêmes.

J’arriva pas à trouver de lien suffisemment explicite et qui ne derive pas sur l’ordinateur quantique…





HarmattanBlow a écrit :



mais pas un signal électrique comme celui que nous observons dans un conducteur et dans lequel les électrons se content de vibrer autour d’un point fixe.





Me suis mal exprimé. Je parlais d’un signal electromagnétique.


votre avatar







Drepanocytose a écrit :



Mais un des problèmes avec la lumière, c’est également les interférences dans le système entre les photons eux mêmes.





Certains phénomènes quantiques se produisent dans les fibres optiques qui sont à l’origine de certains types de diffusion (ce qui entraîne superposition donc interférence), entre autres. Mais sur quelques centimètres il faut un signal sacrément faible pour y être confronté.





Me suis mal exprimé. Je parlais d’un signal electromagnétique.



La “vitesse de la lumière” étant en réalité la vitesse de phase d’une onde EM dans le vide, il est vrai qu’une onde EM ne se déplace à la vitesse d’une onde EM dans le vide que lorsqu’elle est dans le vide. Et je ne vois toujours pas ce que la résistivité vient faire là-dedans, ni le rapport avec ce qu’avait correctement affirmé Nunch.


votre avatar







paradise a écrit :



En fait, on ne ppourra même plus parler d’ « électronique », il faudra dire « photonique », CQFD !







oui mais il y a toujours une part d’électronique, on pourrait appelez çà l’electophotonique <img data-src=" />



vite je dois déposer l’idée <img data-src=" />


IBM rassemble les photons et les électrons dans une puce « nanophotonique »

  • Maîtriser la lumière

Fermer