IBM rassemble les photons et les électrons dans une puce « nanophotonique »
Le Graal de la lumière
Le 11 décembre 2012 à 16h27
5 min
Sciences et espace
Sciences
IBM, en tête depuis des années dans le classements des dépôts de brevets, pourrait révolutionner le monde de l’informatique avec la présentation récente de travaux sur la lumière : le mariage de l’optique et de l’électronique classique au sein d’équipements prêts à entrer en production de masse.
Crédits : Robert Scoble, licence Creative Commons
Maîtriser la lumière
L’optique représente dans l’informatique une certaine forme de Graal. Sa capacité de transport de l’information attire depuis longtemps mais sa maîtrise s’est toujours heurtée à un mur. En effet, l'infrastructure nécessaire à son utilisation est radicalement différente de ce que l’industrie informatique utilise depuis plusieurs décennies : le circuit imprimé et le transistor. Comment relier alors l’onde lumineuse au transport traditionnel des électrons ?
En 2010, IBM avait présenté des travaux sur une technologie nommée « Silicon Nanophotonics ». Il s’agissait alors, comme le rappelle Ars Technica, de concevoir une machine dotée d’une monstrueuse puissance de calcul pour le compte du NCSA (National Center for Supercomputing Applications) de l’université américaine de l’Illinois. Le projet, nommé Blue Waters, fut finalement abandonné car la technologie n’était pas encore prête. Big Blue a cependant continué à travailler sur la pièce maîtresse, l’émetteur-récepteur, en vue de la rendre propre à une production de masse.
La firme est finalement parvenue aux résultats escomptés. Elle est arrivée à produire une puce intégrant à la fois des composants photoniques et des composants électroniques via une gravure d’une finesse inférieure à 100 nm. Plus exactement, la puce est capable de convertir les signaux d’une partie à une autre sans pratiquement aucune latence, ouvrant la voie de gigantesques flots de données dans des infrastructures telles que les centres de données (datacenters).
Rassembler deux mondes très différents
Contrairement à l’informatique standard, les puces d’IBM permettent de transporter l’information à la vitesse de la lumière en se servant des impulsions au lieu du courant électrique. Tant que l’onde peut circuler, elle n’est pas affectée par les problèmes inhérents à l’électricité et que l’ingénierie d’IBM, Intel ou AMD a pu rencontrer jusqu’à aujourd’hui dans les processeurs. Par exemple : un équilibre délicat entre la finesse de gravure, l’échauffement des transistors voire les pertes d’électrons. On se souvient d’ailleurs qu’IBM avait introduit la technologie SOI (silicon-on-insulator) pour réduire les pertes, et que l’on retrouvait alors dans les Athlon d’AMD.
Pour mieux comprendre le fonctionnement de la puce d’IBM, il faut observer l’image ci-dessus. Ce « cube » présente un fonctionnement simple dans son ensemble : un détecteur photonique, en rouge à gauche, et un modulateur, en bleu à droite, font figure d’entrée et de sortie pour les impulsions lumineuses. Le reste est constitué d’un empilement de neuf étages métalliques.
Cette deuxième image montre comment la lumière et l'électricité interagissent. Les courbes bleues représentent les guides lumineux transportant les impulsions. Ils sont en contact avec les parties jaunes, des réseaux de structures en cuivre dans lesquels circulent les signaux électriques. On retrouve bien la « fusion » des deux structures.
De larges perspectives
IBM a en outre réussi à produire sa puce dans un classique procédé CMOS d’une finesse de 90 nm. Selon la firme, cela ouvre la porte à la production de nombreux composants tels que des modulateurs ou encore des multiplexeurs ultra-compacts. Un seul émetteur-récepteur utilisant la technologie d’IBM peut transférer plus de 25 Gb/s. Les « silicon nanophotonics » peuvent également embarquer des composants réalisant du multiplexage en longueur d'onde. C’est d’ailleurs là une clé de l’évolution pour IBM : la possibilité de multiplexer de grands flux de données à très haute vitesse entre des zones distantes d’équipements informatiques, sans passer par des équipements supplémentaires pour convertir le signal.
Les retombées devraient se faire en priorité sur les équipements réseaux qui servent d’infrastructure maîtresse dans les centres de données. La communication entre les différentes machines pourrait se faire à des vitesses bien supérieures à aujourd’hui. Pour une intégration plus fine cependant, il faudra attendre encore.
Les travaux d’IBM seront présentés plus en détail la semaine lors de la conférence IEEE International Electron Devices Meeting (IEDM). Comme indiqué cependant par le docteur John E. Kelly, il s’agit dans tous les cas pour IBM d’une « percée technologique », le « résultat de plus de dix ans de recherches pionnières ».
Notez qu'en dépit de l'enthousiasme d'IBM, aucune production concrète n'a encore été annoncée. Cependant, Big Blue est certaine que la production de masse se fera prochainement, le procédé utilisé étant relativement économique.
IBM rassemble les photons et les électrons dans une puce « nanophotonique »
-
Maîtriser la lumière
Commentaires (45)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 11/12/2012 à 18h19
Le 11/12/2012 à 18h25
m’ouais … c’est jamais que la 4837ème annonce du genre en 30 ans
Ils finiront par avoir raison mais ça m’étonnerait que ça révolutionne quoi que ce soit avant au moins 10 ans.
c’est un peu comme IPv6 … en pire, y a aucun impératif pour laisser tomber l’électronique classique.
Le 11/12/2012 à 18h26
Le 11/12/2012 à 18h27
Le 11/12/2012 à 18h45
Le 11/12/2012 à 18h59
Le 11/12/2012 à 18h59
Le 11/12/2012 à 19h15
Le 11/12/2012 à 19h36
Le 11/12/2012 à 19h36
C’est le principe du thunderbolt ??" />" />
Le 11/12/2012 à 19h44
Le 11/12/2012 à 19h49
IBM, toujours des années d’avance sur les concurrents dans la R&D… impressionnant, comme toujours!
Le 11/12/2012 à 20h14
Le 11/12/2012 à 23h45
Le type d’innovation qui mérite largement un brevet. On est loin des “rectangles à bord arrondis” et autres gamineries du même genre.
Bravo IBM ! " />
Le 11/12/2012 à 23h51
Le 12/12/2012 à 07h35
Et Intel ils en sont où? Me rappelle une news sur un processeur photonique, avec des signaux qui se croisent (bien pratique la lumière pour ça) et surtout de la serialisation qui poutre, vu qu’on n’est pas obligé d’attendre que la donnée arrive pour en envoyer une autre, sur le même chemin.
En tous cas, bravo IBM, c’est la classe " />
Le 11/12/2012 à 16h36
Ouh-là !
Voilà qui va faire faire un bond en avant à la capacité, à la vitesse des transferts des données !
Ça va roxxer dans les PC dans quelques temps !!! " />
Le 11/12/2012 à 16h37
Big Blue est toujours à la pointe. Et c’est pas près de s’arrêter.
C’est en effet un grand pas de franchi, et les 90 nm, c’est un exploit technique impressionnant pour une telle puce.
Depuis un certain temps, IBM souhaite repenser les unités de calculs, et je pense que l’interface photon / electron sera de toutes façon l’un des nerfs de la guerre !
Le 11/12/2012 à 16h38
Ca promet aussi des choses intéressantes pour le multi-coeur / multi processeurs… Et grosso modo pour tous les bus de donnée, pour qui la montée en fréquence et la distance seraient moins dimensionnant. Sans parler que le multiplexage des fréquences permettrait d’augmenter la largeur de bus par brin…
Le 11/12/2012 à 16h38
J’ai pensé à TRON…
Le 11/12/2012 à 16h49
Donc dans le futur, pour bien overclocker son processeur, il faudra mettre une ampoule plus puissante dans son PC " />
" />
" />
Le 11/12/2012 à 16h54
IBM rassemble les photos et les électrons dans une puce « nanophotonique »
Ce n’est pas plutôt photons ?
Le 11/12/2012 à 16h57
Plus besoin de matos dédié pour faire du tuning-led sur son proco " />
Sinon à part ça, très bonne techno et bon article " />
Le 11/12/2012 à 16h58
En fait, on ne ppourra même plus parler d’ « électronique », il faudra dire « photonique », CQFD !
Le 11/12/2012 à 17h03
Le 11/12/2012 à 17h11
J’ai rien pigé au fonctionnement mais le résultat est hyper prometteur.
Est-ce que cela augure la quasi-suppression des étranglements dans les bus ?
Le 11/12/2012 à 17h11
Le 11/12/2012 à 17h12
Le 11/12/2012 à 17h14
Le 11/12/2012 à 17h51
Intéressant, et ca pourrait avoir de multiples implications dans bien d’autres domaines que l’info et l’electronique.
Par contre, quid des soucis avec cette techno et des aspects négatifs encore à solutionner ?
Par exemple (au pif), des effets quantiques non desirés sur le tranport des photons ? De la diffraction ? Des interférences, genre fentes d’Young ? Des difficultés dans le comptage photonique ? etc.
Le 11/12/2012 à 18h05
Le 11/12/2012 à 18h14
Le 11/12/2012 à 16h34
Vraiment simpa cet article. Outre les centre de donnée la première application grand publique que je vois est pour le FTTH. en effet les SFP (les convertisseurs opto electronique du signal coute cher et sont encore important en terme de volume. Avec ce genre de pus directement on ship cela permettra de réduire le cout de déploiement du FTTH ainsi qu’une plus grande facilité d’intégration.
Le 12/12/2012 à 08h16
On verra ce que ça va donner, mais il faut rester prudent. A cette taille et ces fréquences, ils vont avoir fort à faire pour gérer le problème des plasmons (en très très résumé et très très grossièrement, interférences/interactions entre photons, électrons et vibrations notamment avec des nanoparticules).
Le 12/12/2012 à 08h30
Le 12/12/2012 à 09h04
Plusieurs question me vienne a l’esprit:
Le 12/12/2012 à 09h08
Le 12/12/2012 à 11h11
Bonne nouvelle mais il va falloir que le reste de la chaine suive la même évolution sinon ça va limiter l’intérêt (à 25Gb/s, les SSD vont faire taches :p ).
Le 12/12/2012 à 12h45
Le 12/12/2012 à 18h12
Le 12/12/2012 à 19h48
Le 12/12/2012 à 20h06
Le 12/12/2012 à 20h49
Le 12/12/2012 à 21h33
Le 13/12/2012 à 02h47