Comment fonctionne la photonique sur silicium – et pourquoi les centres de données en ont besoin
La photonique sur silicium remplace les câbles en cuivre par une technologie lumière-sur-puce pour déplacer les données plus rapidement et plus efficacement, devenant une infrastructure essentielle pour les centres de données de l'ère de l'IA.
Le goulot d'étranglement à l'intérieur de chaque centre de données
Les centres de données modernes traitent des volumes d'informations stupéfiants, et la demande s'accélère à mesure que les charges de travail d'intelligence artificielle augmentent de façon exponentielle. Mais il y a un problème physique : les câbles en cuivre qui relient traditionnellement les serveurs, les commutateurs et les processeurs atteignent leurs limites fondamentales. Le cuivre génère de la chaleur, consomme de l'énergie et perd en qualité de signal sur la distance. Alors que les demandes de bande passante grimpent dans la plage des térabits par seconde, les interconnexions électriques sont devenues le maillon faible de la chaîne.
La photonique sur silicium offre une solution en remplaçant les électrons par des photons, en utilisant la lumière pour transmettre des données sur de minuscules puces de silicium. La technologie passe rapidement des laboratoires de recherche au déploiement dans le monde réel, et les leaders de l'industrie prédisent que toutes les interconnexions des centres de données d'IA seront optiques d'ici cinq ans.
Comment la lumière voyage sur une puce
À la base, la photonique sur silicium intègre des composants optiques (guides d'ondes, modulateurs et photodétecteurs) directement sur des plaques de silicium en utilisant les mêmes processus de fabrication CMOS qui produisent les puces informatiques conventionnelles. Cette compatibilité avec la fabrication de semi-conducteurs existante est ce qui rend la technologie évolutive et rentable.
Une puce photonique sur silicium fonctionne en trois étapes :
- Génération de lumière : Une source laser (généralement en phosphure d'indium) produit une lumière cohérente. Les chercheurs de imec ont réalisé l'intégration du laser avec une précision d'alignement de 300 nanomètres.
- Modulation : Les modulateurs à base de silicium ou de germanium encodent les données sur le faisceau lumineux en l'allumant et en l'éteignant rapidement, ou en faisant varier son intensité. Les modulateurs actuels fonctionnent à une bande passante de 50 GHz, prenant en charge des débits de données de 200 Gbps par canal en utilisant une technique appelée PAM-4 (modulation d'amplitude d'impulsion à quatre niveaux).
- Détection : À l'extrémité de réception, les photodétecteurs au germanium convertissent le signal optique en signaux électriques que les processeurs peuvent lire.
Entre ces étapes, les guides d'ondes en silicium, d'étroites crêtes gravées dans la puce, guident la lumière avec une perte minimale, fonctionnant comme des autoroutes optiques à l'échelle microscopique.
Pourquoi elle bat le cuivre
Les avantages de la photonique par rapport aux interconnexions électriques sont considérables. Les signaux lumineux voyagent plus vite, transportent plus de données et consomment beaucoup moins d'énergie par bit. Selon les recherches d'imec, les émetteurs-récepteurs photoniques sur silicium CMOS à base d'anneaux ont atteint une consommation d'énergie optique aussi faible que 3,5 picojoules par bit, une fraction de ce que nécessitent les liaisons électriques.
Pour multiplier la bande passante sans ajouter de câbles physiques, la photonique sur silicium utilise le multiplexage par répartition en longueur d'onde (WDM), en envoyant simultanément 8, 16 ou plus de longueurs d'onde de lumière à travers un seul canal optique. Ceci est analogue à la diffusion de plusieurs stations de radio sur différentes fréquences. Les optiques de première génération à 1,6 térabit combinent déjà une signalisation de 100 giga-bauds avec une modulation PAM-4, et les systèmes de nouvelle génération visent 140 giga-bauds.
Optique co-emballée : la prochaine frontière
Le développement le plus transformateur est l'optique co-emballée (CPO), qui consiste à placer les composants photoniques directement à l'intérieur du même boîtier que le processeur ou la puce de commutation. Au lieu de router les données via des modules enfichables externes, la lumière entre et sort du boîtier de la puce elle-même. La feuille de route de Nvidia prévoit des interconnexions compatibles CPO fournissant 6,4 térabits par seconde au niveau de la carte mère, les générations futures ciblant 12,8 Tb/s à l'intérieur des boîtiers de processeur.
Les sociétés japonaises NTT et Toshiba ont démontré des commutateurs photoniques-électroniques capables d'une capacité de commutation de 51,2 Tb/s, illustrant comment la technologie optique peut réduire simultanément la latence et la consommation d'énergie.
Pourquoi l'IA rend cela urgent
L'entraînement de grands modèles d'IA nécessite que des milliers de processeurs échangent des ensembles de données massifs à une vitesse fulgurante. Chaque nanoseconde de latence et chaque watt d'énergie gaspillée s'accumulent dans un centre de données avec des dizaines de milliers de nœuds. La photonique sur silicium résout les deux problèmes à la fois, c'est pourquoi le marché des fonderies photoniques devrait être multiplié par huit entre 2026 et 2032.
À mesure que les puces photoniques passent de la mise en réseau aux applications informatiques, elles représentent plus qu'une simple mise à niveau progressive. Elles constituent un changement fondamental dans la façon dont les machines communiquent, remplaçant le bourdonnement de l'électricité par le silence de la lumière.