Histoire des supercalculateurs

Beaucoup d'entre nous connaissent les ordinateurs. Vous en utilisez probablement un maintenant pour lire ce billet de blog, car les appareils tels que les ordinateurs portables, les smartphones et les tablettes sont essentiellement la même technologie informatique sous-jacente. Les superordinateurs, en revanche, sont quelque peu ésotériques car ils sont souvent considérés comme des machines volumineuses, coûteuses et à succion d'énergie développées, dans l'ensemble, pour les institutions gouvernementales, les centres de recherche et les grandes entreprises..

Prenons par exemple le chinois Sunway TaihuLight, actuellement le supercalculateur le plus rapide au monde, selon le classement des superordinateurs Top500. Il est composé de 41 000 puces (les processeurs à eux seuls pèsent plus de 150 tonnes), coûtent environ 270 millions de dollars et ont une puissance nominale de 15 371 kW. Du côté positif, cependant, il est capable d'effectuer des quadrillions de calculs par seconde et peut stocker jusqu'à 100 millions de livres. Et comme d'autres superordinateurs, il sera utilisé pour s'attaquer à certaines des tâches les plus complexes dans les domaines scientifiques tels que les prévisions météorologiques et la recherche sur les médicaments.

Quand les superordinateurs ont été inventés

La notion de supercalculateur est apparue dans les années 1960 lorsqu'un ingénieur électricien du nom de Seymour Cray s'est lancé dans la création de l'ordinateur le plus rapide au monde. Cray, considéré comme le «père du supercalcul», avait quitté son poste chez le géant de l'informatique d'entreprise Sperry-Rand pour rejoindre la toute nouvelle Control Data Corporation afin de se concentrer sur le développement d'ordinateurs scientifiques. Le titre d'ordinateur le plus rapide au monde était détenu à l'époque par l'IBM 7030 «Stretch», l'un des premiers à utiliser des transistors à la place des tubes à vide. 

En 1964, Cray a présenté le CDC 6600, qui présentait des innovations telles que la désactivation des transistors au germanium au profit du silicium et un système de refroidissement à base de fréon. Plus important encore, il fonctionnait à une vitesse de 40 MHz, exécutant environ trois millions d'opérations en virgule flottante par seconde, ce qui en faisait l'ordinateur le plus rapide au monde. Souvent considéré comme le premier supercalculateur au monde, le CDC 6600 était 10 fois plus rapide que la plupart des ordinateurs et trois fois plus rapide que l'IBM 7030 Stretch. Le titre fut finalement cédé en 1969 à son successeur le CDC 7600.  

Seymour Cray devient solo

En 1972, Cray quitte Control Data Corporation pour fonder sa propre entreprise, Cray Research. Après un certain temps à mobiliser des capitaux d'amorçage et des financements auprès des investisseurs, Cray a lancé le Cray 1, qui a encore une fois élevé la barre pour les performances informatiques. Le nouveau système fonctionnait à une vitesse d'horloge de 80 MHz et effectuait 136 millions d'opérations en virgule flottante par seconde (136 mégaflops). Les autres caractéristiques uniques incluent un nouveau type de processeur (traitement vectoriel) et une conception en forme de fer à cheval à vitesse optimisée qui minimise la longueur des circuits. Le Cray 1 a été installé au laboratoire national de Los Alamos en 1976.

Dans les années 1980, Cray s'était imposé comme le nom prééminent dans le supercalculateur et toute nouvelle version devait largement faire échouer ses efforts précédents. Ainsi, alors que Cray était occupé à travailler sur un successeur du Cray 1, une équipe distincte de la société a sorti le Cray X-MP, un modèle qui a été présenté comme une version plus «nettoyée» du Cray 1. Il partageait les mêmes conception en forme de fer à cheval, mais dotée de plusieurs processeurs, d'une mémoire partagée et est parfois décrite comme deux Cray 1 liés ensemble en un seul. Le Cray X-MP (800 mégaflops) a été l'une des premières conceptions «multiprocesseurs» et a aidé à ouvrir la porte au traitement parallèle, dans lequel les tâches informatiques sont divisées en parties et exécutées simultanément par différents processeurs. 

Le Cray X-MP, qui était continuellement mis à jour, a servi de porte-étendard jusqu'au lancement tant attendu du Cray 2 en 1985. Comme ses prédécesseurs, le dernier et le plus grand de Cray a adopté le même design en forme de fer à cheval et la disposition de base avec intégré circuits empilés sur des cartes logiques. Cette fois, cependant, les composants étaient si serrés que l'ordinateur a dû être immergé dans un système de refroidissement liquide pour dissiper la chaleur. Le Cray 2 était équipé de huit processeurs, avec un «processeur de premier plan» chargé de gérer le stockage, la mémoire et de donner des instructions aux «processeurs d'arrière-plan», qui étaient chargés du calcul proprement dit. Au total, il offre une vitesse de traitement de 1,9 milliard d'opérations en virgule flottante par seconde (1,9 Gigaflops), deux fois plus rapide que le Cray X-MP.

Plus de concepteurs informatiques émergent

Inutile de dire que Cray et ses créations ont régné au début de l'ère du supercalculateur. Mais il n'était pas le seul à progresser sur le terrain. Le début des années 80 a également vu l'émergence d'ordinateurs massivement parallèles, alimentés par des milliers de processeurs travaillant tous en tandem pour briser les barrières de performance. Certains des premiers systèmes multiprocesseurs ont été créés par W. Daniel Hillis, qui a eu l'idée en tant qu'étudiant diplômé au Massachusetts Institute of Technology. Le but à l'époque était de surmonter les limitations de vitesse liées au fait de disposer d'un calcul direct du processeur parmi les autres processeurs en développant un réseau décentralisé de processeurs fonctionnant de manière similaire au réseau neuronal du cerveau. Sa solution implémentée, introduite en 1985 sous le nom de Connection Machine ou CM-1, comprenait 65 536 processeurs mono-bit interconnectés.

Le début des années 90 a marqué le début de la fin de l'emprise de Cray sur le supercalcul. À ce moment-là, le pionnier du calcul intensif s'était séparé de Cray Research pour former Cray Computer Corporation. Les choses ont commencé à aller au sud pour l'entreprise lorsque le projet Cray 3, le futur successeur du Cray 2, a rencontré une multitude de problèmes. L'une des erreurs majeures de Cray a été d'opter pour les semi-conducteurs à l'arséniure de gallium - une technologie plus récente - comme moyen d'atteindre son objectif déclaré d'une amélioration de douze fois la vitesse de traitement. En fin de compte, la difficulté de les produire, ainsi que d'autres complications techniques, ont fini par retarder le projet pendant des années et ont finalement entraîné la perte d'intérêt de nombreux clients potentiels de l'entreprise. En peu de temps, l'entreprise a manqué d'argent et a déposé son bilan en 1995.

Les luttes de Cray céderaient la place à un changement de garde, car les systèmes informatiques japonais concurrents finiraient par dominer le domaine pendant une grande partie de la décennie. NEC Corporation, basée à Tokyo, est apparue pour la première fois en 1989 avec le SX-3 et, un an plus tard, a dévoilé une version à quatre processeurs qui est devenue l'ordinateur le plus rapide du monde, pour être éclipsée en 1993. Cette année-là, la soufflerie numérique de Fujitsu , avec la force brute de 166 processeurs vectoriels, est devenu le premier supercalculateur à dépasser 100 gigaflops (note latérale: pour vous donner une idée de la rapidité avec laquelle la technologie progresse, les processeurs grand public les plus rapides en 2016 peuvent facilement faire plus de 100 gigaflops, mais au était particulièrement impressionnant). En 1996, le Hitachi SR2201 a fait monter les enchères avec 2048 processeurs pour atteindre une performance maximale de 600 gigaflops.

Intel rejoint la course

Maintenant, où était Intel? L'entreprise qui s'était imposée comme le premier fabricant de puces du marché de la consommation n'a pas vraiment fait sensation dans le domaine du calcul intensif jusqu'à la fin du siècle. En effet, les technologies étaient des animaux très différents. Les supercalculateurs, par exemple, ont été conçus pour brancher autant de puissance de traitement que possible, tandis que les ordinateurs personnels étaient tous destinés à réduire l'efficacité des capacités de refroidissement minimales et une alimentation en énergie limitée. Ainsi, en 1993, les ingénieurs d'Intel ont finalement franchi le pas en adoptant l'approche audacieuse d'aller massivement en parallèle avec le processeur 3 680 Intel XP / S 140 Paragon, qui, en juin 1994, avait atteint le sommet du classement des superordinateurs. Ce fut le premier supercalculateur à processeur massivement parallèle à être incontestablement le système le plus rapide au monde. 

Jusqu'à présent, le calcul intensif a été principalement le domaine de ceux qui ont le genre de poches profondes pour financer des projets aussi ambitieux. Tout cela a changé en 1994 lorsque les entrepreneurs du Goddard Space Flight Center de la NASA, qui n'avaient pas ce genre de luxe, ont trouvé un moyen intelligent d'exploiter la puissance de l'informatique parallèle en reliant et en configurant une série d'ordinateurs personnels à l'aide d'un réseau Ethernet . Le système «Beowulf cluster» qu'ils ont développé était composé de 16 processeurs 486DX, capables de fonctionner dans la gamme gigaflops et coûtait moins de 50 000 $ à construire. Il avait également la particularité d'exécuter Linux plutôt qu'Unix avant que Linux ne devienne le système d'exploitation de choix pour les superordinateurs. Bientôt, les bricoleurs du monde entier ont suivi des plans similaires pour créer leurs propres clusters Beowulf.  

Après avoir abandonné le titre en 1996 au Hitachi SR2201, Intel est revenu cette année-là avec un design basé sur le Paragon appelé ASCI Red, qui comprenait plus de 6 000 processeurs Pentium Pro à 200 MHz. Malgré l'abandon des processeurs vectoriels au profit de composants standard, l'ASCI Red a gagné la distinction d'être le premier ordinateur à franchir la barrière du billion de flops (1 téraflops). En 1999, des améliorations lui ont permis de dépasser trois mille milliards de flops (3 téraflops). L'ASCI Red a été installé aux Sandia National Laboratories et a été utilisé principalement pour simuler des explosions nucléaires et aider à l'entretien de l'arsenal nucléaire du pays.

Après que le Japon ait repris la tête du supercalculateur pendant une période avec le NEC Earth Simulator 35,9 téraflops, IBM a porté le supercalculateur à des sommets sans précédent à partir de 2004 avec le Blue Gene / L. Cette année-là, IBM a lancé un prototype qui a à peine devancé le Earth Simulator (36 téraflops). Et d'ici 2007, les ingénieurs augmenteraient le matériel pour pousser sa capacité de traitement à un pic de près de 600 téraflops. Fait intéressant, l'équipe a pu atteindre de telles vitesses en adoptant l'approche consistant à utiliser plus de puces de puissance relativement faible, mais plus économes en énergie. En 2008, IBM a innové de nouveau en allumant le Roadrunner, le premier supercalculateur à dépasser un quadrillion d'opérations en virgule flottante par seconde (1 pétaflops).