Le super ordinateur est un terme qui décrit toute catégorie d’ordinateurs extrêmement puissants. Le terme s’applique généralement aux systèmes à haute performance les plus rapides disponibles à un moment donné.
Les super ordinateurs
Ces ordinateurs ont été utilisés principalement pour des travaux scientifiques et d’ingénierie nécessitant des calculs à très haute vitesse. Les applications courantes des superordinateurs comprennent le test de modèles mathématiques pour des phénomènes physiques complexes ou des conceptions, tels que le climat et la météo, l’évolution du cosmos, les armes et les réacteurs nucléaires, les nouveaux composés chimiques (notamment à des fins pharmaceutiques) et la cryptologie. Avec la baisse du coût des superordinateurs dans les années 1990, de plus en plus d’entreprises ont commencé à utiliser des superordinateurs pour des études de marché et d’autres modèles liés aux affaires.
Caractéristiques distinctives des super ordinateurs
Les superordinateurs présentent certaines caractéristiques distinctives. Contrairement aux ordinateurs classiques, ils possèdent généralement plus d’une unité centrale de traitement (UC), qui contient des circuits permettant d’interpréter les instructions du programme et d’exécuter des opérations arithmétiques et logiques dans l’ordre approprié. L’utilisation de plusieurs UC pour atteindre des taux de calcul élevés est rendue nécessaire par les limites physiques de la technologie des circuits. Les signaux électroniques ne peuvent pas se déplacer plus vite que la vitesse de la lumière, qui constitue donc une limite de vitesse fondamentale pour la transmission des signaux et la commutation des circuits. Cette limite a presque été atteinte grâce à la miniaturisation des composants des circuits, à la réduction spectaculaire de la longueur des fils reliant les cartes de circuits imprimés et à l’innovation dans les techniques de refroidissement (par exemple, dans divers systèmes de superordinateurs, les circuits de processeurs et de mémoire sont immergés dans un fluide cryogénique pour atteindre les basses températures auxquelles ils fonctionnent le plus rapidement). La récupération rapide des données et des instructions stockées est nécessaire pour supporter la vitesse de calcul extrêmement élevée des CPU. Par conséquent, la plupart des superordinateurs ont une très grande capacité de stockage, ainsi qu’une capacité d’entrée/sortie très rapide.
Une autre caractéristique distinctive des superordinateurs est leur utilisation de l’arithmétique vectorielle, c’est-à-dire qu’ils sont capables d’opérer sur des paires de listes de nombres plutôt que sur de simples paires de nombres. Par exemple, un superordinateur typique peut multiplier une liste de taux de salaire horaire pour un groupe d’ouvriers d’usine par une liste d’heures travaillées par les membres de ce groupe pour produire une liste de dollars gagnés par chaque ouvrier en à peu près le même temps qu’il faut à un ordinateur ordinaire pour calculer le montant gagné par un seul ouvrier.
Les superordinateurs étaient à l’origine utilisés dans des applications liées à la sécurité nationale, notamment la conception d’armes nucléaires et la cryptographie. Aujourd’hui, ils sont aussi couramment utilisés par les industries aérospatiale, pétrolière et automobile. En outre, les superordinateurs ont trouvé une large application dans les domaines de l’ingénierie ou de la recherche scientifique, comme, par exemple, dans les études sur la structure des particules subatomiques et sur l’origine et la nature de l’univers. Les superordinateurs sont devenus un outil indispensable pour les prévisions météorologiques : les prédictions sont désormais basées sur des modèles numériques. À mesure que le coût des superordinateurs a diminué, leur utilisation s’est étendue au monde des jeux en ligne. En particulier, les 5e à 10e superordinateurs chinois les plus rapides en 2007 appartenaient à une société détenant les droits en ligne en Chine du jeu électronique World of Warcraft, qui réunit parfois plus d’un million de personnes dans un même univers de jeu.
Développement historique
Bien que les premiers superordinateurs aient été construits par diverses entreprises, une personne, Seymour Cray, a réellement défini le produit presque dès le début. Cray a rejoint une société informatique appelée Engineering Research Associates (ERA) en 1951. Lorsque ERA a été rachetée par Remington Rand, Inc. (qui a ensuite fusionné avec d’autres sociétés pour devenir Unisys Corporation), Cray est parti avec le fondateur d’ERA, William Norris, pour créer Control Data Corporation (CDC) en 1957. À cette époque, la gamme d’ordinateurs UNIVAC de Remington Rand et IBM s’étaient partagé la majeure partie du marché des ordinateurs professionnels et, plutôt que de défier leurs vastes structures de vente et de support, CDC a cherché à s’emparer du marché petit mais lucratif des ordinateurs scientifiques rapides. Le CDC 1604, conçu par Cray, était l’un des premiers ordinateurs à remplacer les tubes à vide par des transistors et était très populaire dans les laboratoires scientifiques. IBM a réagi en construisant son propre ordinateur scientifique, l’IBM 7030 – communément appelé Stretch – en 1961. Cependant, IBM, qui avait été lent à adopter le transistor, a trouvé peu d’acheteurs pour son hybride tube-transistor, quelle que soit sa vitesse, et s’est temporairement retiré du domaine des superordinateurs après une perte stupéfiante, pour l’époque, de 20 millions de dollars. En 1964, le CDC 6600 de Cray a remplacé Stretch en tant qu’ordinateur le plus rapide sur Terre ; il pouvait exécuter trois millions d’opérations en virgule flottante par seconde (FLOPS), et le terme superordinateur a rapidement été inventé pour le décrire.
M. Cray a quitté le CDC pour fonder Cray Research, Inc. en 1972, puis il est reparti en 1989 pour créer Cray Computer Corporation. À chaque fois qu’il est parti, son ancienne société a continué à produire des superordinateurs basés sur ses conceptions.
Cray était profondément impliqué dans tous les aspects de la création des ordinateurs que ses sociétés construisaient. En particulier, il était un génie de l’emballage dense des composants électroniques qui composent un ordinateur. Grâce à une conception intelligente, il a réduit les distances que les signaux devaient parcourir, accélérant ainsi les machines. Il s’est toujours efforcé de créer l’ordinateur le plus rapide possible pour le marché scientifique, a toujours programmé dans le langage de programmation scientifique de prédilection (FORTRAN) et a toujours optimisé les machines pour les applications scientifiques exigeantes (équations différentielles, manipulations de matrices, dynamique des fluides, analyse sismique et programmation linéaire).
Parmi les réalisations pionnières de Cray figure le Cray-1, introduit en 1976, qui a été la première mise en œuvre réussie du traitement vectoriel (ce qui signifie, comme nous l’avons vu plus haut, qu’il pouvait opérer sur des paires de listes de nombres plutôt que sur de simples paires de nombres). Cray a également été l’un des pionniers de la répartition de calculs complexes entre plusieurs processeurs, une conception connue sous le nom de « multiprocessing ». L’une des premières machines à utiliser le multitraitement fut le Cray X-MP, introduit en 1982, qui reliait deux ordinateurs Cray-1 en parallèle pour tripler leurs performances individuelles. En 1985, le Cray-2, un ordinateur à quatre processeurs, est devenu la première machine à dépasser un milliard de FLOPS.
Alors que Cray utilisait des processeurs personnalisés de pointe et des systèmes de refroidissement par immersion liquide pour atteindre ses records de vitesse, une nouvelle approche révolutionnaire était sur le point d’émerger. W. Daniel Hillis, un étudiant diplômé du Massachusetts Institute of Technology, avait une nouvelle idée remarquable sur la façon de surmonter le goulot d’étranglement imposé par le fait que l’unité centrale dirige les calculs entre tous les processeurs. Hillis a vu qu’il pouvait éliminer le goulot d’étranglement en supprimant l’UC qui contrôle tout en faveur de contrôles décentralisés, ou distribués. En 1983, Hillis a cofondé la Thinking Machines Corporation pour concevoir, construire et commercialiser de tels ordinateurs multiprocesseurs. En 1985, le premier de ses Connection Machines, le CM-1 (rapidement remplacé par son successeur plus commercial, le CM-2), est présenté. Le CM-1 utilisait un nombre étonnant de 65 536 processeurs à un bit peu coûteux, regroupés par 16 sur une puce (pour un total de 4 096 puces), afin d’atteindre plusieurs milliards de FLOPS pour certains calculs, ce qui était à peu près comparable au superordinateur le plus rapide de Cray.
À l’origine, Hillis s’était inspiré de la manière dont le cerveau utilise un réseau complexe de neurones simples (un réseau neuronal) pour effectuer des calculs de haut niveau. En fait, l’un des premiers objectifs de ces machines consistait à résoudre un problème d’intelligence artificielle, la reconnaissance des formes de visage. En attribuant chaque pixel d’une image à un processeur distinct, Hillis a réparti la charge de calcul, mais cela a posé le problème de la communication entre les processeurs. La topologie de réseau qu’il a développée pour faciliter la communication entre les processeurs était un « hypercube » à 12 dimensions, c’est-à-dire que chaque puce était directement reliée à 12 autres puces. Ces machines sont rapidement devenues des ordinateurs massivement parallèles. En plus d’ouvrir la voie à de nouvelles architectures multiprocesseurs, les machines de Hillis ont montré comment des processeurs courants, ou de base, pouvaient être utilisés pour obtenir des résultats de supercalculateurs.
Une autre application courante de l’intelligence artificielle pour le multitraitement était les échecs. Par exemple, en 1988, HiTech, construit à l’université Carnegie Mellon de Pittsburgh (Pennsylvanie), a utilisé 64 processeurs personnalisés (un pour chaque case de l’échiquier) pour devenir le premier ordinateur à battre un grand maître dans un match. En février 1996, Deep Blue d’IBM, utilisant 192 processeurs RS/6000 personnalisés, a été le premier ordinateur à battre un champion du monde, Garry Kasparov, dans une partie « lente ». Il a ensuite été chargé de prédire la météo à Atlanta, en Géorgie, pendant les Jeux olympiques d’été de 1996. Son successeur (désormais doté de 256 processeurs d’échecs personnalisés) a battu Kasparov dans un match retour de six parties en mai 1997.
Comme toujours, cependant, la principale application du supercalculateur était militaire. Avec la signature du Traité d’interdiction complète des essais nucléaires par les États-Unis en 1996, la nécessité d’un programme de certification alternatif pour le stock nucléaire vieillissant du pays a conduit le ministère de l’Énergie à financer l’Initiative de calcul stratégique accéléré (ASCI). L’objectif du projet était de parvenir, d’ici 2004, à un ordinateur capable de simuler des essais nucléaires – un exploit qui nécessitait une machine capable d’exécuter 100 trillions de FLOPS (100 TFLOPS ; l’ordinateur le plus rapide existant à l’époque était le Cray T3E, capable de 150 milliards de FLOPS). L’ASCI Red, construit aux Sandia National Laboratories à Albuquerque, N.M., avec la société Intel, a été le premier à atteindre 1 TFLOPS. Utilisant 9 072 processeurs Pentium Pro standard, il a atteint 1,8 TFLOPS en décembre 1996 et était pleinement opérationnel en juin 1997.
Alors que l’approche du multitraitement massif prévalait aux États-Unis, au Japon, la NEC Corporation est revenue à l’approche plus ancienne de la conception personnalisée de la puce informatique pour son Earth Simulator, qui a surpris de nombreux informaticiens en débutant à la première place de la liste des vitesses des superordinateurs TOP500 de l’industrie en 2002. Il n’a toutefois pas conservé cette position longtemps, car en 2004, un prototype de Blue Gene/L d’IBM, doté de 8 192 nœuds de traitement, a atteint une vitesse d’environ 36 TFLOPS, dépassant de peu la vitesse du Earth Simulator. Après avoir doublé deux fois le nombre de ses processeurs, le Blue Gene/L de l’ASCI, installé en 2005 aux Sandia National Laboratories à Livermore, en Californie, est devenu la première machine à franchir la barre convoitée des 100 TFLOPS, avec une vitesse d’environ 135 TFLOPS. D’autres machines Blue Gene/L, dotées d’architectures similaires, ont occupé plusieurs des premières places des listes successives du TOP500. Grâce à des améliorations régulières, le Blue Gene/L de l’ASCI a atteint une vitesse supérieure à 500 TFLOPS en 2007. Ces superordinateurs IBM se distinguent également par le choix du système d’exploitation, Linux, et le soutien d’IBM au développement d’applications open source.
Le premier ordinateur à dépasser les 1 000 TFLOPS, soit 1 pétaflop, a été construit par IBM en 2008. Baptisée Roadrunner, en référence à l’oiseau de l’État du Nouveau-Mexique, la machine a d’abord été testée dans les locaux d’IBM à New York, où elle a franchi le cap, avant d’être démontée pour être expédiée au Los Alamos National Laboratory, au Nouveau-Mexique. La version d’essai utilisait 6 948 microprocesseurs Opteron à double cœur d’Advanced Micro Devices (AMD) et 12 960 moteurs à large bande Cell d’IBM (développés initialement pour le système vidéo PlayStation 3 de Sony Computer Entertainment). Le processeur Cell a été conçu spécialement pour traiter les calculs mathématiques intensifs nécessaires à la gestion des moteurs de simulation de réalité virtuelle dans les jeux électroniques – un processus tout à fait analogue aux calculs nécessaires aux chercheurs scientifiques pour faire fonctionner leurs modèles mathématiques.
Ces progrès informatiques ont permis aux chercheurs d’être en mesure, pour la première fois, de réaliser des simulations informatiques basées sur les premiers principes de la physique, et pas seulement sur des modèles simplifiés. Cela a ouvert des perspectives de percées dans des domaines tels que la météorologie et l’analyse du climat mondial, la conception pharmaceutique et médicale, les nouveaux matériaux et l’ingénierie aérospatiale. Le plus grand obstacle à la réalisation du plein potentiel des superordinateurs reste l’immense effort requis pour écrire des programmes de manière à ce que différents aspects d’un problème puissent être traités simultanément par autant de processeurs différents que possible. Même dans le cas de moins d’une douzaine de processeurs, comme ceux qui sont couramment utilisés dans les ordinateurs personnels modernes, aucune solution simple n’a été trouvée, bien que l’initiative open source d’IBM, avec le soutien de divers partenaires universitaires et commerciaux, ait fait des progrès dans les années 1990 et 2000.
SEO Inside est une agence web à Lille.
--
SEO Inside est une agence web et SEO - en savoir plus sur nous:
Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis
Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.
Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco
SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.