L'histoire des ordinateurs

Avant l'ère de l'électronique, la chose la plus proche d'un ordinateur était l'abaque, bien que, à proprement parler, l'abaque soit en fait une calculatrice car il nécessite un opérateur humain. Les ordinateurs, d'autre part, effectuent des calculs automatiquement en suivant une série de commandes intégrées appelées logiciels.

Dans le 20e siècle, les percées technologiques ont permis aux machines informatiques en constante évolution dont nous dépendons maintenant si totalement que nous ne leur prêtons pratiquement jamais attention. Mais même avant l'avènement des microprocesseurs et des superordinateurs, certains scientifiques et inventeurs notables ont aidé à jeter les bases de la technologie qui a depuis radicalement remodelé toutes les facettes de la vie moderne..

La langue avant le matériel

Le langage universel dans lequel les ordinateurs exécutent les instructions du processeur est né au XVIIe siècle sous la forme du système numérique binaire. Développé par le philosophe et mathématicien allemand Gottfried Wilhelm Leibniz, le système est apparu comme un moyen de représenter les nombres décimaux en utilisant seulement deux chiffres: le nombre zéro et le numéro un. Le système de Leibniz était en partie inspiré par des explications philosophiques dans le texte chinois classique «I Ching», qui expliquaient l'univers en termes de dualités telles que la lumière et l'obscurité et le masculin et le féminin. Alors qu'il n'y avait pas d'utilisation pratique pour son système nouvellement codifié à l'époque, Leibniz pensait qu'il était possible qu'une machine utilise un jour ces longues chaînes de nombres binaires.

En 1847, le mathématicien anglais George Boole a introduit un langage algébrique nouvellement conçu construit sur le travail de Leibniz. Son «Algèbre booléenne» était en fait un système de logique, avec des équations mathématiques utilisées pour représenter des déclarations en logique. Il était tout aussi important d'utiliser une approche binaire dans laquelle la relation entre différentes quantités mathématiques serait vraie ou fausse, 0 ou 1. 

Comme pour Leibniz, il n'y avait pas d'application évidente pour l'algèbre de Boole à l'époque, cependant, le mathématicien Charles Sanders Pierce a passé des décennies à étendre le système et, en 1886, a déterminé que les calculs pouvaient être effectués avec des circuits de commutation électriques. En conséquence, la logique booléenne deviendrait éventuellement instrumentale dans la conception des ordinateurs électroniques.

Les premiers processeurs

Le mathématicien anglais Charles Babbage est réputé avoir assemblé les premiers ordinateurs mécaniques - du moins techniquement parlant. Ses machines du début du XIXe siècle comportaient un moyen d'entrer des nombres, de la mémoire et un processeur, ainsi qu'un moyen de produire les résultats. Babbage a appelé sa première tentative de construction de la première machine informatique du monde le «moteur de différence». La conception prévoyait une machine qui calculait les valeurs et imprimait automatiquement les résultats sur une table. Il devait être lancé à la main et aurait pesé quatre tonnes. Mais le bébé de Babbage était une entreprise coûteuse. Plus de 17 000 livres sterling ont été dépensées pour le développement initial du moteur de différence. Le projet a finalement été abandonné après que le gouvernement britannique a coupé le financement de Babbage en 1842.

Cela a forcé Babbage à passer à une autre idée, un "moteur analytique", qui était plus ambitieux que son prédécesseur et devait être utilisé pour l'informatique à usage général plutôt que simplement pour l'arithmétique. Bien qu'il n'ait jamais été en mesure de suivre et de construire un appareil fonctionnel, la conception de Babbage comportait essentiellement la même structure logique que les ordinateurs électroniques qui entreraient en service au 20e siècle. Le moteur analytique avait intégré de la mémoire - une forme de stockage d'informations trouvée dans tous les ordinateurs - qui permet la ramification, ou la possibilité pour un ordinateur d'exécuter un ensemble d'instructions qui s'écartent de l'ordre de séquence par défaut, ainsi que des boucles, qui sont des séquences d'instructions exécutées successivement à plusieurs reprises. 

Malgré ses échecs à produire une machine informatique entièrement fonctionnelle, Babbage est resté fermement découragé dans la poursuite de ses idées. Entre 1847 et 1849, il a élaboré des conceptions pour une deuxième version nouvelle et améliorée de son moteur de différence. Cette fois, il a calculé des nombres décimaux jusqu'à 30 chiffres, effectué des calculs plus rapidement et a été simplifié pour nécessiter moins de pièces. Pourtant, le gouvernement britannique n'a pas estimé que cela valait la peine d'être investi. En fin de compte, la plus grande avancée jamais réalisée par Babbage sur un prototype a été de terminer un septième de sa première conception.

Au cours de cette première ère de l'informatique, il y a eu quelques réalisations notables: la machine de prédiction des marées, inventée par le mathématicien, physicien et ingénieur écossais-irlandais Sir William Thomson en 1872, a été considérée comme le premier ordinateur analogique moderne. Quatre ans plus tard, son frère aîné, James Thomson, a mis au point un concept d'ordinateur qui résout des problèmes mathématiques appelés équations différentielles. Il a qualifié son appareil de «machine d'intégration» et, au cours des années suivantes, il servirait de base à des systèmes appelés analyseurs différentiels. En 1927, le scientifique américain Vannevar Bush a commencé le développement de la première machine à être nommée comme telle et a publié une description de sa nouvelle invention dans une revue scientifique en 1931.

L'aube des ordinateurs modernes

Jusqu'au début du 20e siècle, l’évolution de l’informatique n’était guère plus que des scientifiques qui s’efforçaient de concevoir des machines capables de réaliser efficacement divers types de calculs à des fins diverses. Ce n'est qu'en 1936 qu'une théorie unifiée sur ce qui constitue un "ordinateur à usage général" et son fonctionnement devrait finalement être présentée. Cette année-là, le mathématicien anglais Alan Turing a publié un article intitulé «On Computable Numbers, with an Application to the Entscheidungsproblem», qui décrivait comment un dispositif théorique appelé «machine de Turing» pouvait être utilisé pour effectuer tout calcul mathématique imaginable en exécutant des instructions. . En théorie, la machine aurait une mémoire illimitée, lirait des données, rédigerait des résultats et stockerait un programme d'instructions.

Alors que l'ordinateur de Turing était un concept abstrait, c'était un ingénieur allemand du nom de Konrad Zuse qui allait construire le premier ordinateur programmable au monde. Sa première tentative de développement d'un ordinateur électronique, le Z1, était une calculatrice binaire qui lisait les instructions d'un film perforé de 35 millimètres. La technologie n'était pas fiable, cependant, il l'a donc suivie avec le Z2, un appareil similaire qui utilisait des circuits de relais électromécaniques. Bien que ce soit une amélioration, c'est dans l'assemblage de son troisième modèle que tout s'est réuni pour Zuse. Dévoilé en 1941, le Z3 était plus rapide, plus fiable et mieux à même d'effectuer des calculs compliqués. La plus grande différence dans cette troisième incarnation était que les instructions étaient stockées sur une bande externe, lui permettant ainsi de fonctionner comme un système contrôlé par programme entièrement opérationnel.. 

Ce qui est peut-être le plus remarquable, c'est que Zuse a fait une grande partie de son travail de manière isolée. Il ne savait pas que le Z3 était "Turing complet", ou en d'autres termes, capable de résoudre n'importe quel problème mathématique calculable - du moins en théorie. Il n'avait pas non plus connaissance de projets similaires en cours à la même époque dans d'autres parties du monde..

Parmi les plus notables, citons le Harvard Mark I, financé par IBM, qui a fait ses débuts en 1944. Encore plus prometteur, cependant, était le développement de systèmes électroniques tels que le prototype informatique Colossus de la Grande-Bretagne de 1943 et l'ENAC, le premier système électronique entièrement opérationnel. ordinateur polyvalent mis en service à l'Université de Pennsylvanie en 1946.

Du projet ENIAC est né le prochain grand pas en avant dans la technologie informatique. John Von Neumann, un mathématicien hongrois qui avait consulté sur le projet ENIAC, jetterait les bases d'un ordinateur à programme enregistré. Jusqu'à ce point, les ordinateurs fonctionnaient sur des programmes fixes et modifiaient leur fonction, par exemple des calculs au traitement de texte. Cela nécessitait le processus long de devoir recâbler et restructurer manuellement. (Il a fallu plusieurs jours pour reprogrammer ENIAC.) Turing avait proposé qu'idéalement, avoir un programme stocké dans la mémoire permettrait à l'ordinateur de se modifier à un rythme beaucoup plus rapide. Von Neumann a été intrigué par le concept et en 1945 a rédigé un rapport qui fournissait en détail une architecture réalisable pour le calcul de programme stocké.   

Son article publié serait largement diffusé parmi les équipes de chercheurs concurrents travaillant sur diverses conceptions informatiques. En 1948, un groupe en Angleterre a présenté la Manchester Small-Scale Experimental Machine, le premier ordinateur à exécuter un programme stocké basé sur l'architecture Von Neumann. Surnommée «bébé», la Manchester Machine était un ordinateur expérimental qui a servi de prédécesseur au Manchester Mark I. L'EDVAC, la conception informatique à laquelle le rapport de Von Neumann était initialement destiné, n'a été achevée qu'en 1949..