Retour à l'index

Historique

          1. Premiers calculateurs

Les tout premiers calculateurs, ancêtres de l'ordinateur numérique, furent imaginés et réalisés au XVIIe siècle, en particulier par Wilhelm Schickard, Blaise Pascal et Leibniz. L'appareil de Pascal comportait une série de roues à dix crans, chaque cran représentant un chiffre de 0 à 9. Les additions et les soustractions s'effectuaient en tournant les roues dentées d'un certain nombre de crans. Leibniz améliora par la suite cette machine pour lui permettre d'effectuer aussi des multiplications.

Au début du XIXe siècle, Joseph-Marie Jacquard conçut un métier automatique en utilisant de fines plaques en bois perforées qui contrôlaient le tissage de motifs compliqués. Puis, dans les années 1880, le statisticien américain Herman Hollerith eut l'idée d'utiliser des cartes perforées, similaires à celles de Jacquard, pour traiter des données. En utilisant un système où les cartes perforées passaient sur des contacts électriques, il parvint à compiler des informations statistiques pour le recensement de la population des États-Unis en 1890. En 1896, il fonda la Tabulating Machine Corporation, qui devint par la suite la société IBM.

          1. Machines différentielle et analytique

Au XIXe siècle, le mathématicien et inventeur britannique Charles Babbage découvrit les principes de l'ordinateur numérique moderne. Il créa différentes machines, en particulier la machine différentielle et la machine analytique. Bien qu'elle n'ait jamais été terminée, la machine différentielle était destinée à résoudre des problèmes mathématiques avec une précision de vingt décimales. Babbage améliora ensuite cette machine pour concevoir en 1833 la machine analytique, dont une partie seulement fut réalisée. Véritable précurseur de nos ordinateurs, cette machine aurait été capable de stocker des instructions, d'exécuter des opérations mathématiques et d'utiliser des cartes perforées comme support de mémoire. La plupart des historiens considèrent Babbage comme le véritable inventeur de l'ordinateur numérique moderne, même si la technologie peu avancée de l'époque l'empêcha de réaliser concrètement ses idées.

          1. Premiers ordinateurs

Les premiers ordinateurs analogiques furent fabriqués au début du XXe siècle. Ils effectuaient leurs calculs grâce à un système d'axes et d'engrenages. Ce type de machine permettait de fournir des approximations numériques d'équations difficiles à résoudre autrement. Pendant les deux guerres mondiales, des systèmes analogiques mécaniques, puis électriques, furent notamment utilisés comme pointeurs de torpille dans les sous-marins et comme contrôleurs de visée dans les bombardiers.

          1. Ordinateurs électroniques

Dès 1939, un prototype de machine électronique fut fabriqué aux États-Unis par John Atanasoff et Clifford Berry à l'Iowa State College. Ce prototype fut discrètement développé, et éclipsé par la présentation en 1945 de l'ENIAC (Electronic Numerical Integrator And Computer), ordinateur et intégrateur numérique électronique. L'ENIAC contenait 18 000 tubes à vide et pouvait effectuer plusieurs centaines de calculs par minute. Son programme était connecté au processeur et devait être modifié manuellement.

Parallèlement, à Londres, fut mis au point pendant la Seconde Guerre mondiale Colossus, un ordinateur numérique entièrement électronique. Élaboré par une équipe de scientifiques et de mathématiciens dirigée par Alan Turing, Colossus fut opérationnel en décembre 1943. Comportant 1 500 tubes à vide, il fut utilisé pour déchiffrer les messages radio codés des Allemands.

En 1952 apparut le premier ordinateur utilisant un programme mémorisé, conçu par le mathématicien américain John von Neumann. Les instructions étaient stockées dans une mémoire, évitant à l'ordinateur d'être soumis à la vitesse limitée du lecteur de bande-papier pendant l'exécution du programme. Ce dispositif de stockage supprimait également la réinstallation contraignante de l'ordinateur à chaque nouveau programme.

À la fin des années 1950 furent conçus des ordinateurs dits de deuxième génération, dans lesquels les tubes à vide furent remplacés par des transistors. Ces derniers, plus durables et plus économiques, permirent de développer des éléments logiques plus petits, plus rapides, plus souples et moins chers à fabriquer que ceux dotés de tubes à vide.

          1. Circuits intégrés

À la fin des années 1960, l'utilisation des circuits intégrés permit de graver un nombre important de transistors sur un seul substrat de silicium, reliés par des fils d'interconnexion blindés. Puis, au milieu des années 1970, apparut le processeur miniaturisé ou microprocesseur, grâce à l'élaboration des circuits intégrés à grande échelle (LSI), puis des circuits intégrés à très grande échelle (VLSI). Un microprocesseur est un processeur constitué d'un seul circuit intégré, sur lequel sont gravés plusieurs milliers de transistors interconnectés.

Puis, au fil des ans furent mis au point des microprocesseurs capables de gérer simultanément 8, 16, 32, puis 64 bits de données, ce qui permit d'augmenter la rapidité et la puissance des ordinateurs. Aujourd'hui, le développement des ordinateurs s'effectue globalement dans deux directions : une taille toujours plus réduite et une puissance toujours plus grande.