CRDP

Accueil > Les numéros > DocSciences 5 : Les clés de la révolution numérique

L’ordinateur, objet du siècle

« Machine à tout faire », l’ordinateur fait désormais partie de notre quotidien. En à peine soixante ans, il est devenu incontournable. À la fois outil et objet d’étude, il est soutenu par une véritable science, l’informatique.

Écrire et calculer. Ces deux activités, aujourd’hui encore considérées comme des piliers de l’éducation, sont unies par des liens qui remontent à leur apparition même. En effet, c’est bien la conception progressive d’une écriture des nombres fondée sur la position de leurs chiffres associée à des algorithmes (Voir en bas de page) tirant parti de cette notation pour les additionner et les multiplier efficacement, qui a permis le prodigieux développement du calcul. Mais tant que les opérations sur les nombres étaient manuelles, elles restaient fastidieuses et sujettes à de fréquentes erreurs. Sept mille ans avant notre ère : des petits cailloux, qui seront appelés calculi en latin, sont utilisés pour effectuer et mémoriser des comptes élémentaires lors des transactions.

Année 2008 de notre ère : une calculette électronique de quelques euros, qui ne doit sa taille qu’à celles imposées du clavier et de l’écran, est capable de réaliser instantanément toutes les opérations élémentaires, et moins élémentaires, y compris sur des grands nombres.

L’HOMME ET LA MACHINE :UN TRAVAIL D’ÉQUIPE

Entre-temps, l’ingéniosité humaine, sous la pression d’une même motivation – calculer plus vite et sans erreurs – a produit des dispositifs d’une grande diversité. Après les bouliers, apparus trois mille ans avant notre ère et encore largement utilisés aujourd’hui, et leur version romaine, les abaques, ou les quipus incas, l’histoire s’accélère au XVIIe siècle avec les compas de proportion chers à Galilée et les bâtons de Neper. Les premières calculatrices mécaniques voient le jour, le dispositif de W. Schickard, puis la fameuse Pascaline en 1641 et, cinquante ans plus tard, la machine de Leibniz, moins connue quoique plus puissante. Elles deviennent électromécaniques à la fin du XIXe siècle, puis électroniques au XXe, siècle qui verra aussi le succès de la carte perforée. Simultanément, les capacités de calcul ainsi disponibles motivent et favorisent la conception de méthodes, c’est-à-dire d’algorithmes, permettant par exemple de calculer des racines, ne seraitce que carrées, ou de résoudre des équations algébriques, puis différentielles.

JPEG - 51.4 ko
Abaque de Michel Rous (France, 1869) (collection IBM Europe/Amisa © INRIA)
L’homme s’est toujours entouré d’instruments pour lui faciliter le calcul : cailloux, ficelles nouées (quipus), bouliers, abaques (ci-dessus), calculateurs et, de nos jours, calculatrices électroniques si utiles en cours de mathématiques !

Mais des calculi à la calculette, l’enchaînement des opérations reste le fait de l’utilisateur : la calculette, aussi puissante soit-elle, n’est pas un ordinateur. En effet, c’est l’enregistrement, dans une mémoire de la machine, de la séquence des opérations à effectuer – le programme –, avec les données sur lesquelles elles portent, qui distingue un ordinateur d’un dispositif de calcul, quelles que soient la maniabilité et la rapidité de ce dernier. On fait alors la différence entre le matériel, c’est-à-dire l’ordinateur et ses circuits, et le logiciel, les programmes qui peuvent s’exécuter sur l’ordinateur. De ce point de vue, l’apparition de l’ordinateur est récente. Même si Charles Babbage et Ada Lovelace peuvent être crédités d’avoir anticipé, dès les années 1830, la distinction entre le matériel et le logiciel, ce n’est que cent ans plus tard que les premiers ordinateurs ont été construits. Si la motivation est la même qu’au début – calculer vite et sans erreurs –, les priorités de l’époque sont différentes : il s’agit d’effectuer des calculs longs et répétitifs requis par la résolution d’équations en physique et en particulier les calculs des tables de tir et de bombardement.

DES TONNES DE CALCULS

JPEG - 104.9 ko
L’Eniac (Electronic Numerical Integrator Analyser and Computer (© US Army photo)
L’Eniac, terminé en 1946, est considéré comme le premier ordinateur. Comme on le voit sur la photo, il était programmé manuellement avec des fils électriques, établissant les connexions appropriées

Les premiers ordinateurs utilisent la technologie des lampes (appelées aussi « tubes à vide »). Ils sont, de ce fait, extrêmement encombrants, coûteux, très lents par rapport aux standards actuels et tombent fréquemment en panne. Achevé en 1946, l’Eniac (Electronic Numerical Integrator Analyser and Computer), un des premiers ordinateurs opérationnels, pesait 27 tonnes, occupait 63 m2 au sol et effectuait 5 000 opérations par seconde. Les progrès technologiques des décennies suivantes permettent d’augmenter leur fiabilité, en particulier par la substitution des semi-conducteurs aux tubes à vide, de réduire leur taille, grâce à la miniaturisation des composants électroniques, d’en diminuer le coût grâce à des procédés de fabrication automatisés, et enfin d’en accroître considérablement la puissance, tant en termes de calcul que de capacité de stockage. Comparez Eniac à votre ordinateur personnel – quelques kilos (voire moins) posés sur votre bureau capables d’effectuer plusieurs centaines de millions d’opérations par seconde. Au-delà de ces immenses progrès technologiques, force est de constater que ces premiers ordinateurs reposent déjà sur les mêmes principes que les ordinateurs actuels et en possèdent fondamentalement la même organisation, ladite « architecture de Von Neumann », du nom de ce brillant mathématicien d’origine hongroise, qui fit par ailleurs des contributions majeures en physique et en économie.

JPEG - 54.4 ko
L’architecture de Von Neumann (© France Telecom/DocSciences)
L’architecture virtuelle inventée par John von Neumann (1903-1957) pose les principes du fonctionnement de l’ordinateur. Elle sert toujours, aujourd’hui, de modèle à nos ordinateurs

Très vite, une représentation binaire des nombres, une séquence de 0 et de 1, appelés « bits » (Voir en bas de page), est retenue. Cette représentation est quasiment imposée par la physique : il est en effet beaucoup plus simple de créer des dispositifs qui possèdent seulement deux états stables, à la manière d’un interrupteur qui ne peut être qu’ouvert ou fermé. Les circuits de l’ordinateur effectuent séquentiellement chacune des instructions qui composent un programme. Certaines de ces instructions consistent à additionner ou à multiplier des nombres, d’autres à comparer des valeurs, d’autres encore, dites de contrôle, permettent de rompre cette séquentialité d’exécution et d’effectuer alors des boucles jusqu’à atteindre une certaine condition, ou encore d’aller exécuter un sous-programme spécialisé, par exemple dans le calcul de fonctions trigonométriques.

Donc, une fois un programme lancé, l’ordinateur enchaîne seul les instructions, contrairement à la calculatrice et à tous les dispositifs de calcul qui ont précédé l’ordinateur où cet enchaînement est le fait de l’utilisateur.

Ainsi, un nouveau métier apparaît : programmeur. Il s’agit de concevoir la séquence des instructions que l’ordinateur exécutera pour résoudre un problème donné. Par exemple : déterminer si deux nombres sont premiers entre eux, c’est-à-dire si leur plus grand commun diviseur (PGCD) est 1. Pour résoudre ce problème, il faut tout d’abord élaborer un algorithme, c’est-à-dire une démarche systématique qui conduira au résultat.

En l’occurrence, dès le IVe siècle avant notre ère, le mathématicien grec Euclide propose un algorithme pour calculer le PGCD de deux entiers naturels. Il est ensuite nécessaire d’écrire cette démarche dans un langage interprétable par l’ordinateur : c’est la phase de programmation. Quand le programme a été suffisamment vérifié, voire prouvé, il est possible de l’appliquer avec une certaine confiance sur des nombres quelconques. Ou presque… Car certains algorithmes, pourtant courts à décrire, peuvent prendre beaucoup de temps à s’exécuter, même sur des ordinateurs puissants.



Algorithme : Démarche de résolution d’une classe de problèmes sous la forme d’un enchaînement conditionnel d’opérations élémentaires. Retour au texte.
Bit : Mot construit à partir de binary digit, « chiffre binaire », le bit est la plus petite unité d’information que peut mémoriser un ordinateur : 0 ou 1. Retour au texte.

En savoir plus

Livres :

  • Ifrah G., Histoire universelle des chiffres, coll. « Bouquins », Robert Laffont, 1994.
  • Doisy Ph., À la racine des nombres. Une histoire du calcul numérique des origines à nos jours, Ellipses, 2006.

Sites Web :