DE NOS JOURS, les calculateurs les plus performants peuvent réaliser des millions de milliards d’opérations en une seule seconde... D’où le terme de calcul intensif qui désigne, également, par extension, la science développée autour de ces équipements (matériels, logiciels, etc.).

Le supercalculateur, un tigre de silicium

Un supercalculateur, c’est un très gros ordinateur constitué de quelques milliers de serveurs reliés entre eux par des réseaux à très haut débit et composés de dizaines d’unités de calcul. Le supercalculateur Curie [1] de GENCI, par exemple, travaille aujourd’hui aussi vite qu’un ensemble de 100.000 ordinateurs portables.

Ils permettent d’étudier le fonctionnement et les propriétés d’un système ou d’un phénomène ainsi qu’à en prédire l’évolution, par exemple la résistance d’une plateforme pétrolière à la houle ou la fatigue d’un matériau soumis à des vibrations.

 

Globalement, « on utilise chaque jour des mathématiques. Pour prévoir le temps qu’il fera, pour savoir l’heure qu’il est, pour gérer l’argent. Les maths c’est bien plus que des formules ou des équations, c’est de la logique, c’est de la rationalité, c’est se servir de son esprit pour résoudre les plus grands mystères qui soient ».

Ainsi s’ouvre la série américaine Numb3rs, diffusée entre 2005 et 2010 sur CBS, qui postule que les mathématiques peuvent venir à bout des intrigues policières les plus ardues. Pour prolonger cette assertion, rappelons qu’un grand nombre de nos gestes quotidiens font appel au calcul : compter sa monnaie à la caisse ou les moutons pour s’endormir, estimer la durée d’un trajet, évaluer le rabais obtenu sur un vêtement soldé, découper un gâteau en parts égales... 

Depuis toujours, et face à la complexité grandissante de ses besoins, l’homme a perfectionné les moyens de calcul à sa disposition car calculer c’est représenter le monde.

L’homme a toujours eu besoin de compter... Son bétail, ses biens, le prix d’une transaction. Dans les sociétés primitives, on utilise d’abord et naturellement ses dix doigts, une pratique qui serait à l’origine du système décimal. Puis, de façon plus perfectionnée, dans l’Antiquité, on se sert de cailloux qu’on entasse ou de bâtons qu’on entaille.

 

 

 

Les os d'Ishango, également appelés bâtons d'Ishango, sont considérés comme le plus ancien outil de calcul jamais mis à jour. Il s’agit de vestiges archéologiques découverts dans l'ancien Congo belge (aujourd’hui République démocratique du Congo), datés d’environ de 20 000 ans et portant plusieurs colonnes d’entailles. 

 

En Abyssinie (l’Éthiopie aujourd’hui), il était d’usage pour les guerriers partant au combat de déposer un caillou sur un tas, caillou qu’il retirait en revenant du combat. Le nombre de cailloux non repris permettait de déterminer le nombre de morts au combat. De même, les bergers comptabilisaient-ils leurs moutons avec des cailloux déposés dans un pot, à l'entrée et à la sortie de la bergerie.

 
Le caillou et le bâton sont l’un des plus anciens systèmes de calcul découvert à ce jour et permettaient d’effectuer des additions et des soustractions sur des nombres entiers : nombre d'animaux dans un troupeau, nombre de soldats dans une armée, nombre de jours dans un calendrier, prix à payer lors d'une transaction ou impôt.
Ces objets pouvaient également être façonnés en argile sous la forme de demi-sphères ou de sphères, par exemple. Lors de fouilles organisées en 1977 à Suse, les archéologues ont ainsi mis au jour des bourses en terre cuite scellées, contenant des billes en terre crue datant de 3300 av. J.-C et qui servaient d'archives aux comptables sumériens lors de transactions.

A l’origine du calcul ? Un caillou romain !

C’est parce que nos ancêtres comptaient avec des (petits) cailloux (calculus en latin) que nous parlons aujourd’hui de calcul. Calcul a conservé son acception originale en médecine où il désigne toujours un « caillou », c’est-à-dire une masse minérale qui peut notamment se former dans les voies urinaires (calculs rénaux) ou biliaires (calculs biliaires).

Cailloux naturels ou façonnés et bâtons sont à l’origine des tablettes (ou abaques) et des bouliers qui seront utilisés pendant plusieurs siècles et seront sans cesse perfectionnés pour effectuer des calculs de plus en plus complexes : longueurs, durées, proportions...

 

Avec la machine à calculer que Pascal présente en 1645, certaines opérations sont automatisées : additionner et soustraire deux nombres de façon directe, faire des multiplications et des divisions par répétitions. L’objectif du mathématicien-philosophe ? Aider son père, nommé surintendant des finances de Haute-Normandie, à (bien) calculer les recettes fiscales de la province. La Pascaline ouvre la voie au développement du calcul mécanique d'abord en Europe, puis dans le monde entier.
Un pas décisif est franchi au milieu du XIXe siècle grâce à deux britanniques, Charles Babbage et Ada Lovelace. Le mathématicien Charles Babbage est un des principaux précurseurs de l'informatique, notamment le premier à énoncer le principe d'un ordinateur. Cherchant à disposer de tables nautiques, astronomiques et mathématiques fiables, Babbage s’emploie à mettre au point une machine programmable, appelée machine analytique, qui pourrait exécuter le travail sans faute.

Avec l’aide d’Ada Lovelace, elle aussi mathématicienne, il conçoit les « diagrammes » qui feront fonctionner la machine. On considère aujourd’hui qu’Ada Lovelace a publié le premier algorithme destiné à être exécuté sur une machine.

Les années et le siècle suivants verront la mise au point de calculatrices mécaniques, électromécaniques puis électroniques avec l’invention du microprocesseur par Intel en 1971. Calculatrices et caisses enregistreuses existent toujours aujourd’hui dans des versions parfois très perfectionnées.
Le développement de la simulation numérique, pour reproduire des expériences complexes et difficiles à réaliser « en laboratoire », surtout quand elles sont dangereuses (simulation d’un incident industriel), coûteuses (design d’avion), de longue durée et avec de multiples paramètres (climatologie) ou encore inaccessible à l’échelle humaine (astrophysique), a conduit à la mise au point d’un autre type de « machine à calculer » : le supercalculateur.

La simulation numérique consiste à exécuter un programme informatique sur un ordinateur pour étudier un phénomène ou reproduire une expérience.

Troisième pilier de la science aux côtés de la théorie et de l’expérimentation, la simulation numérique est aussi un outil stratégique pour l’industrie en réduisant les temps de conception et de validation et en accélérant l’innovation.

C’est le britannique Alan Turing qui théorise, en 1937, les concepts d’ordinateur (calculateur universel programmable), de programmation et de programme. La même année, Howard Aiken présente à la firme IBM un projet de machine à calculer programmable qui sera développé deux ans plus tard et testé en 1943. A la même époque en Allemagne, Konrad Zuse met au point un calculateur capable d’effectuer une opération par seconde... A la fin de la guerre, en application des concepts énoncés par Alan Turing, John Von Neumann jette les bases de l'architecture utilisée dans la quasi-totalité des ordinateurs depuis lors. Et c’est dans les années 60 que Seymour Cray conçoit les premiers supercalculateurs pour Control Data Corporation.