Sciences, calcul et visualisation Jacques V?tois
Le calcul scientifique tend à prendre de plus en plus d'importance dans l'activité des laboratoires de recherches fondamentales et appliquées. L'ordinateur est devenu l'outil de travail privilégié du scientifique ou de l'ingénieur. On objectera que depuis les grecs les astronomes ne se sont pas contentés d'observer le ciel ; ils ont également prédit les phénomènes (par exemple les éclipses) et les positions des planètes et des étoiles sur la voûte céleste, et donc bâtit des modèles géométriques qui rendaient compte avec un certain succès de leurs observations. Les physiciens depuis le XVII ème siècle ont suivi leur trace avec le succès que l'on sait. Le calcul proprement dit a toujours été une part significative de leur travail. Les observatoires employaient alors des dizaines de personnes spécialisées dans cette activité. En effet, nous connaissons depuis Newton une loi de la Gravitation universelle qui, en première approximation, fournit un excellent modèle pour le mouvement des planètes dans le système solaire. Le seul problème, c'est que ses équations ne sont pas intégrables, c'est à dire qu'elles n'ont pas de solutions exprimables à l'aide de fonctions usuelles dès que le nombre de corps en présence est supérieur à deux. Aussi, les astronomes ont-ils dû développer, à l'aide de séries des solutions approchées qui tiennent compte des perturbations exercées sur le mouvement d'une planète dans sa course autour du soleil par les autres planètes. Après de longs calculs numériques, celles-ci fournissent des éphémérides précises concordant avec les observations et les mesures. En fait, l'astronomie a intégré très tôt dans ses travaux de recherche l'utilisation systématique du calcul.
L'apparition de l'informatique, donc d'un moyen de calcul relativement bon marché et puissant, a en quelques dizaines d'années tout bouleversé. L'expérimentation et l'observation sont devenues relativement secondaires, le calcul essentiel. Certains trouveront que j'exagère, mais un exemple récent prouve que les responsables politiques ont intégré cette évolution de la recherche scientifique et technique : les essais nucléaires permettant la mise au point de nouveaux modèles de bombes thermonucléaires, prohibés par des accords internationaux, seront dorénavant remplacés par des "essais numériques" à la portée des nouvelles générations de super calculateurs.
Rôle de l'expérience, de la généralisation et du calcul en physique
"L'expérience est la source unique de vérité: elle seule peut nous apprendre quelque chose de nouveau; elle seule peut nous donner des certitudes". Cette affirmation du mathématicien et astronome Henri Poincaré (1) ne serait contredite par aucun scientifique aujourd'hui. Pourtant, l'expérience tend à occuper une place de plus en plus restreinte dans l'activité des laboratoires et des observatoires. Car bien évidemment, les données collectées ne fournissent pas en elles-mêmes une explication des phénomènes étudiés et ne permettent pas de prévoir leur évolution. L'activité scientifique passe par la généralisation à partir des observations, et par la construction de modèles le plus souvent mathématiques. La valeur d'un modèle dépend de son caractère prédictif en suggérant de nouvelles observations ou de nouvelles expériences, qui pourront éventuellement montrer ses limites ou aboutir à des résultats contradictoires avec ses prévisions. Un exemple : Képler a découvert expérimentalement à partir des observations de l'astronome danois Ticho Brahé les trois lois qui permettent de décrire le mouvement d'une planète autour du soleil. Mais c'est Newton qui a généralisé les idées de Képler en posant les équations de la gravitation et en les résolvant, dans le cas où le système se réduit à deux corps. Il a retrouvé les résultats de ce dernier comme conséquence logique et nécessaire d'une loi d'attraction inversement proportionnelle au carré de la distance. Le modèle newtonien ne fut définitivement accepté que lorsqu'il permit de bâtir une théorie approchée du mouvement de la lune soumise à l'attraction de la terre et du soleil, problème qui résistait à la sagacité des astronomes et des mathématiciens depuis 1750.
Le modèle newtonien fera école : mécanique rationnelle, électrostatique, optique, équations des ondes, relativité... Depuis le XVIIème siècle, la physique est devenue plus abstraite et les représentations que nous nous faisons de la réalité passent par des modèles mathématiques très éloignés du "sensible". Des observations issues d'une réalité finie, on déduit un modèle continu sous la forme d'un système d'équations différentielles ou d'équations aux dérivées partielles, qui font appel aux ressources de l'analyse mathématique. Ces équations en général ne sont pas intégrables, c'est à dire que l'on ne peut en écrire les solutions avec les fonctions classiques. Leur résolution n'est possible que dans certains cas particuliers. Or, comme le fait remarquer l'astrophysicien Étienne Klein, "les physiciens, jusqu'à une époque récente, s'étaient davantage intéressés aux équations qu'aux solutions. Or les systèmes complexes ont des propriétés émergentes, qui ne sont pas contenues explicitement dans les équations" (2). En fait, on ne sait pas les résoudre d'une manière purement analytique, et il est souvent dangereux de généraliser le type des solutions obtenues dans des cas particuliers.
Avec l'apparition des ordinateurs, les scientifiques disposent de méthodes qui permettent de trouver des solutions numériques aux modèles qu'ils peuvent construire, sous la forme de suites de nombres générées à partir de conditions initiales ou de paramètres numériques. "L'expérimentation numérique" devient possible en remplacement ou en accompagnement de l'expérience de laboratoire. Mais bien que les schémas numériques soient élaborés en discrétisant les équations des modèles continus de la physique, ils ont beaucoup de points communs avec la méthode expérimentale. Ils fixent des conditions initiales sous forme de paramètres numériques, et l'étude qualitative complète d'un problème demande une infinité d'essais comme une expérience de laboratoire dont l'on fait varier certains paramètres. Ce qui n'est pas possible simplement pour des raisons de temps de calcul. C'est souvent les progrès dans les algorithmes utilisés, comme par exemple celui du calcul de la Transformée de Fourier (3) qui sont décisifs, plus que ceux de la vitesse des microprocesseurs dans l'extension de ce qui est "calculable". Il faut souligner également les difficultés spécifiques du calcul sur ordinateur: erreurs d'arrondis, erreurs de troncature (4), sans compter les "bugs" qui sont légion dans tout programme comportant des milliers de lignes de code.
Les voies du chaos
Ces "expériences numériques" ont permis de redécouvrir la complexité de certains phénomènes qui avait déjà été pressentie par Poincaré, Hadamard et d'autres mathématiciens au début du siècle, et leur comportement "chaotique" ; ce qui veut dire que certains processus déterministes, comme le mouvement des planètes ou la turbulence atmosphérique, sont extrêmement "sensibles aux conditions initiales" : "Il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit" (5). En météorologie par exemple, l'amplitude d'une perturbation double tous les trois jours, si rien ne vient contrarier son développement. Ce qui a fait dire à certains que le battement d'une aile de papillon suffit à créer un cyclone un an plus tard à l'autre bout du globe.
Jusqu'à une période récente, les astronomes pariaient à la suite de Laplace sur la stabilité du système solaire. En 1988, les Américains du MIT, G. Sussman et J. Wisdom, ont montré le caractère chaotique du mouvement de Pluton par une intégration numérique du mouvement des planètes extérieures (Jupiter, Saturne, Uranus, Neptune et Pluton) sur une durée de 875 millions d'années. Il ressort de leurs travaux que l'incertitude sur les conditions initiales est multipliée par 3 tous les 20 millions d'années, et donc qu'aucune prédiction n'est viable au delà de 400 millions d'années. Par contre, la faible masse de Pluton interfère peu avec le mouvement des autres planètes extérieures, qui reste stable pendant la période étudiée. Un travail analogue a été mené par J. Laskar de l'Observatoire de Paris sur les planètes intérieures du système solaire (Mercure, Vénus, la Terre et Mars), en intégrant numériquement leurs orbites par une méthode différente sur 200 millions d'années : leur comportement est chaotique. La distance d'orbites proches est multipliée par trois au bout de dix millions d'années, ce qui interdit toute prédiction au delà de 100 millions d'années.
Un nouveau champ disciplinaire est né de ces travaux mêlant études théoriques des systèmes dynamiques, théorie ergodique (6) et applications à certains domaines de la physique, de l'astronomie et de la biologie . Sans les calculs numériques sur ordinateur, les idées développées par quelques mathématiciens au début du siècle seraient restées lettre morte, ou simplement connues de quelques spécialistes. Or aujourd'hui, on découvre de plus en plus de systèmes physiques qui dérivent vers des situations de chaos, même sur le plan expérimental. Les "expérimentations numériques" mettent ainsi en évidence les limites des systèmes d'équations utilisés pour modéliser la réalité physique, sans qu'il soit toujours facile de séparer les effets provenant du modèle lui-même, en général continu, ou de la version discrétisée du processus dynamique. Ce modèle initial est en général transformé en schéma numérique en fixant un pas d'intégration. Plus le pas est petit, plus le comportement du modèle numérique est proche du modèle continu, mais plus le temps de calcul est long et plus le nombre d'opérations élémentaires à exécuter est élevé, multipliant ainsi les erreurs d'arrondis et de troncatures sur les résultats des calculs. Les modèles numériques et continus peuvent avoir alors des comportements divergents.
De la statistique au traitement informatique des données
Nous avons parlé jusqu'à maintenant des modèles déterministes de la réalité, mais on ne peut passer sous silence le rôle d'oracle joué par certains modèles probabilistes qui évaluent le risque d'un accident nucléaire comme ceux de Tchernobyl ou de Three Miles Island, ou de celui de l'explosion d'une fusée, et guident les opérateurs pour fixer les prix de certains produits financiers comme les options. Là également, ils ne sont opératoires que s'il existe en arrière plan des machines pouvant simuler par algorithme telle loi de probabilité que l'on retrouve dans les phénomènes étudiés, et capables de mettre en oeuvre les schémas numériques dérivant des "équations stochastiques".
Un autre rôle des ordinateurs dans le travail scientifique est le traitement des longues séries de données ou d'observations. Il n'est pas rare que des calculs qui prennent aujourd'hui quelques heures sur un super calculateur demandaient dix ou vingt ans de la vie d'un chercheur et de ses aides au siècle dernier. Ceci a simplement pour conséquences, comme je l'ai dit précédemment, que des travaux qui n'étaient pas imaginables il y a seulement dix ans le deviennent par suite de la montée en puissance des machines ou de la découverte de nouveaux algorithmes plus efficaces. Une des préoccupations de tout programme de recherches "réaliste" aujourd'hui est de s'assurer de sa compatibilité avec la puissance de calcul des machines qui seront sur le marché dans les deux ou trois ans à venir. Le chercheur est condamné à la "veille technologique", et beaucoup l'ont compris.
Les ordinateurs peuvent traiter les données comme des points dans un espace de grande dimension, les classifier en les séparant en nuages distincts par des hyperplans ou des surfaces plus compliquées. Ce que nous faisons naturellement et sans effort à l'oeil nu dans un plan à 2 dimensions, devient impossible pour des dimensions supérieures, à moins de disposer de machines capables de faire les calculs nécessaires à la géométrie des espaces à N dimensions (7). Il reste ensuite à comprendre et à "visualiser" les résultats des calculs.
Les images virtuelles
Les ordinateurs n'offrent pas seulement de la puissance de calcul aux chercheurs, mais aussi des possibilités graphiques, voire multimédias, qui sont indispensables pour l'interprétation des résultats. En effet, la simulation numérique entraîne leur profusion. Toutes les valeurs à chaque étape du calcul sont accessibles, à la différence du montage expérimental où seulement certains points du dispositif munis de capteurs peuvent fournir des informations. Mais des centaines de pages de listing sont directement inexploitables. Il faut faire une sélection dans le flot de données issues de la machine et les présenter en utilisant toutes ses ressources. Pendant longtemps, les scientifiques se sont contentés d'afficher des graphiques et des courbes, lissage ou interpolation d'ensemble de points. Aujourd'hui, l'ordinateur permet la création d'images de synthèse (8), qui fournissent une vision qualitative et synthétique des phénomènes. Celle-ci peut faciliter la comparaison des résultats d'expériences et de simulations numériques, concrétiser des théories mathématiques, et faire entrevoir de nouvelles théories, ou pointer des problèmes non résolus comme dans la théorie du chaos ou des structure fractales. L'image de synthèse fournit une représentation physique à des phénomènes qu'aucun instrument ne pourrait nous montrer parce que trop réduits ou trop fugitifs ou nous permettre des expériences impossibles à réaliser dans la réalité, comme la collision de deux galaxies.
Cette compréhension qualitative et intuitive associée aux images numériques demande évidemment à être utilisée avec une certaine prudence. Aux illusions géométriques bien connues depuis l'invention de la perspective et induites par l'aplatissement de structures 3D sur un écran à deux dimensions s'ajoutent les effets dus au choix des (fausses) couleurs, soit par le programmeur, soit par le système de la machine. Nous avons tous pu admirer les splendides images issues des grands télescopes: galaxies, nuages de gaz ou de poussière... Elles ont toutes été obtenues en "niveaux de gris", et les valeurs des "pixels" interprétées à l'aide de tables de couleurs judicieusement choisies en fonction de ce que l'on voulait mettre en évidence. Les véritables couleurs de l'univers, que personne ne peut voir réellement, pourraient être calculées par la combinaison de plusieurs images prises avec des filtres à des longueurs d'ondes bien choisies.
Interactivité et amplification de l'intelligence
Il manquait à l'expérience numérique l'intervention possible du doigté du praticien, qui sait affiner le fonctionnement d'un dispositif expérimental en jouant sur le réglage d'un potentiomètre ou de la pression régnant dans une enceinte confinée. Tout le monde sait que bien souvent la réussite dans le domaine expérimental dépend de l'habileté et du savoir-faire des chercheurs. L'interactivité avec le système informatique peut pallier évidemment à ce manque. Mais l'intervention reste alors très abstraite. Le tâtonnement est forcément de rigueur, même si la pratique guide à la longue les choix du chercheur.
Si les systèmes de "réalité virtuelle" tiennent leurs promesses, l'illusion sera complète. Il n'y aura plus aucune différence entre les "vraies expériences" et les "expériences de pensée" concrétisées par ordinateur et modèle interposés. Howard Rheingold décrit un système de manipulation moléculaire qui exploite "les capacités très développées du système haptique de l'homme (9) qui permettent d'avoir une prise sur un monde virtuel possédant ces propres règles". Grâce à un système de retour d'efforts, le manipulateur peut agencer spatialement des molécules de protéine en "ressentant" directement les forces électromagnétiques d'attraction répulsion des molécules entre elles selon les lois physiques classiques. Howard Rheingold pense que "c'est là que peut intervenir une amplification de l'intellect, là que la simulation proposée peut stimuler la compréhension d'un novice en la matière et amener le spécialiste au seuil de l'intuition décisive".
On construit ainsi un "réel de synthèse", une réalité opérationnelle que l'homme peut transformer et étudier par la seule force du calcul. La puissance des méthodes mathématiques et de leur succédané numérique et la généralisation des super calculateurs ouvrent des perspectives infinies à la recherche appliquée. Il est évidemment plus simple de simuler numériquement le comportement d'une aile d'avion à partir des équations de la mécanique des fluides que de construire une soufflerie et des maquettes pour de véritables expériences. Mais le modèle, dans le domaine technologique, doit finir par affronter le réel, être validé ou infirmé par la construction de prototypes.
Le retour des épicycles
En recherche fondamentale, les choses sont plus compliquées. En cas de désaccord entre les prévisions des modèles et l'expérience, deux démarches sont possibles. Remettre en cause le modèle et chercher d'autres voies, tant expérimentales que théoriques, ou bien le complexifier en y rajoutant d'autres paramètres et d'autres structures que l'on déterminera numériquement afin de faire "coller" observations et calculs. Cette démarche n'est pas nouvelle. Ainsi la théorie des épicycles de Ptolémée (10) se compliqua à chaque progrès des observations jusqu'à la fin du Moyen-Age, tant que les astronomes s'obstinèrent à suivre les idées des philosophes grecs qui expliquaient tout mouvement par des combinaisons de cercles, bien que les géomètres connaissaient et étudiaient déjà les propriétés des ellipses et des courbes du second degré. Le succès de la théorie héliocentrique de Copernic et Képler repose en partie sur la prise de conscience à leur époque de la complexité du modèle de Ptolémée, qui ne répondait que partiellement aux attentes.
La modélisation numérique reste un moyen inégalé de vérification des théories physiques et scientifiques d'une manière plus générale, et elle investit même les sciences humaines et l'économie. Mais la puissance de calcul disponible actuellement peut dispenser les scientifiques de rechercher la simplicité logique et la généralité dans les équations qu'ils écrivent, méthode qui a conduit aux succès que nous connaissons dans le passé. On peut multiplier les termes correctifs, les paramètres et construire des théories ad hoc : la puissance de calcul des machines en viendra toujours à bout. Celle-ci favorise la routine et la continuité dans une démarche de plus en plus "opératoire", au détriment des "révolutions conceptuelles" qui s'avèrent souvent indispensables pour sortir d'une impasse comme celle où semble se débattre la physique fondamentale aujourd'hui.

Notes

  1. La Science et l'Hypothèse, Henri Poincaré, Flammarion, 1902.
  2. La physique en quête d'unité, Étienne Klein, Ciel et Espace, Février 1995.
  3. Transformation mathématique utilisée en traitement du signal et en analyse d'images. En 1960, Cooley et Tucker publient un nouvel algorithme de calcul de la transformée de Fourier discrète ( Fast Fourier Transform) qui permit de généraliser son emploi.
  4. Erreurs de calcul sur les opérations fondamentales (addition, multiplication, division), dues à la représentation limitée et tronquée des nombres en mémoire dans un ordinateur. Le même programme exécuté sur deux machines différentes peut donner des résultats différents.
  5. Science et méthode, Henri Poincaré, Flammarion, 1908.
  6. Système pour lequel la moyenne temporelle de toute observation "raisonnable" est en général égale à la moyenne spatiale indépendamment de la trajectoire suivie. Chaos et déterminisme, sous la direction de A. Dahan Dalmedico, J.-L. Chabert et K. Chemla, Seuil, 1992.
  7. Au hasard. La chance, la science et le monde, I. Ekeland, Seuil, 1991.
  8. L'image de synthèse : un outil essentiel pour la simulation numérique, Jean-François Colonna, Les chemins du virtuel. Simulation informatique et création industrielle. Cahiers du CCI, Numéro spécial, 1989.
  9. Système qui nous informe de la position de nos membres l'un par rapport à l'autre et vis à vis de l'espace environnant. Il nous fournit également des informations sur nos sensations tactiles. La réalité virtuelle, Howard Rheingold, Dunod, 1991.
  10. Dans le système de Ptolémée (120 après J. C.), les trajectoires des planètes et du soleil étaient des cercles dont les centres respectifs décrivaient eux-mêmes des cercles autour de la Terre immobile au centre de l'Univers.