Accueil > La Médiathèque > Collections > Séances publiques > Ouverture du cycle national 2013-2014 > Calcul haute performance : simuler le Monde dans un ordinateur

Enregistrer au format PDF

Ouverture officielle

Calcul haute performance : simuler le Monde dans un ordinateur

Sébastien CHARNOZ, professeur d’astrophysique, laboratoire Astrophysique, instrumentation et modélisation, université Paris Diderot, CEA, CNRS


20130916-Ouverture-Charnoz par IHEST

Préalable

Je vais vous parler de simulation numérique. Mon activité principale étant l’astrophysique, j’ai fait partie de plusieurs projets de mission spatiale au sein desquels mon travail consistait à utiliser la simulation numérique pour tenter d’interpréter les données récoltées lors de ces missions spatiales. J’utilise par ailleurs la simulation numérique pour comprendre le fonctionnement de système physique. Etienne-Armand Amato qui m’a invité à intervenir aujourd’hui m’a demandé d’insister plus particulièrement sur ce qu’est une simulation numérique et ce afin de désamorcer quelques mythes existant par rapport au calcul numérique. Je vais donc essayer de vous montrer ce que l’on fait lorsque l’on fait un calcul numérique. Quelles sont les limitations de ce genre de calcul ? Comme vous le savez, il s’agit d’un secteur de très haute technologie dans lequel les Etats investissent massivement aujourd’hui.
Si à la fin de ma présentation vous ne devez retenir qu’une idée je voudrais que ce soit la suivante : dans toute simulation numérique, ce qu’il importe en premier lieu est toujours d’avoir un regard critique le calcul numérique en tant que tel. Avant qu’un calcul puisse fonctionner il y a en effet mille raisons pour qu’il ne fonctionne pas.

Simulation et capacité de calcul

L’ordinateur est aujourd’hui massivement utilisé pour de grands calculs que l’on appelle simulations. Que sont ces simulations ? En général, les simulations font appel à des machines – des grands calculateurs ou des super calculateurs – si onéreuses que seules les grandes institutions (Etats, grandes entreprises) peuvent y investir. En France, nous avons un certain nombre de grands centres de calcul qui sont relativement compétitifs à l’échelle internationale : l’IDRIS, le CERN, le TGCC (Très Grand Centre de Calcul) au CEA, le CINES qui est géré par les universités. Une partie de ces capacités de calcul est gérée par les GENCI (Grand Équipement National de Calcul Intensif) où j’interviens. Quelques très grandes entreprises peuvent s’offrir le luxe d’investir dans ce type de grandes machines de calcul. Je pense notamment à Total, EDF ou Michelin.

A quoi sert la simulation numérique ?

La simulation numérique est avant tout un objet mathématique. Concrètement, il s’agit de la représentation mathématique d’un objet ou d’un système. A quoi servent ces représentations mathématiques ? L’utilité de la simulation réside souvent dans le fait de réaliser ce que l’on appelle des expériences virtuelles. Prenons l’exemple de cette télécommande que j’ai dans la main : je peux essayer de la compresser, de la casser, de la chauffer, etc. Si pour diverses raisons je n’ai pas accès à cette télécommande, mais que je possède un modèle mathématique de cette dernière – la physique est le lieu où l’on créé des modèles mathématiques des objets réels – au lieu d’agir sur elle dans le monde réel, je vais pouvoir essayer de mener un calcul numérique qui me donnera une idée de la réponse de cet objet à différentes sollicitations que l’on pourrait avoir sur lui. Effectuer un calcul numérique, c’est donc essayer de développer un calcul dont l’essence est parfaitement mathématique et qui a pour objectif de donner une représentation simplifiée d’un objet réel. Il ne faut pas jamais oublier que l’objet virtuel n’est pas l’objet, mais bien une représentation simplifiée, ce qui va être à l’origine de très nombreux problèmes. L’une des questions que l’on se pose quand on fait du calcul numérique concerne en effet la validation du calcul. On a beau faire plein de calculs extrêmement beaux et précis, souvent c’est bien la validation du calcul qui reste un véritable problème. Et pour cause, on n’a pas de manière simple de savoir si un calcul mène au bon résultat. En revanche, cela fait des animations souvent formidables.

Situations où l’ordinateur est nécessaire

Les types d’application sont nombreux et variés.
. On peut faire une simulation numérique parce que l’objet est inaccessible. L’astrophysique constitue à cet égard un excellent exemple de domaine où ce principe s’applique : les étoiles, les galaxies ou l’univers dans son entier sont objets de simulation parce qu’ils sont inaccessibles et ne peuvent faire l’objet d’une expérience en laboratoire. Les projets d’astrophysique sont ainsi en France les plus importants consommateurs de plans de calculs à l’échelle nationale. Ce problème se pose aussi pour l’infiniment petit. Certains systèmes quantiques sont en effet à ce point petits qu’ils sont inaccessibles à l’expérience. Pour essayer de les comprendre, on tente donc de les simuler sur un ordinateur.
. On peut faire de la simulation numérique lorsque l’on veut étudier le comportement d’un objet qui n’existe pas encore physiquement. Par objet qui n’existe pas, j’entends par exemple quelque chose à concevoir. La conception du dernier avion d’Airbus, l’A380, a ainsi été entièrement réalisée sur ordinateur. Cette simulation a permis de diminuer les coûts de développement de manière significative. Autre exemple : les réacteurs nucléaires. Chaque réacteur nucléaire que l’on construit est un objet expérimental – on ne construit pas de réacteurs nucléaires en série – qui fait l’objet d’une étude particulière. Le fonctionnement de chacun de ses réacteurs est donc simulé numériquement avant que ne commence la construction de ce dernier. Les réacteurs expérimentaux tels qu’ITER nécessitent donc le développement de capacités de calcul pour les simuler.
. On peut faire de la simulation numérique lors de la conception de bâtiments et d’infrastructures.
. On peut faire de la simulation numérique pour imaginer des objets abstraits complètement imaginaires, comme des objets fractals ou des systèmes dynamiques. On peut aussi imaginer explorer une utilisation abstraite d’un objet réel. A titre d’exemple, on parle de plus en plus de simulation du cerveau. La question qui se pose est alors la suivante : simule-t-on vraiment le cerveau ? Nous sommes en effet encore loin de comprendre complètement le fonctionnement du cerveau. Cela étant, nous avons en mathématiques des idéalisations de certains aspects du fonctionnement du cerveau, comme par exemple l’utilisation des réseaux de neurones. L’ERC a d’ailleurs financé des projets de simulation de certains fonctionnements du cerveau à l’aide de super calculateurs.
. On peut faire de la simulation numérique lorsque la complexité d’un calcul est grande. C’est notamment le cas lorsque l’on souhaite casser un code. Les problèmes de cryptographie pour casser un code supposent en effet de très grandes puissances de calcul. Nous en avons récemment eu l’exemple avec la NSA américaine qui possède une des plus grandes capacités de calcul de la planète et qui ne fait pas de simulation numérique.

Quand parle-t-on de calculs haute performance ?

La notion de calcul haute performance dépend complètement de l’instant auquel la question est posée. Les capacités de calcul ont tellement augmenté depuis les années 60 que ce qui était une performance il y a 20 ans n’en est plus une aujourd’hui. A titre d’exemple, un calcul qualifié de « haute performance » il y a 20 ans peut en effet aujourd’hui être réalisé sur un simple ordinateur portable acheté 300 euros à la FNAC. Ce que l’on appelle calcul haute performance aujourd’hui, ce sont des calculs qui nécessitent une puissance de calcul comparable aux plus grandes capacités actuelles. Capacités qui ne seront certainement plus « haute performance » dans 20 ans. La notion de calcul haute performance est extrêmement relative.

Actuellement, les nouvelles architectures d’ordinateurs nécessitent de revoir entièrement la manière dont on mène les calculs et dont on fait communiquer les processeurs entre eux. Il y a, dans le calcul haute performance, une notion qu’il n’y a pas dans la programmation de la vie de tous les jours : ce sont des calculs qui prennent en considération la manière dont la machine est architecturée pour pouvoir tirer le meilleur parti de ses performances. Si l’on veut concevoir un calcul haute performance aujourd’hui, on doit être capable de savoir sur quelle machine ce calcul va tourner et également comment piloter la machine. Pourquoi ? Tout simplement parce que ces machines sont tellement complexes que l’on ne peut pas faire abstraction de leur fonctionnement. Ce n’est pas du Plug and Play.

L’outil de base

L’outil de base est aujourd’hui l’ordinateur. Tous les ordinateurs possèdent une unité de calcul : le microprocesseur. L’un des intervenants évoquait tout à l’heure la loi de Moore. Cette loi est une loi prédictive qui prévoit l’évolution des puissances de calcul et qui, de manière assez extraordinaire, est scrupuleusement respectée depuis 40 ans.
Un ordinateur classique effectue actuellement, en fonction de sa puissance de calcul, entre 1000 et 100 000 opérations par seconde. La puissance de calcul de la machine se mesure au nombre d’opérations par seconde. En anglais, on appelle cela le flop pour floating point operations. Le problème de ces capacités de calcul – 1 000 à 100 000 opérations par seconde – est qu’elles ne sont pas suffisantes pour mener un grand calcul. Et pour cause, les technologies informatiques atteignent aujourd’hui une sorte de limite physique : plus on veut accélérer la puissance de calcul d’un microprocesseur, plus on fait chauffer ce microprocesseur. Cette contrainte a priori triviale est en réalité le grand problème qui structure toute la fabrication des microprocesseurs à l’échelle mondiale. Plus on veut faire de calculs, plus on doit dépenser de l’énergie et donc chauffer. Or plus on chauffe un microprocesseur, moins l’information circule dans ce microprocesseur et plus vite le calcul s’arrête.

Ci-dessus : un microprocesseur et le ventilateur que l’on fixe dessus pour le refroidir. Le fait que ces microprocesseurs chauffent extrêmement vite constitue une véritable limitation physique. A force d’y empiler des transistors, on a fini par atteindre la limite de fonctionnement des microprocesseurs.
Comment faire pour augmenter la puissance de calcul dans un contexte où les technologies ont un peu atteint une limite physique ? En changeant de paradigme. C’est ce qui a été fait il y a 15 ans : on a arrêté de faire des systèmes avec des microprocesseurs allant de plus en plus vite ; on a décidé d’empiler des microprocesseurs. On prend un, dix, cent, mille ou un million de microprocesseurs qui individuellement ne vont pas très rapidement, et on les fait communiquer entre eux. En faisant travailler tous ces microprocesseurs en parallèle, on va en effet pouvoir commencer à additionner leur puissance de calcul. C’est en changeant de paradigme au niveau des microprocesseurs que l’on a réussi à suivre la loi de Moore depuis 15 ans. Evidemment avec ce nouveau paradigme, de nouveaux problèmes apparaissent : des problèmes de communication entre tous ces microprocesseurs. A l’heure actuelle, nous ne savons pas très bien programmer certaines machines du fait de notre difficulté à gérer les problèmes de communication des microprocesseurs. Nous rencontrons donc également des difficultés de programmation. Pourquoi ? Parce qu’il est beaucoup plus difficile de penser un processus de manière parallèle que de manière sérielle. Penser un processus de manière sérielle est en effet facile. Nous en avons tous l‘habitude. Prenons un exemple. Je veux aller me servir un verre d’eau dans le frigo. Pour décrire mon action, je peux enchainer les idées de manière causale : je m’approche du frigo, je fais un pas, j’ouvre la porte du frigo, je prends la bouteille d’eau, je remplis mon verre et je le bois. J’obtiens ainsi un enchainement parfaitement sérialisé. Maintenant, comment gérer le fait de faire exactement les mêmes étapes de calcul mais de manière parallèle, c’est-à-dire en faisant appel à plusieurs machines ? C’est beaucoup plus compliqué. Je peux par exemple imaginer que je commence à ouvrir la porte du frigo alors que je suis encore en train de marcher, que je sors la bouteille d’eau du frigo tout en refermant la porte, etc. Il me faut donc commencer à voir s’il n’y a pas des tâches que je peux découpler les une des autres pour les mener en parallèle. Tel est un peu le problème de la programmation des grands codes aujourd’hui : essayer de découper un problème en plein de tâches que l’on essaie de mener de manière parallèle. Le plus souvent, on parvient à montrer que c’est possible, mais on ne sait pas bien comment le faire. Il nous faut donc essayer de penser parallèle. Or penser parallèle est toute une tournure d’esprit qui n’est pas classique. C’est quelque chose qui n’est malheureusement pas enseigné assez tôt à l’université. Tout le monde sait faire du calcul sériel depuis 30 ans. Il nous faudrait maintenant essayer d’acquérir plus tôt la tournure d’esprit nécessaire au calcul parallèle.

Les plus grandes machines au monde

Tous les six mois, une mise à jour est faite du top 500 des plus grosses puissances de calcul de la planète. Cette mise à jour est nécessaire dans la mesure où, en raison des investissements massifs des Nations dans ces machines, les plus gros calculateurs sont en compétition permanente. A l’heure actuelle, la Chine et les Etats-Unis tiennent le haut du pavé.
. En octobre 2013, la plus grande puissance de calcul de la planète se situe en Chine à la National University of Defense Technology. A quoi ressemble cette machine ? A une salle pleine d’armoires contenant un empilement de microprocesseurs. Les chinois ont ainsi réussi à coupler 320 000 microprocesseurs. C’est assez vertigineux.
. La deuxième puissance de calcul au monde se trouve aux Etats-Unis : elle contient 224 000 micro processeurs.
. La France n’est pas en reste. Nous avons les machines de l’IDRIS ou le super calculateur TERA du CEA où tournent pas mal de simulations en cosmo. Ci-dessus une machine qui a 40 000 cœurs.
. Ci-dessus : Mare Nostrum, une des plus puissantes machines il y a 8 ans mais qui n’est plus aujourd’hui dans le top 50. Cette machine a été installée dans une église à Barcelone, qui a été désacralisée par le Pape pour l’occasion.
. Pour illustrer les problèmes de communication, je vous invite à regarder le réseau de communication filaire situé sous la machine. Ces fils sont indispensables pour faire communiquer entre eux tous les microprocesseurs. Actuellement, une bonne partie du temps de calcul est perdue dans ces communications. Ainsi, la plupart du temps, un microprocesseur ne fait rien : 90% du temps, il attend de l’information de ses voisins ; quand l’information arrive, il la traite ; une fois l’information traitée, il la renvoie et se remet à attendre. Pourquoi ? Parce que la communication de microprocesseurs est un problème mal résolu. Nous perdons énormément de temps en communication parce que nous manquons de développement technologique pour faire communiquer les micro-processeurs entre eux.

Comment ça marche ?

Dans une perspective de démystification, je vais essayer de vous montrer ce que fait un ordinateur. L’ordinateur ne sait faire qu’une seule chose : les quatre opérations que sont l’addition, la soustraction, la multiplication, la division. En enchainant très vite toutes ces opérations, la machine peut donner l’impression d’avoir un comportement plus complexe. Pourtant, fondamentalement, la machine ne fait jamais rien d’autre qu’enchainer les quatre opérations à très haute vitesse. Par ailleurs, la machine ne sait manipuler que les nombres entiers. Elle ne sait pas traiter des nombres comme 1,2 ; Pi ; ou racine de Pi. Cela lui est complètement inaccessible. C’est en jouant sur les représentations et sur ces calculs que l’on donne l’illusion de pouvoir manipuler des quantités plus complexes. Prenons un exemple.

Je vais essayer de vous montrer comment représenter l’espace et le temps dans une machine, et ce dans le but de vous faire apercevoir l’origine des problèmes de tous les calculateurs numériques. Une machine ne sait traiter que des nombres. Or une manière de traiter des nombres est de les mettre sous forme de tableaux. La machine ne sait pas ce que sont l’espace et le temps. Elle ne fait que traiter des nombres entiers. La méthode la plus classique consiste à créer un tableau, un peu comme une feuille Excel, et à dire le temps est représenté par le déplacement sur les lignes et l’espace au déplacement sur les colonnes. Chaque grille constitue donc une représentation simplifiée de l’espace. C’est fondamentalement ainsi que cela fonctionne. La réalité physique est en fait ici un empilement de plans, un cube de plans.

Prenons pour exemple un problème physique extrêmement simple afin de mieux visualiser ce qui se passe au cœur d’une machine. Sur ce schéma se trouvent deux billes : une légère en jaune et une lourde en rouge. Ces deux billes se rentrent dedans, font une collision, la bille jaune rebondit vers la gauche et la bille rouge est légèrement déviée vers la droite. Comment simuler cela dans une machine ?

Comme dans le tableau ci-dessus. Dans cette grille de chiffre, chaque ligne correspond à l’état du système à un instant différent. Le 1 représente la bille légère, le 2 la bille lourde. Lorsque les deux billes sont distantes, le 1 et le 2 dans le tableau sont séparés par des zéros situés entre eux. A l’étape d’après, les billes sont plus proches. A l’étape d’après, elles sont encore plus proches. Puis, elles rentrent en collision. A cette étape, la machine manque de résolution : elle ne voit plus les deux billes, mais n’en voit plus qu’une qui fait un poids 3. Ensuite, lorsque les billes s’éloignent à nouveau, la machine arrive à les séparer parce que les lois de codage le permettent. La bille 1 repart en arrière et la bille 2 est légèrement déviée. C’est ainsi que les choses fonctionnent. Ce type de fonctionnement peut ensuite être étendu à la mécanique des fluides, à la gravité, à nombre de problèmes physiques.

Les difficultés

Le fait de travailler sur des tableaux de nombres et non sur des quantités réelles introduit de nombreux problèmes dans la mesure où la réalité n’est pas ainsi quantifiée. La machine ne peut avancer qu’avec des pas de temps ou des espaces finis. Se pose donc un problème de résolution. La limite de calcul numérique vient en effet du fait que la machine travaille sur des grilles et non sur des quantités réelles. C’est cela qui introduit des erreurs et des instabilités dans le calcul. C’est aussi cela qui explique la nécessité d’algorithmes nombreux. Toute la question réside donc dans le fait de savoir comment transposer les lois physiques dans cette représentation (sous forme de grille). Ce problème est encore mal résolu à l’heure actuelle. Dans certains cas physiques, nous savons le faire. Dans d’autres cas physiques, nous ne savons pas très bien le faire. Il faut bien avoir conscience que la machine est un calculateur fini qui ne traite que des quantités elles aussi finies. Nous ne savons pas traiter ni l’infiniment grand, ni l’infiniment petit. Cette finitude de la machine introduit spontanément des erreurs dans tout calcul. C’est pourquoi nous passons notre temps à imaginer quelles sont les erreurs que cette finitude de la résolution peut déclencher sur un calcul.

Quelques exemples de calculs réalisés en astrophysique

Nombre de calculs réalisés ces dernières années ont été très visibles dans la presse sur la simulation de l’univers lui-même. Quand on regarde le fond diffus cosmologique (autrement dit, quand on regarde à très grande échelle les données du satellite Planck), on s’aperçoit que l’univers à très grande échelle est structuré. L’une des grandes questions que l’on se pose alors est de savoir comment l’univers a-t-il pu passer d’un état initial dont on pense qu’il était homogène à un état structuré ? Ce sont ces questions que nous arrivons aujourd’hui à traiter dans une simulation. Que résout-on ? Fondamentalement, on résout les équations de la mécanique des fluides, auxquelles on rajoute la gravité et un terme qui est dû au fait de la relativité générale.

Exemple 1
. Les galaxies en 1941 avec une centaine de points.
. Les galaxies en 1970 avec quelques centaines de points.
. Les galaxies en 1976 avec 700 points.
. Aujourd’hui, nous arrivons à faire des simulations avec quelque chose de l’ordre de 50 milliards de points.
. Ici, on part d’un univers quasi homogène et on voit progressivement de grandes structures se concentrer sous l’effet de la gravité et commencer à former des grands filaments. Ces grands filaments sont en fait constitués des premières galaxies. Que se passe-t-il fondamentalement ? La gravité rassemble les objets. Le rayonnement expulse l’énergie qu’il y a en trop (pour compresser un objet, il faut en effet le refroidir). Ce sont là typiquement le genre de simulations que nous faisons pour interpréter les données Planck.
. On part d’un univers homogène et on commence à voir les premières grandes structures se former. Les petits points blancs, ce sont les premières galaxies. Ce genre de calculs nous permet non seulement d’interpréter les données mais aussi de tester les modèles d’univers dans lesquels nous sommes.
. Le milieu interstellaire. Il s’agit d’une simulation de la turbulence du gaz se trouvant entre les étoiles. Cette simulation nous permet d’interpréter les données de satellites tels qu’Herschel. Notre question : comment former les étoiles ?
. Une simulation d’effondrement d’un cœur dense. Il s’agit de la simulation de la formation stellaire. On voit une enveloppe de gaz qui fait plusieurs centaines de fois la taille du système solaire se contracter sous l’effet de la gravité. On voit la formation des premières étoiles. On voit le nuage qui se contracte. On zoome à l’intérieur du nuage. On a des systèmes de grilles emboitées pour augmenter la résolution dans les simulations. On voit de petits points blancs qui sont en fait les premières étoiles qui se forment. Le gaz du milieu interstellaire s’écoule sur ces étoiles et commence à former des disques que l’on appelle protoplanétaires. On pense que c’est dans ces disques que se forment les planètes.
. Cette simulation enfin a demandé énormément de calcul. Il s’agit d’une tranche de disque protoplanétaire. Un disque autour d’une étoile est soumis à la turbulence du fait du couplage avec le champ magnétique. A l’heure actuelle, on ne comprend pas comment ces disques donnent naissance aux planètes. La question de la formation planétaire est mal résolue. Beaucoup de travaux sont donc réalisés sur la nature de cette turbulence.

Conclusion
Plusieurs questions se posent aujourd’hui.

. Parmi ces questions, celle des puissances de calcul me semble importante. Comment programmer ces machines ?
. En termes de perspectives, nous allons vers un calcul toujours plus performant, nous permettant de traiter de nouveaux problèmes. Nous pensons pouvoir aller vers des modélisations globales du climat (ce que nous ne faisons pas encore à l’heure actuelle), ou des simulations de certaines fonctions du cerveau.
. La formation est aussi au cœur de nos préoccupations.
. A l’échelle nationale, un effort doit être réalisé sur la gestion de tous ces codes qui sont actuellement gérés de façon assez anarchique. Chaque institution a en effet sa propre manière de gérer les codes. Si certaines font très bien ce travail (comme la Maison de la simulation par exemple), d’autres produisent énormément de codes qui sont soit distribués, soit pas distribués, soit documentés, soit pas documentés, etc. Or quand on fait de la simulation numérique, on s’aperçoit que l’on passe 50% de son temps à refaire des choses qui ont déjà été faites parce qu’il n’y a pas à l’échelle nationale de gestion des grands codes.

JPEG - 111.9 ko

Questions / Réponses

 Je travaille à EDF et suis, entre autres, responsable des capacités de calcul pour la R&D. Je voudrais faire deux rectificatifs. 1) Quand une entreprise se paie de telles machines, ce n’est pas du tout un luxe. Cela répond à un besoin. 2) Chaque réacteur n’est pas une réalisation unique. Il y a tout de même des notions de série.
Vous avez tout de même soulevé un point qui me paraît important : le fait que l’on utilise la simulation pour prévoir des choses qui n’existent pas encore. Nous l’utilisons aussi beaucoup pour augmenter la performance de ce qui existe déjà ou en évaluer l’évolution dans le temps. Le lien avec l’expérimental me semble donc extrêmement prégnant. Je pense que l’on ne peut pas parler de modélisation sans parler de l’expérimental. Pouvez-vous en dire quelques mots ?
Quand je parlais du luxe, ce n’était pas péjoratif. Effectivement, je suis parfaitement d’accord sur le fait que ce sont des investissements absolument impérieux et incontournables. Il est par ailleurs évident que le lien avec l’expérimentation est quelque chose de fondamental, ne serait-ce que pour la validation des codes. Il n’est en effet pas aisé de dire si le résultat d’un calcul est juste. Pour les systèmes physiques, la confrontation aux observations est à l’heure actuelle le seul moyen dont nous disposons pour valider les codes. En ce qui concerne le nucléaire, les grands codes qui permettent de simuler certaines phases de déclenchement des bombes nucléaires ont été validés grâce à des expériences réalisées au préalable et qui avaient permis de prendre des mesures. Nous avons donc pu confronter les résultats de ces calculs aux mesures. Concernant l’expérimentation, simuler un système physique – par exemple une grande installation – va permettre d’étudier certains comportements de ces systèmes dans des régimes qui n’avaient pas été explorés et donc d’en améliorer les performances ou de trouver des pistes pour en améliorer les performances. Les choses ne peuvent effectivement s’accomplir sans un aller retour incessant entre expérience et simulation. Toutefois, dans certains cas, l’expérience n’est pas toujours possible.

 Y a-t-il des domaines dans lesquels la simulation analogique résiste ?
Je ne suis pas spécialiste donc je ne pourrai pas vous donner une réponse très précise. Je sais qu’en science de la terre, quelques simulations analogiques se font encore. Une simulation analogique est une sorte d’expérience censée représenter un système plus grand avec des mises à l’échelle. Par exemple, il existe des expériences de tremblement de terre ou d’écroulement de structures qui sont réalisées avec des maquettes. On peut qualifier cela de simulations analogiques. Cela étant, à ma connaissance le numérique a quand même grandement pris le pas.

 Au fond dans les simulations, on introduit ce que l’on connaît actuellement, autrement dit des lois physiques connues. Arrive-t-on malgré tout à déduire de ces simulations des choses inconnues sur le comportement ?
Vous posez une question épistémologique : est-ce qu’un système physique avec des lois parfaitement connues peut donner naissance à des comportements imprévisibles ? Cette question a été beaucoup étudiée dans la deuxième moitié du XXe siècle, notamment avec les systèmes dynamiques. Ce qui a alors été montré c’est que l’on peut parfaitement connaître les lois qui régissent le fonctionnement d’un système sans pour autant être capable d’anticiper l’enchainement de toutes ces lois entre elles. Or, l’enchainement de toutes ces lois entre elles peut parfaitement donner naissance à de nouveaux comportements, qui étaient là en potentialité dans les lois que l’on avait décrites mais qui ne pouvaient naître que de la combinaison de ces lois. Prenons l’exemple de la météorologie. Les lois qui régissent la mécanique des fluides sont très bien connues. On les enseigne en 3ème année à l’université. Elles s’écrivent sur une demi-feuille de papier. Simplement, l’enchainement de ces lois entre elles peut donner lieu à une richesse de comportements qui dépasse toutes les capacités de prévisibilité des calculs. La diversité et la richesse peuvent donc naître d’un ensemble très réduit de lois. Les gens qui étudient la physique où les systèmes dynamiques en font l’expérience tous les jours.

vendredi 28 février 2014, par HUCHERY Mélissa