Expériences Virtuelles
et
Virtualités Experimentales
CMAP (Centre de Mathématiques APpliquées) UMR CNRS 7641, École polytechnique, Institut Polytechnique de Paris, CNRS, France
france telecom, France Telecom R&D
[Site Map, Help and Search [Plan du Site, Aide et Recherche]]
[The Y2K Bug [Le bug de l'an 2000]]
[Real Numbers don't exist in Computers and Floating Point Computations aren't safe. [Les Nombres Réels n'existent pas dans les Ordinateurs et les Calculs Flottants ne sont pas sûrs.]]
[N'oubliez pas de visiter Une Machine Virtuelle à Explorer l'Espace-Temps et au-delà où vous trouverez plus de 10.000 images et animations à la frontière de l'Art et de la Science]
(Site WWW CMAP28 : cette page a été créée le 18/09/1995 et mise à jour le 03/10/2024 17:06:42 -CEST-)
(publié dans la revue Réseaux du GDR Communication CNET/CNRS, 09/1993)
Résumé : Apres avoir rappelé les trois
notions essentielles d'ordinateur,
d'algorithme et enfin de modèle, cet article
définit l'Expérimentation Virtuelle,
nouvelle approche de la connaissance
scientifique, complémentaire de
l'Expérimentation de laboratoire. Ses
avantages sont décrits, en particulier à
l'aide de quelques exemples empruntés à la
relativité générale, à la mécanique
quantique et à la géométrie fractale. Ses
dangers liés, principalement aux erreurs
d'arrondi et aux modes de représentation,
sont exposés en détail. Un tour d'horizon
de l'état de l'art des techniques de
l'informatique permet ensuite de décrire
concrètement ce concept. Enfin, quelques
indications sur ses développements à venir
sont données.
Mots-clefs : algorithme, calcul
numérique, chaos déterministe, erreurs
d'arrondi, expérimentation virtuelle,
expérimentation de laboratoire, géométrie
fractale, modes de représentation, modèle,
ordinateur, réalite virtuelle, synthèse
d'image, visualisation scientifique.
Plan de ce document :
Imaginé par Charles Babbage au
milieu du dix-neuvième siècle, l'ordinateur
a dû attendre les années mille neuf cent
quarante, et le triomphe de l'électronique
sur le mécanique, pour se concrétiser sous
la forme d'un outil devenu indispensable
dans de très nombreuses activités
humaines. De toute évidence, et au-delà
de toute polémique sociale, cette invention
a bouleversé la plupart des branches
industrielles, à tel point qu'il est devenu
bien souvent impossible (malheureusement
?) de s'en passer. Une telle révolution est
en train de s'accomplir sous nos yeux dans
le domaine scientifique : il s'agit de
l'émergence du concept d'Expérimentation
Virtuelle ; mais avant de le définir plus
précisément, il est indispensable de
rappeler les trois notions essentielles
d'ordinateur, d'algorithme et enfin de
modèle.
1-ORDINATEUR ET ALGORITHME :
Un ordinateur est
une machine possédant d'une part une
unité de calcul capable d'effectuer les
opérations fondamentales de
l'arithmétique, d'autre part un organe de
décision permettant de choisir en fonction
de certaines conditions une voie plutôt
qu'une autre, et enfin une mémoire dans
laquelle sont stockées les données à traiter,
les instructions de manipulation de ces
dernières ainsi que les résultats obtenus.
Cette description simpliste correspond à
celle que Charles Babbage avait lui même
formulée, même si la terminologie adoptée
a depuis fortement évoluée [01]. Ce modèle
de machine à programme enregistré, dit de
Von Neumann, est utilisé universellement,
même si de nombreuses variantes existent
et si certains constructeurs se réclament
aujourd'hui d'architectures
révolutionnaires [02].
Cette possibilite dé calculer, de
choisir et de mémoriser permet à
l'ordinateur d'exécuter n'importe quelle
tâche à condition que celle-ci soit décrite
par un algorithme, c'est-à-dire par une
suite finie et ordonnée d'opérations
élémentaires et non ambiguës. Cette notion
fondamentale (ainsi que celle de
calculabilité) fut formalisée dans les années
quarante par un certain nombre de
chercheurs parmi lesquels il convient de
citer Alonzo Church et Alan Turing, et a
été enrichie depuis par d'innombrables
travaux portant en particulier sur la
complexité. Depuis ces temps héroïques,
l'ordinateur a été principalement utilisé en
tant que machine à calculer. Mais il est en
fait beaucoup plus qu'un simple
instrument, puisqu'en effet, situé au
confluent des mathématiques, de
l'informatique, des sciences cognitives et
de l'électronique, il devient chaque jour
davantage le collaborateur de l'homme et
aussi le miroir de son esprit [03].
2-NOTION DE MODELE :
L'état d'un système étudié
scientifiquement est représenté par un
ensemble de grandeurs (coordonnées
spatio-temporelles, température,
pression,...), et son évolution, quant à
elle, est décrite par un ensemble
d'équations reliant entre elles les
différentes grandeurs caractéristiques. Les
mathématiques, prodigieuse construction
intellectuelle et fruit de plusieurs
millénaires d'intense activité, constituent le
langage fondamental de la Science.
2.1-observations et modèles :
un modèle prend nécessairement ses
racines dans l'observation des
phénomènes naturels ; à partir des mesures
alors collectées, des corrélations et des
régularités sont notées, puis selon une
démarche unificatrice les observations sont
rattachées à un modèle déjà connu ;
lorsque cela se révèle impossible, une
description mathématique nouvelle est
proposée, ou bien une description
antérieure est élargie. Une théorie
scientifique n'ayant de sens, que réfutable,
et d'intérêt, que prédictive, les équations
du modèle doivent être manipulées et
résolues afin de jouer pleinement leur rôle
créateur ; ces opérations sont exprimables
sous la forme d'algorithmes. Les
prédictions ainsi réalisées permettent soit
d'infirmer le modèle, lorsqu'elles
se révèlent fausses, soit de le confirmer par
la dècouverte de nouveaux fragments de la
Rèalitè. Citons quelques exemples parmi
les plus fameux :
- la dècouverte de Neptune
(Urbain Le Verrier) grâce à la mécanique classique,
- la déviation des rayons lumineux
par la matière grâce à la relativité générale
(Albert Einstein),
- la prédiction de l'existence du
positon ou anti-électron (Paul Dirac) grâce
à la mécanique quantique.
Pour compléter cette présentation,
décrivons un cas simple.
2.2-la chute des corps dans le vide :
Des expériences (telles celles
effectuées par Galilée au début du
dix-septième siècle) ont montré que deux
grandeurs suffisaient pour décrire l'état
d'un objet quelconque laché dans le vide à
l'instant 0 : la distance parcourue (z) ainsi
que le temps écoulé (t). Ces deux variables
sont reliées par une relation simple
(appelée équation différentielle), elle-aussi
le fruit de l'expérience :
2
d z
----- = Constante
2
dt
qui se traduit par "l'accélération du
mouvement est constante". A partir de la,
il peut être montré très facilement que la
distance parcourue varie comme le carré du
temps écoulé :
Constante 2
z = ----------- x t
2
Nous pouvons donc calculer
précisement et à tout instant la position
d'un corps en chute libre dans le vide, et
ainsi proposer une expérience à même de
valider notre modèle. Si elle est
relativement facile à conduire dans ce cas,
il en est de nombreux où celle-ci est
beaucoup plus délicate, voire impossible, à
réaliser (c'est ainsi le cas d'un modèle de
l'univers et de son origine, et plus
"simplement" de celui de l'interaction
gravitationnelle entre les galaxies où seule
l'observation sans action est possible).
Nous allons voir par la suite comment les
notions d'algorithme et de modèle vont
malgré tout nous permettre d'aller plus loin
en étendant et généralisant la notion
d'expérience.
3-INTRODUCTION A LA NOTION D'EXPERIMENTATION VIRTUELLE :
Les formidables
progrès que nous avons connus et
connaîtrons encore dans le domaine de
l'informatique [04], tant au niveau logiciel
que matériel, ont rendu possible
l'émergence du concept d'Expérimentation
Virtuelle, que John Von Neumann avait
pressenti, et dès la fin des années
quarante, utilisé. Malheureusement, s'il
n'est pas allé aussi loin que son génie
visionnaire aurait pu le lui permettre, c'est
tout simplement parce que les outils qu'il
avait alors à sa disposition étaient d'une
puissance dérisoire par rapport à celle de
nos machines d'aujourd'hui : en effet, les
premiers ordinateurs n'étaient capables
d'effectuer que quelques centaines
d'opérations par seconde, alors que le mur
symbolique des "mille milliards" (le
"téra-flops") devrait être franchi dans les
mois à venir...
3.1-définition :
A côté de
l'expérimentation que nous qualifierons de
laboratoire ou de naturelle (afin d'éviter
d'employer le qualificatif de réel, sujet de
débats épineux, en mécanique quantique
en particulier), effectuée soit a priori (c'est
l'observation des phénomènes naturels),
soit a posteriori (pour vérifier le pouvoir
prédictif de la déduction mathématique
[05]), se trouve l'Expérimentation Virtuelle
; cette terminologie doit être préférée à celle
de simulation numérique, parce que d'une
part le mot simulation est entaché d'une
connotation négative (simuler c'est bien
souvent tromper volontairement, voir le
paragraphe 7.3), et que d'autre part, elle
situe mieux la place qu'occupe cette
nouvelle approche dans la quête de la
Connaissance. Elle consiste à étudier le
modèle mathématique d'un système (telle
que cette notion fut définie au chapitre 2),
plutôt que ce système lui-même. Ainsi, il
sera par exemple possible d'agir, via leurs
modèles, sur des objets inaccessibles (les
étoiles, les galaxies,...), ou bien encore
d'inhiber certains facteurs (la
gravitation,...) ou enfin d'essayer des
conditions non physiques. Mais avant d'en
arriver là, il est nécessaire de résoudre les
équations...
3.2-la résolution des équations constitutives des modèles :
deux approches complémentaires et non
exclusives l'une de l'autre sont possibles :
- la première, formelle, est celle qui
donne la "solution explicite et exacte" dans
un cadre donné ; la chute des corps dans le
vide, telle qu'elle fut presentée au
paragraphe 2.2 en est un excellent
exemple. Malheureusement cette approche
est, la plupart du temps, impraticable,
voire impossible, même dans les cas les
plus simples [06] ;
- la seconde, dite numérique,
procède par approximations : certaines
équations devront être simplifiées, alors
que les grandeurs étudiées seront
discrétisées (ainsi nous ne nous
intéresserons, par exemple, qu'à quelques
points de l'espace et à quelques instants
particuliers). Elle fournit ensuite ses
résultats sous la forme de nombres (par
exemple la vitesse en chacun des points
étudiés et pour chaque instant choisi).
3.3-les rôles joués par l'ordinateur :
dans un cas comme dans
l'autre, l'ordinateur est aujourd'hui un
outil indispensable, tant au niveau de la
manipulation formelle des expressions et
des équations, qu'au niveau numérique,
étant donné, dans les deux cas, la
complexité des opérations à réaliser : c'est
en effet par millions, par milliards,... que
sont comptés les nombres à traiter. Mais
ainsi que nous le verrons par la suite, il
serait fortement réducteur de ne voir dans
l'ordinateur qu'une vulgaire et stupide
machine à calculer ; il convient aujourd'hui
de le considérer comme un collaborateur à
part entière, dont le rôle ne pourra qu'aller
en augmentant. S'il est vrai que les
résultats auxquels est parvenue
l'Intelligence Artificielle sont très éloignés
de ce que pouvait espérer ses pères dans
les années cinquante [07], il ne faut pas
négliger d'une part ses réels succès [08],
d'autre part les progrès accomplis dans le
domaine du parallélisme massif [09] et enfin
le fait que l'Intelligence Naturelle existant
et reposant sur un support relevant de la
science, rien ne devrait empécher d'en
comprendre, à plus ou moins longue
échéance, les mécanismes et donc d'être
capable de les reproduire (et de les
améliorer, comme cela fut déjà accompli
dans le domaine des performances
physiques ?). Mais d'ailleurs, l'objectif
n'est peut-être pas uniquement de faire de
l'ordinateur un simulacre capable de
grimper dans les arbres pour cueillir des
fruits ou de parcourir la savane à la
recherche du gibier, mais bien plutôt de
créer un être a même de nous aider à percer
les secrets de l'Univers [10].
4-LES VIRTUALITES EXPERIMENTALES :
L'unique
objet d'étude de la Science est notre
Univers dans toute sa diversité et sa
complexité. Les expériences virtuelles dont
il fut question ci-dessus reposent donc sur
des modèles qui se veulent les plus fidèles
reflets de fragments de la "réalité". Mais
ces outils peuvent aussi être libérés de leur
carcan scientifique, et donner alors, par
exemple, à l'artiste de nouveaux moyens
d'expression pouvant donner la vie aux
univers les plus fantastiques : qui n'a
jamais eu envie de visiter le monde
d'Escher ou d'aller de l'autre côté du
miroir des époux Arnolfini de Van Eyck ?
Il ne s'agit pas la d'animer la peinture, qui
reste et doit rester ce qu'elle est, mais bien
plutot de proposer la création d'un art
nouveau, sorte de sculpture interactive, ou
l'ordinateur devient alors générateur de
Réalites Virtuelles qui ne demandent qu'à
être explorées ; les applications
pédagogiques et ludiques en sont à peine
imaginables. Viendra-t-il un temps où ces
Réalités Virtuelles supplanteront la Réalité
qu'expérimente l'homme depuis la nuit des
temps ? Il est bien sur impossible de
répondre à cette question ; si elle ne doit
pas nous effrayer, elle demande malgré
tout une réflexion profonde sur l'usage qui
peut en être fait pour le plus grand bien de
l'humanité...
5-L'OUTIL ORDINATEUR AUJOURD'HUI :
Avant d'examiner
plus concrètement cette notion
révolutionnaire, véritable rupture
épistémologique, il est important de
préciser l'état de l'art en matière
d'informatique afin d'en apprécier
pleinement les potentialités. De toutes ses
facettes, présentons celles qui nous
paraissent les plus caractéristiques et les
plus pertinentes relativement au sujet ici
développé :
5.1-l'intégration à grande échelle (ou VLSI) [11] :
Actuellement,
les composants les plus complexes sont
constitués de plusieurs centaines millions de
composants élémentaires [12] implantés
automatiquement sur une surface de
l'ordre du centimêtre carre. Les horloges
qui rythment leur travail, battent, pour les
plus performants d'entre-eux, à des
fréquences de l'ordre de la centaine de
méga-hertz, et ce qui était hier la spécificité
d'un super-ordinateur (tel le fameux et
coûteux CRAY 1) se retrouve aujourd'hui
dans tous les micro-processeurs haut de
gamme [13][14]. Souvent ignorées (plus
ou moins involontairement, les intérêts
économiques en jeu étant colossaux...),
les performances obtenues sont
surprenantes ; celles-ci résultent,
précisons-le car la chose est d'importance,
de la puissance intrinsèque des circuits,
mais aussi, de la qualité des logiciels, et
tout particulièrement de celle des
compilateurs. Par exemple, sur un
échantillon représentatif d'activités, une
station de travail peut être intrinsèquement
plus rapide qu'un mainframe, machine
dont le prix d'achat (en général supérieur à
dix millions de francs) et les coûts de
fonctionnement sont alors complètement
invraisemblables (des rapports
performance/prix de l'odre de 100 à 1, en
faveur des stations de travail et autres PC,
peuvent alors apparaître...). A cela, il
conviendra d'ajouter le fait qu'en règle
générale, les petites machines (au sens
investissement du terme) ne sont utilisées,
à un instant donné, que par une seule
personne, ce qui améliore encore
davantage les performances apparentes et
le confort qui en découle.
La classification traditionnelle des
ordinateurs vacille d'ailleurs actuellement
sous la pression inexorable du progrès,
que les intérêts des grands constructeurs
ne peuvent enrayer. Bientot, les micros,
les minis, les mainframes et autres
super-ordinateurs se différencieront
uniquement par le nombre de composants
standards qu'ils contiendront, par le débit
de leurs organes de communication et
enfin par la topologie de leurs connexions
internes. Il est à ce propos significatif de
constater qu'apres quelques errements, les
constructeurs de systèmes massivement
parallèles se sont pratiquement tous
orientés vers des micro-processeurs "du
commerce" [15] préférant à juste titre
consacrer leurs ressources et leur énergie
aux vrais problèmes que posent ce type de
système. Citons les deux qui paraissent les
plus délicats :
- le premier concerne celui de la
connexion entre les différentes unités : en
effet, comment faire dialoguer entre eux et
simultanément plusieurs milliers de
microprocesseurs (voire plus) désirant
chacun transmettre et recevoir plusieurs
dizaines de millions de caractères par
seconde, tout en évitant une croissance
exponentielle des coûts et en optimisant les
performances ?
- Le second problème, situé en aval
du précédent, est celui de l'utilisation de
ces machines : comment faciliter leur
programmation par des utilisateurs qui ne
seront pas nécessairement des spécialistes
de ces architectures, c'est-à-dire comment
leur permettre de tirer le meilleur parti de
ces ressources colossales sans avoir, par
exemple, à décrire explicitement
l'ensemble des communications ainsi que
leur enchaînement dans le temps, tâche a
priori impossible ?
Ces problèmes n'ont pas, à l'heure
actuelle, de solutions générales et sont
l'objet des efforts de nombreux
scientifiques, tant du monde de la
recherche que de celui de l'industrie.
5.2-la connexion généralisée :
Aujourd'hui, il n'est pratiquement plus
d'ordinateurs à usage professionel qui
soient coupés du monde extérieur [16].
Ainsi, pratiquement toutes les machines
UNIX [17] de la planète peuvent dialoguer
entre elles, et cette possibilité, associée à
leur puissance intrinsèque évoquée
précédemment, aboutit à la notion de
système réparti ou méta-ordinateur [18]. Il
s'agit-là d'un système dont les différentes
fonctions (calcul, interaction,
mémorisation, gestion de fichiers,
visualisation, connexion à des appareils de
mesures...) sont délocalisées, mais
apparaissent à l'utilisateur, malgré tout,
comme faisant partie d'une même entité
logique à l'apparence locale.
Les principaux réseaux locaux
d'aujourd'hui nous offrent déjà des débits
théoriques importants [19] ; bien souvent
leurs interconnexions sur de grandes
distances ne se font qu'à l'aide de liaisons
basse vitesse [20]. Mais d'une part leur
utilisation peut et doit ignorer leurs
caractéristiques techniques [21], et d'autre
part, en laboratoire, des prototypes
proches de l'industrialisation [22] offrent
des vitesses de commutation de plusieurs
giga-bits par seconde ! Ainsi,
prochainement, les systèmes éloignés,
quelle que soit la distance les séparant,
pourront dialoguer à l'aide de liaisons dont
les débits seront supérieurs à ceux de la
plupart des bus internes d'aujourd'hui,
sachant que ces derniers ne connaîtront
pas, sauf révolution technologique, une
telle accélération [23].
Alors, les possibilités des
micro-processeurs, associées à cette
"ubiquité électronique", nous donneront
une puissance de traitement inimaginable,
pratiquement gratuite, mais à laquelle nous
devons nous préparer dès maintenant lors
de la conception de nouvelles applications,
lors du choix et de la mise en place de
nouveaux équipements, ou encore lors de
la définition des programmes
d'enseignement.
5.3-l'existence de normes :
Le concept de méta-ordinateur proposé
ci-dessus est dès maintenant réalisable car
en effet, apres l'anarchie des débuts et les
solutions dites propriétaires, des normes
tant matérielles que logicielles existent.
Celles-ci naissent des exigences des
organismes de normalisation [24] ou, bien
souvent, de la pression des utilisateurs
face à un produit efficace ou très répandu
[25]. L'expérience quotidienne montre
que, raccorder et utiliser un nouveau
système, sans être aussi simple que
prendre le volant d'une nouvelle voiture,
n'est plus aujourd'hui une aventure
héroïque ; mais d'ailleurs, les fonctions
d'un ordinateur sont-elles vraiment aussi
simples que celles d'une voiture ?
5.4-rentabilité et pérennité :
Face à cet immense potentiel brièvement
décrit ci-dessus, il est essentiel,
aujourd'hui, de tirer simultanément le
meilleur parti des ressources qui nous sont
offertes et de garantir la pérennité de nos
développements. Cette dernière exigence
est réalisable si d'une part, les applications
sont développées en s'astreignant à une
discipline stricte, ainsi qu'en respectant les
normes et la structuration en couches, et si
d'autre part des modèles conceptuels
simples sont mis en œuvre (voir par exemple
l'environnement de travail développé par l'auteur).
En ce qui concerne l'exigence de
rentabilité, elle peut en partie se ramener à
l'exploitation du parallélisme (au sens
large du terme) ; il est clair que c'est là l'un
des points délicats, qui fait l'objet de
recherches nombreuses, et qui peut
expliquer le fait que les architectures dites
hautement parallèles ne soient pas plus
répandues dans les centres de recherche et
dans l'industrie, alors que leur cout actuel
les rend relativement abordables. Dans ce
domaine, il semble que le logiciel soit,
pour une fois, en retard sur le matériel, ce
qui signifie qu'aujourd'hui, ce type de
système est plus facile à construire qu'à
utiliser. Mais la situation n'est pas
désespérée [26]...
6-L'EXPERIMENTATION VIRTUELLE AUJOURD'HUI :
Ce rapide tour
d'horizon des moyens informatiques
actuellement à notre disposition et des
tendances prévisibles, nous a montré
qu'en fait un immense potentiel n'attendait
qu'a être exploité. Dans le domaine de la
recherche tant fondamentale qu'appliquée,
les outils informatiques et les concepts
associés qui sont aujourd'hui disponibles
permettent de faire de l'Expérimentation
Virtuelle une réalité opérationnelle et
quotidienne. Le rôle qu'y joue l'ordinateur
est tout a fait fondamental, mais il convient
de rappeler au préalable qu'à côté de
celui-ci, il en joue d'autres qui, bien
qu'étant moins révolutionnaires ou
exaltants n'en sont pas moins importants ;
en particulier le courrier électronique et
l'édition assistée par ordinateur se sont
aujourd'hui banalisés au point de voir, par
exemple, les jeunes chercheurs taper
eux-mêmes leurs rapports de thèse, chose
encore impensable il y a quelques
années... Malgré l'intérêt évident de ces
techniques, nous n'insisterons pas
davantage sur elles, afin de nous polariser
sur ce que nous croyons être l'émergence
d'un méta-outil scientifique dont il nous
est impossible aujourd'hui d'apprécier
pleinement l'impact, tant son apparition est
récente et ses potentialités énormes...
6.1-L'analyse des résultats produits :
En règle générale, une
expérience virtuelle fait appel à l'approche
numérique pour la résolution des équations
constitutives des modèles mis en œuvre
(voir le paragraphe 3.2). Elle fournit donc
ses résultats sous la forme de nombres ; la
plupart du temps, le volume ce ceux-ci est
tel que leur analyse sous une forme
alpha-numérique est impensable et même
absurde [27]. C'est ainsi que, lors d'un
passage en machine d'un programme
d'étude de la turbulence bidimensionnelle,
dans un domaine carré échantillonné par
103x103 points, le nombre de valeurs
obtenues au bout de 100 pas de temps, est
de l'ordre du milliard, ce qui imprimé,
représenterait un volume équivalent à un
millier d'annuaires téléphoniques ! C'est
pour cette raison que, jusqu'à un passé
relativement récent, seules quelques
valeurs particulières (extrema,
moyennes,...) étaient éditées, faisant
perdre par la-même toute la richesse
morphologique enfouie dans les
nombres...
Le passage du quantitatif (très
restreint) au qualitatif a été rendu possible
grâce aux techniques de la synthèse
d'images connues du grand public par la
publicité et les effets spéciaux du cinéma.
Aujourd'hui la production d'images,
condition sine qua non d'une exploitation
efficace des résultats numériques, rend
prophétique la remarque faite par Heinrich
Hertz au dix-neuvième siècle : on ne peut
échapper au sentiment que ces formules
mathématiques ont une existence qui leur
est propre, qu'elles sont plus savantes que
ceux qui les ont découvertes, et que nous
pouvons en extraire plus de science qu'il
n'en a été mis à l'origine. Nous pouvons,
dans ces conditions, définir d'une façon
pragmatique l'Expérimentation Virtuelle
comme étant la réalisation de mesures sur
un modèle mathématique résidant dans la
mémoire d'un système informatique (à
entendre au sens large : revoir le
paragraphe 4.2), et l'analyse de celles-ci
grâce à la production interactive d'images
synthétiques animées et en couleurs ; cette
approche place le chercheur dans une
boucle de rétroaction, où le sens de la
vision joue un rôle privilégié, celui-là
même qui est fort probablement à l'origine
de la curiosité scientifique.
6.2-Un instrument révolutionnaire :
Mais, en plus de
permettre cette mise en forme de résultats
fournis "en vrac" [28], elle fait apparaître
d'autres avantages fondamentaux :
- En particulier elle facilite la mise
au point et la validation des modèles (voir
les paragraphes 7.1 et 7.2).
- Elle simplifie de plus la
communication scientifique et
pédagogique, en particulier en ce qui
concerne la compréhension de concepts
abstraits.
- C'est aussi un fabuleux outil de
découverte : en effet, sous l'œil du
chercheur ou de l'ingénieur, de ces images
surgissent spontanément des formes, bien
souvent imprévues et imprévisibles (bien
que déjà présentes dans les équations...),
qui seront pour lui des indices de
régularités sous-jacentes ou bien de pistes
à suivre.
- Mais, il s'agit surtout d'un
instrument révolutionnaire (comme le
furent en leur temps le télescope et le
microscope) qui permet l'observation,
mais aussi, et surtout, la manipulation
indirecte d'objets qui autrement seraient
hors de notre portée et de notre regard.
C'est ainsi, que l'astronome peut
aujourd'hui "jongler" avec les galaxies
(voir la figure "Vue artistique du 'Big Bang'") et les galaxies, et qu'à
l'autre bout de l'échelle, le physicien peut
observer les plus petites structures de la
matière actuellement connues (voir la
figure "Structure en quarks et gluons du nucléon")...
- Enfin, l'artiste détient là,
lui-aussi, un formidable outil (méta-outil ?)
de création, dont les productions, images
de réalites virtuelles (certains iront jusqu'à
parler alors de nouvelles réalités...), n'ont
pas fini d'étonner, mais aussi d'interroger
nos sens (voir les figures "Montagnes au lever du Soleil"
et "Visualisation bidimensionnelle de la dynamique de Verhulst -(gris,orange,rouge) montrent les exposants de Lyapunov négatifs, (jaune,vert,bleu) montrent les exposants de Lyapunov positifs-").
6.3-Le voyage dans l'espace-temps à notre portée :
Enfin, l'homme disposera bientôt de la
machine à voyager dans l'espace-temps.
Bien sur, il ne s'agira certainement pas là
d'un moyen de déplacement matériel, mais
d'un dispositif utilisant les techniques
décrites brièvement ci-dessus. L'homme
ainsi libéré des contraintes physiques
(vitesses limitées, échelles incompatibles,
dangers divers,...), sera à même de
voyager instantanément d'un bout à l'autre
de l'Univers-Modèle, et d'en explorer
toutes les échelles. Déjà, il est possible de
survoler la planète Mars, d'approcher un
trou noir, de pénêtrer à l'intérieur du corps
humain,...
Quels voyages nous réserve demain ?
En face de ces perspectives, une
objection majeure pourrait s'élever : le
modèle de la réalité n'est pas la réalité.
Cette affirmation, bien qu'incontestable
doit être nuancée ; en effet, cette réalité,
que Bernard d'Espagnat qualifie de voilée
(transcendante serait peut-être un
qualificatif plus approprié), quelle est-elle
et nous est-elle accessible ? Nos sens (et la
vue en particulier) ne nous permettent pas
de l'appréhender directement ; nous n'en
percevons en fait qu'un modèle (non
mathématique ?) construit patiemment au
cours des âges par les zones sensorielles
de notre cerveau. L'un des objectifs est
donc ici de stimuler ces mêmes sens de
telle façon que l'on ne puisse se rendre
compte de la "supercherie", et là très
certainement l'apprentissage précoce de
l'usage de ces moyens en facilitera
l'intégration dans notre environnement
[29]. Peut-être un jour viendra donc où,
dans certaines circonstances, la différence
objective ne pourra plus être faite entre ces
différentes réalités sensibles, qui
deviendront alors réalités tout court...
7-UN OUTIL NON NEUTRE :
La description précédente
pourrait paraitre idyllique ; en fait il n'en
est rien, et quelques précautions doivent
être prises. D'une part les expériences ici
décrites ne portent, rappelons-le, que sur
le modèle d'un objet (le mot objet étant ici
à entendre dans son acceptation la plus
large) et non point sur l'objet lui-même
(mais encore une fois, bien souvent
celle-ci est de toute façon impossible, alors
que la connaissance doit progresser). Il
convient bien entendu de ne point
confondre les deux ; or, la frontière entre
le réel et le virtuel va tendre a s'estomper,
c'est là d'ailleurs l'ambition des recherches
effectuées en techniques de Réalité
Virtuelle que nous présenterons au chapitre
8. Le chercheur et l'ingénieur, face à cette
puissance, ne devrons jamais cesser de
s'interroger sur leurs activités, et toujours
questionner les réponses fournies par les
machines ; les téra-flops (1012 opérations
par seconde) ne devront jamais remplacer
le je pense donc je suis
par un
je calcule aveuglement donc je suis... D'autre part,
de nombreuses erreurs peuvent
s'introduire à differents niveaux :
7.1-Les erreurs de modélisation :
Faire une expérience
virtuelle signifie d'abord concevoir le
modèle de l'objet étudié . Ce processus
relève de la discipline dans laquelle évolue
le chercheur [30], mais aussi et de façon
systématique, des mathématiques, celles-ci
pouvant être qualifiées à juste titre de
fondation de la Science. A partir des
résultats collectés lors de l'observation des
phénomènes, des lois doivent être
formulées. Les phénomènes dont il vient
d'être question sont en général naturels (la
chute des corps, le mouvement des
planètes, la croissance des plantes,...) ;
mais cela peut ne pas être le cas : les
mathématiques forment elles-mêmes un
champ expérimental extremêment étendu
[31]. Ces lois se doivent d'assimiler les
résultats antérieurs, tout en faisant preuve
d'une économie de moyens (c'est-a-dire
préférer les solutions simples, symétriques
et esthétiques...) et enfin, en étant capable
d'assimiler les résultats à venir. L'histoire
des sciences montre que ce sont bien
souvent ces derniers qui provoquent les
progrès de la connaissance : transition
douce dans certains cas (par exemple la
prévision de l'existence d'une nouvelle
planète dans le système solaire), ou bien
rupture brutale (le début du vingtième
siècle fut le témoin de deux tels
bouleversements avec la découverte
-l'invention ?- de la Mécanique Quantique
et de la Relativité Générale). Dès cette
étape donc, de nombreuses erreurs
peuvent s'immiscer dans les équations :
conceptuelles [32] et de "manipulation"
[33]. Celles-ci peuvent très bien ne jamais
être décelées, ou beaucoup plus tard ; ce
sera ainsi le cas ou l'objet étudié se situe à
la frontière de la connaissance, ou bien
lorsque la validation expérimentale du
modèle est difficile voire impossible
(études des premiers instants de l'univers
dans le cadre du modèle du Big Bang par
exemple). Mais d'ailleurs, ces quelques
remarques dépassent largement le cadre de
l'Expérimentation Virtuelle...
7.2-Les erreurs de programmation :
Malheureusement, la
liste des difficultés ne s'arrête pas ici ; en
effet, les pages d'équations ne sont
d'aucune utilité si elles ne sont point
résolues afin de faire des prévisions et
d'éventuellement impliquer la réfutation du
modèle. Cette résolution, comme cela fut
déjà dit a plusieurs reprises ne peut se faire
en toute généralité qu'en recourant à
l'utilisation d'un système informatique ;
cela implique donc l'écriture d'un
programme. Or, les programmes
constituent certainement la classe des
objets les plus complexes que l'homme
conçoive et développe aujourd'hui ; il n'est
pas rare de construire actuellement des
logiciels de plusieurs millions
d'instructions (voire beaucoup plus...)
impliquant de nombreux intervenants, sur
de très longues périodes. Même, si en
général les logiciels scientifiques
n'atteignent pas ces sommets, ils restent
souvent des édifices relativement instables,
construits parfois avec une rigueur et une
méthode discutables, et où peuvent
subsister, même après les tests, un certain
nombre d'erreurs. Il est possible d'espérer
en réduire le nombre à l'aide d'outils
d'aide au développement incluant, par
exemple, des langages de plus haut niveau
que ne l'est l'incontournable Fortran,
surtout plus proches du problème traité et
où une séparation nette serait établie entre
la description de l'objet étudié et la (ou les)
méthode(s) de résolution utilisée(s).
Malheureusement, aucune certitude
n'existe aujourd'hui quant à la possibilité
de pouvoir réaliser un jour des logiciels
parfaitement fiables...
7.3-Les erreurs de calcul :
Mais l'histoire n'est toujours pas terminée,
et il est des erreurs qui dans l'état actuel de
nos connaissances et de nos techniques
semblent inévitables : il s'agit des erreurs
d'arrondis causées par la précision
forcément limitée des ordinateurs, et de
l'importance que celles-ci prennent dans
l'étude de certains problèmes (voir les
figures "Calcul de l'attracteur de Lorenz sur trois ordinateurs différents (le Rouge, le Vert et le Bleu : sensibilité aux erreurs d'arrondi)"
et "Intégration du problème des N-corps (N=4 : une étoile, une planète lourde et une planète légère avec un satellite) calculé sur trois ordinateurs différents (le Rouge, le Vert et le Bleu : sensibilité aux erreurs d'arrondi)"). Les méthodes de résolution
utilisées reposent pratiquement toutes sur
le principe de l'itération : connaissant les
conditions initiales (à l'instant t=0), l'état
du système est calculé à l'instant suivant
(t=1), et plus généralement, l'état du
système à l'instant t+1 est calculé à partir
de celui qu'il avait à l'instant t ; le passage
d'un instant au suivant se faisant en
répétant inlassablement les mêmes
opérations.
Des erreurs commises au cours de
ces calculs pourront donc se propager
d'étape en étape, et dans le cas des
problèmes non linéaires [34], plutôt que de
rester minimes, elles pourront se voir
amplifiées au cours du temps, jusqu'à
devenir préponderantes, auquel cas les
valeurs calculées n'auront plus aucune
signfication physique ! Voici donc une
nouvelle raison de renoncer au rêve de
Laplace... De plus, les erreurs d'arrondis
faisant perdre à la multiplication des
nombres sa proprieté d'associativité [35],
les résultats obtenus dépendront de toute
évidence du type d'ordinateur utilisé (voir
de nouveau la figure "Calcul de l'attracteur de Lorenz sur trois ordinateurs différents (le Rouge, le Vert et le Bleu : sensibilité aux erreurs d'arrondi)"), de l'ordre des
opérations imposées par le programmeur
(influence du parenthèsage en particulier),
et de la façon de générer le code exécutable
par le compilateur référencé. Augmenter la
précision des machines, comme cela est
souvent suggéré, ne serait d'aucune utilité
tout en augmentant considérablement les
coûts ; en effet, il suffit de remarquer que
lors de chaque multiplication effectuée, le
nombre de décimales nécessaires double
en toute généralité...
Au sujet des nombres, une
remarque originale s'impose (peut-être à
contre-courant de certaines recherches
actuelles) : les mathématiques utiles dans
ce contexte reposent principalement sur les
nombres réels [36] ; malheureusement, les
ordinateurs ne savent manipuler en toute
généralité qu'un sous-ensemble fini des
nombres rationnels (éventuellement
"déformés" par les erreurs d'arrondi
d'ailleurs...) appelés nombres flottants.
Les nombres transcendants
étant beaucoup plus nombreux que les
nombres algébriques, eux-mêmes
beaucoup plus nombreux que les nombres
rationnels, l'ordinateur ne nous permet
l'accès qu'à une goutte d'eau dans la mer
des nombres (il convient de noter au passage
qu'a chaque nombre flottant correspond donc une
infinité non dénombrable de nombres réels ; un
tel "appauvrissement" ne peut être sans conséquences,
car, sinon, à quoi serviraient les nombres réels ?).
Or, des résultats théoriques
récents, tel le théorème KAM [37],
montrent que les manifestations les plus
intéressantes peuvent se rencontrer là ou
précisemment l'ordinateur ne peut nous
emmener. En effet, contrairement à ce que
l'intuition pourrait parfois nous laisser
croire, tous les nombres réels ne sont pas
approximables par des nombres rationnels
avec la même facilité : il en est qui sont
plus difficiles que d'autres à approcher (le
nombre d'or nous en fournit le meilleur
exemple), or cette différence disparait
artificiellement lors de leur introduction
dans une machine (puisqu'encore une fois,
celle-ci ne sait que représenter et manipuler
des "fractions"). Ce que montre
principalement le théorème KAM, c'est
que malheureusement le type de
comportement de certains systèmes pourra
dépendre de la difficulté avec laquelle ses
paramêtres seront approximables par des
nombres rationnels. Peut-on alors
vraiment prétendre étudier de tels systèmes
avec un ordinateur qui escamote
littéralement cette difficulté (ici, en fait,
nous pourrions véritablement parler de
simulation numérique...) ? Ainsi, toutes
les expériences virtuelles relatives au chaos
déterministe (revoir la figure "Visualisation bidimensionnelle de la dynamique de Verhulst -(gris,orange,rouge) montrent les exposants de Lyapunov négatifs, (jaune,vert,bleu) montrent les exposants de Lyapunov positifs-"), sont
peut-être vues au travers d'un "miroir
déformant", exagérant ainsi l'importance
relative du phénomène, bien qu'étant
indiscutable puisqu'observé dans la
nature...
7.4-Les erreurs de représentation :
Enfin, ces résultats
doivent être mis en image, et contrairement
à ce que certains pourraient croire,
visualiser est loin d'être aussi simple
qu'imprimer. En effet un certain nombre
de problèmes surgissent : le premier de
ceux-ci, et non le moindre, est lié au fait
que bien souvent [38], les "objets" à
visualiser n'ont aucune contre-partie
visuelle et familière [39] ; il convient donc
d'imaginer, d'inventer des modes de
représentation (voir la figure "Un coquillage (surface de Jeener 1) en mouvement"). Ensuite,
nous nous heurtons au second problème ;
les "scènes" à représenter seront bien
souvent multidimensionnelles [40] et
évolueront au cours du temps. Ainsi nous
serons confrontés fréquemment au
"jamais-vu", au "changeant",... Or, si
nous reconnaissons si bien notre
environnement quotidien, c'est que nous le
connaissons déjà ; ces "scènes" issues de
nos expériences virtuelles ne nous seront
en général pas familières. Des moyens
"exploratoires" doivent donc être mis à la
disposition du chercheur ou de l'ingénieur
pour lui permettre de naviguer dans ses
résultats et par la-même d'acquérir une
meilleure compréhension de ceux-ci (nous
verrons plus loin l'importance que
prendront dans un futur très proche les
techniques dites de la Réalité Virtuelle).
De plus, s'il est évident qu'il n'est
pas d'outil neutre, malheureusement,
l'image synthétique, dans ce contexte est
bien trop souvent considérée comme tel, et
l'usage qui en est fait confond bien
souvent l'esthétique et l'informatif ; il est
facile de trouver dans la littérature
scientifique une foule d'images très
colorées (et donc perçues bien souvent
comme très belles par leurs auteurs) et
dont l'examen attentif soulève une foule de
questions, et par exemple celle-ci qui
revient le plus fréquemment : telle couleur
utilisée de façon périodique est-elle
associée à une grandeur possédant
elle-aussi cette caractéristique ? Rappelons
que l'image produite dans ce contexte est
généralement arbitraire, et qu'en réalité, à
partir d'un même ensemble de données,
une grande quantité de représentations très
différentes pourront être imaginées et
construites. D'autre part, l'œil est sujet à
des illusions d'optique, bien connues,
mais trop souvent oubliées... Il est
possible d'en distinguer quatre classes,
chacune responsable de défauts
d'appréciation :
- les illusions géométriques qui
induisent des déformations purement
subjectives lors de la perception de formes
"parfaites",
- les illusions de luminance,
principalement dues à l'absence de
référence absolue, et qui interdisent la
comparaison qualitative des luminances de
deux points éloignés et appartenant à notre
champ visuel (voir l'animation "2 carrés gris identiques se déplaçant au-dessus d'une échelle de gris"),
- les illusions de chrominance, liées
à des influences de voisinage, et qui
provoquent des distorsions locales des
couleurs perçues, et enfin,
- les illusions informatiques.
Si les trois premières classes
d'illusions n'ont pas eu à attendre
l'informatique pour être reconnues, la
dernière est, quant à elle, beaucoup plus
récente et doit son origine à la notion de
fausse couleur. La plupart des systèmes de
visualisation offre en effet la possibilité de
colorier et recolorier une image. Et c'est là
l'un des dangers les plus importants, mais
aussi le plus méconnu ou le plus
sous-estimé... La figure "Le même champ scalaire bidimensionnel visualisé à l'aide de 4 palettes de couleurs différentes" présente un
exemple que certains qualifieront de
contestable, voire de naïf ; il a l'avantage
de la simplicité et fait de plus abstraction
de toute considération physique. Il est
montré ici à l'aide de quatre palettes
différentes, chacune permettant de tirer
quelques conclusions, malheureusement
incompatibles entre elles, quant à la
structure sous-jacente. Alors, dans ces
conditions, quelle est la seule et unique
visualisation de ce champ arbitraire ? La
réponse est claire : elle n'existe pas, et
aucune n'est complète. Malheureusement,
l'expérience quotidienne montre que de
tels mauvais usages sont faits de la
couleur.
Des considérations précédentes, il
est alors possible de tirer un certain
nombre de leçons : la première est, qu'en
règle générale, il n'est pas de mode de
représentation a priori, et qu'en fait,
plusieurs, seront nécessaires afin d'éviter
des erreurs d'interprétation ou
d'appréhender divers aspects
complémentaires des "objets" representés.
Ici donc, comme en mécanique quantique,
un principe de complémentarité
s'impose... La seconde lecon est que,
contrairement à une croyance
assez répandue, la visualisation, et en
particulier celle de résultats issus de
modèles numériques, est un "art". Cet art
"nouveau" devra accepter humblement les
conseils issus des pratiques plus
ancestrales ; en particulier des proportions
harmonieuses peuvent être données aux
images en s'inspirant du nombre d'or, ou
encore des suggestions peuvent être
formulées afin de guider le choix des
couleurs, et par exemple :
- associer à des valeurs numériques
croissantes des échelles de luminance
variant de la même façon,
- mettre en correspondance les
petites (respectivement grandes) valeurs
avec les couleurs froides (respectivement
chaudes).
Enfin, il est bon de rappeler que
les outils de visualisation sont eux-mêmes
composés de logiciels complexes (et dans
une moindre mesure de matériels), or nous
avons dit au paragraphe 7.2 ce que cela
signifiait et impliquait... Il est en
particulier essentiel de les tester
systématiquement sur des problèmes de
référence, et en tout cas d'analyser
complètement et de façon satisfaisante
toute anomalie ou surprise apparue dans
une image...
Ces quelques réflexions sur les
problèmes et les difficultés inhérents à la
visualisation (au sens informatique du
terme) pourraient contribuer à l'edification
du rationalisme. En effet, n'apporte-t-on
point ici quelques preuves supplémentaires
au fait que l'image doit être bannie de la
pensée scientifique ? En fait ce n'était pas
là, bien entendu, l'objet de la discussion
précédente : l'absence de l'image comme
sa profusion ont tous deux leurs avantages
et leurs inconvénients, mais la pratique
quotidienne de ces techniques montre que
l'image calculée et interactive est un champ
de découverte qu'aucun autre moyen actuel
de communication ne peut égaler. Celui
qui nierait l'intérêt de cet outil devrait tout
autant refuser à l'astronome l'usage de ses
yeux pour contempler les cieux et y
découvrir les objets de sa recherche, car en
effet, ces images, dont la vocation est loin
de n'être qu'illustrative et accessoire, sont
des univers nouveaux à explorer et chaque
jour nous apporte des cas de découvertes
qu'elles ont permis d'accomplir [41].
Enfin, il devrait tout autant n'autoriser que
la seule pensée verbale. Mais cette
exigence aurait-elle un sens ? Pour fournir
un élément de réponse à cette
interrogation, contentons-nous de citer
Albert Einstein : les mots et le langage,
écrits ou parlés, ne semblent pas jouer le
moindre rôle dans le mécanisme de ma
pensée. Les entités psychiques qui servent
d'éléments à la pensée sont certains signes
ou des images plus ou moins claires qui
peuvent à volonté être reproduits et
combinés.
Erreurs de modélisation, erreurs
de programmation, erreurs de
visualisation,... : le chemin qui mène de
l'idée de l'expérience virtuelle à sa
réalisation est donc semé d'embûches.
Celles-ci ne doivent en aucune façon
limiter cette nouvelle approche scientifique
: elles demandent malgré tout qu'une
information (sur ses dangers en particulier)
soit faite impérativement au niveau des
chercheurs et des ingénieurs, et donc de
nos étudiants. Il convient de leur rappeler
que le modèle n'est pas l'objet lui-même,
que les erreurs d'arrondi et les méthodes
numériques utilisées peuvent introduire
des défauts rédhibitoires et enfin leur
apprendre que l'esthétisme d'une image est
peut-être une condition nécessaire pour
s'assurer de sa valeur, mais que ce n'est
certainement pas là une condition
suffisante garantissant sa qualité
scientifique...
8-DEFINITION GENERALE D'UN SYSTEME POUR L'EXPERIMENTATION VIRTUELLE :
Enfin se trouve posé
le problème de la définition et de la mise en
œuvre d'un système informatique
permettant la concrétisation de ce concept,
tout en assurant la pérennité des
développements alors réalisés (voir par exemple
l'environnement de travail développé par l'auteur).
Ce système se doit d'être d'une part hautement
interactif [42] ; d'autre part, les problèmes
à resoudre aujourd'hui exigent
généralement des puissances de calcul
considérables. La notion de système
réparti propose des solutions à ces deux
contraintes : les stations de travail
graphiques, dont les interfaces
homme-machine ne vont qu'en
s'améliorant, permettent la manipulation
visuelle d'objets tridimensionnels
dynamiques ; leur mise en parallèle,
associée à l'accès facile à des ressources
diverses (par exemple un super-ordinateur
à la mémoire gigantesque), offre
généralement la puissance nécessaire.
L'exigence de pérennité est elle aussi
satisfaite, car en effet, les normes
aujourd'hui existantes permettent le
portage relativement aisé des applications
d'une machine à l'autre ; il faut bien dire,
malgré tout, que cet objectif ne peut-être
atteint qu'au prix d'une discipline
importante lors de la réalisation des
logiciels, et qu'il doit l'être, parfois, au
détriment des performances optimales
[43].
L'objectif est d'aboutir à un
système délocalisé, ou spontanément les
tâches à effectuer, se réaliseront sur les
systèmes les plus aptes ou les plus
disponibles, où qu'ils soient. La mise en
place de réseaux à très haut-débits
permettra littéralement de voir vivre les
modèles les plus complexes, et d'interagir
avec eux, autorisant par la-même la
réalisation de véritables expériences. Les
techniques de l'intelligence artificielle nous
seront fort probablement d'un grand
secours : bien entendu au niveau de
l'interface homme-machine [44], mais
aussi dans l'assistance à l'analyse et à la
présentation des résultats (par exemple,
lors du choix des couleurs dont nous
avons montré quelques unes des
difficultés), et pourquoi pas dans l'aide au
raisonnement (s'enfouir la tête dans le
sable n'est certainement pas une attitude
positive...). En ce qui concerne l'aspect
strictement visualisation, des progrès
énormes sont à attendre bien entendu de la
manipulation de plus en plus rapide de
modèles tridimensionnels, mais aussi de
l'usage qui sera fait de la télévision
haute-définition numérique (TVHD) et des
dispositifs multi-média [45][46] ; notons
au passage que l'utilisation conjointe de
sons synthétiques, dans ce domaine, peut
permettre la mise en place d'un ou
plusieurs canaux d'informations
supplémentaires (par exemple, un son qui
s'atténue peut être associé à un objet
s'éloignant de l'observateur [47]).
Les techniques de la Réalité
Virtuelle, développées dans d'autres
domaines (la simulation de conduite ou les
jeux par exemple) et introduite dans ce
contexte, permettra au chercheur comme à
l'ingénieur de s'intégrer davantage à son
modèle (voire de s'y immerger), en
facilitant ainsi sa compréhension ; il
convient de ne pas oublier qu'ici,
contrairement aux applications artistiques
ou de type CAO de la synthèse d'images,
les "objets" étudiés sont bien souvent
éloignés du sens courant, voire "interdits
de représentation" (en mécanique
quantique en particulier), ou à la limite,
n'ont aucune image "naturelle" (une
pression tout simplement...) ; il est alors
nécessaire de donner à l'expérimentateur le
maximum de facilités pour l'aider à
comprendre les résultats obtenus. Cette
notion, dont les débouchés ludiques sont
évidents, repose d'une part sur la
présentation à l'observateur d'images
stéréoscopiques dont le point de vue est
recalculé en permanence en fonction de sa
position instantanée (intégrant en
particulier les mouvements de la tête), et
d'autre part sur des moyens de rétroaction
permettant, au sens strict du terme, de
vivre les expériences. C'est ainsi que,
récemment, des chercheurs utilisant un
microscope à effet tunnel (STM) ont pu
déplacer des atomes (qu'ils avaient
synthétiquement présents sous les yeux)
en faisant des efforts musculaires
proportionnels aux diverses forces
atomiques en jeu et qu'ils ressentaient par
l'intermédiaire d'un dispositif "à retour
d'effort" [48]...
9-DEMAIN :
Laissant aux
Arts les mondes parallèles que crée
l'imagination, la Science a pour ultime
objectif la compréhension des lois de la
nature, et son unique objet d'étude est
donc l'Univers. Celui-ci nous est connu
par l'observation et les mesures que nous
réalisons sur certains de ses fragments.
Les lois qui ordonnent, regroupent,
classifient et unifient ces différentes
mesures s'expriment grâce aux
mathématiques. Ecrire des équations ne
suffit pas au chercheur : plus que tout, il
lui faut les comprendre, en extraire
l'essence. Aujourd'hui leur complexité est
telle que l'usage de l'ordinateur s'impose
pour l'aider dans cette tâche ; c'est de cet
usage qu'est né le concept
d'Expérimentation Virtuelle qui constitue
une approche scientifique extremêment
récente venant complémenter
l'Expérimentation Naturelle. De sa
définition même, mais aussi des
techniques qu'elle met en œuvre, naissent
un certain nombre de problèmes ; certains
d'entre eux ne sont de toute évidence que
passagers : il en est certainement ainsi du
choix des couleurs pour ne citer que le
plus simple de tous. Il en est d'autre pour
lesquels actuellement aucune solution n'est
en vue : les erreurs d'arrondi constituent
une difficulté fondamentale comme nous
l'avons montré. Mais ces obstacles, bien
que difficilement franchissables (d'ailleurs
le sont-ils ?), sont d'une part en
eux-mêmes des problèmes scientifiques
passionnants, et d'autre part, renoncer à
l'Expérimentation Virtuelle, parce que ne
sachant comment franchir le "gouffre",
devraient nous contraindre de même à
renoncer à toute recherche scientifique,
puisqu'à la base de cette dernière se trouve
d'une part l'acte de mesure et d'autre part
le besoin irrésistible de prévoir et donc de
calculer (dans le cadre de notre Science,
mais est-ce la seule possible ?). En fait
l'absence de limites est-il de ce monde ?
Certes non, mais le propre de l'homme (de
science) n'est-il pas de tenter de les
repousser, voire de les exploiter...
L'Expérimentation Virtuelle (et ses
applications industrielles et pédagogiques)
n'en est en fait qu'à ses balbutiements. Il
est donc essentiel que les bases les plus
solides possibles lui soient données afin
qu'elle fasse des rêves des auteurs de
science-fiction d'aujourd'hui, la réalité
quotidienne des laboratoires de demain...
- [01]
-Charles Babbage utilisait par exemple
les termes de moulin et de grange pour
désigner respectivement l'unité de calcul et
la mémoire.
- [02]
-A titre d'exemple, les machines
parallèles brièvement présentées au
paragraphe 5.1, doivent être rattachées au
modèle de Von Neumann, même si la
plupart de leurs composantes sont
dupliquées en un grand nombre
d'exemplaires.
- [03]
-Il est en effet difficile de parler
d'Intelligence Artificielle (IA) sans
s'intéresser en premier lieu à l'Intelligence
Naturelle...
- [04]
-"The Promise of the Next Decade",
Computer, IEEE, volume 24, number 9,
September 1991.
- [05]
-Alain Boutot, "Le pouvoir créateur
des mathématiques", La Recherche,
novembre 1989.
- [06]
-Ainsi que l'a demontré Henri Poincaré
au cours des dernières années du
dix-neuvième siècle, le problème des N
corps en interaction gravitationnelle, N
étant strictement supérieur à 2, est non
intégrable, ce qui signifie que la solution
formelle nous est inaccessible. Par contre
pour N=2, cette solution existe et définit ce
que l'on appelle les orbites de Kepler.
- [07]
-La compréhension des langages
naturels ou encore la reconnaissance
générale des formes sont deux exemples
typiques d'échecs relatifs (et provisoires,
sachons être patients !).
- [08]
-Les succès actuels de l'Intelligence
Artificielle se rencontrent toujours dans
des domaines très limités, et en particulier
à l'intérieur de celui des systèmes experts
pour le diagnostic.
- [09]
-Il est possible de définir deux types de
parallélisme massif : d'une part le
numérique (consistant en un grand nombre
de microprocesseurs interconnectés) et
d'autre part l'analogique (en plaçant en
particulier et par abus de langage, dans
cette catégorie tout ce qui relève des
recherches sur les réseaux de neurones
artificiels).
- [10]
-A titre d'illustration de ce dernier
point, un programme de jeu d'échecs peut
être écrit pour comprendre les processus
cognitifs du joueur humain, ou bien pour
gagner à tout prix... les deux possibilités
ne s'excluant pas mutuellement, et relevant
l'une comme l'autre de la démarche
scientifique.
- [11]
-John L. Hennessy and Norman P.
Jouppi, "Computer Technology and
Architecture : an Evolving Interaction",
Computer, IEEE, volume 24, number 9,
September 1991.
- [12]
-Voire beaucoup plus dans les
architectures très régulières (les mémoires
en particulier) ; à titre d'exemple, le
Pentium, le dernier microprocesseur
d'Intel, en utilise plus de trois millions,
alors que les premières mémoires
"soixante-quatre méga-bits" commencent à
être échantillonnées...
- [13]
-Citons en vrac et sans définir les
termes correspondants, quelques unes des
spécificités des super-ordinateurs d'hier, et
qui se retrouvent aujourd'hui dans tous les
microprocesseurs de haut de gamme :
"pipe-lines", parallélisme interne,
manipulation de vecteurs, représentation
des données sur 64 bits, mémoires
caches,...
- [14]
-Jack Grimes, Les Kohn and Rajev
Bharadwhaj, "The Intel i860", Computer
Graphics and Applications, IEEE, volume
9, number 4, July 1989.
- [15]
-C'est ainsi que Thinking Machine
équipe en grande partie son dernier
modèle, la CM5, de circuits Sparc (SUN),
alors que le projet de CRAY Research
repose sur l'architecture Alpha (DEC).
- [16]
-Sauf, par exemple, pour des raisons
de sécurité. En effet, toute médaille ayant
son revers, la mise en réseau des machines
en facilite l'intrusion ou le
"détournement", et donc le développement
de pratiques parfois criminelles.
- [17]
-UNIX est le nom de l'un des
systèmes d'exploitation les plus répandus,
en particulier dans le milieu scientifique. A
côté de lui, il ne faut pas oublier de citer
MacOS, MS-DOS, OS/2, ou encore
Windows-NT dont la sortie récente risque
de faire de l'ombre à ses concurrents.
- [18]
-Larry D. Wittie, "Computer Network
and Distributed Systems", Computer,
IEEE, volume 24, number 9, September
1991.
- [19]
-10 méga-bits par seconde pour
Ethernet, 16 pour le Token-Ring et 100
pour FDDI.
- [20]
-Par exemple 64 kilo-bits par seconde,
ou moins...
- [21]
-Les modèles en couches sur lesquels
ils reposent sont là à cet effet.
- [22]
-Voire en cours, l'Asynchronous
Transfer Mode (ATM) par exemple.
- [23]
-Paul E. Green, "The future Of
Fiber-Optic Computer Networks",
Computer, IEEE, volume 24, number 9,
September 1991.
- [24]
-Tel l'ISO et son modèle de
communication à sept couches.
- [25]
-Par exemple le protocole TCP/IP et
ses utilitaires associés (telnet, ftp,..).
- [26]
-Il convient ici de distinguer deux cas :
le premier consiste, dans ce nouveau
contexte, à tirer le meilleur parti
d'applications anciennes qui, la plupart du
temps, ne peuvent être reprogrammées
pour des raisons évidentes. La détection
automatique du parallélisme a fait des
progrès importants, mais il est difficile
d'imaginer comment en toute généralité un
ancien programme Fortran "bien
séquentiel" pourrait voir ses performances
ameliorées proportionnellement au nombre
de processeurs qui lui sont dédiés. Le
second cas, le plus intéressant, est celui
des applications nouvelles ; là, il est
essentiel, lorsque la chose est
envisageable, de les penser "parallèle" (ce
qui est d'ailleurs parfois plus simple que la
traditionnelle approche séquentielle).
- [27]
-Notons que cela est tout aussi vrai
des expériences de laboratoire effectuées,
par exemple, à l'aide de réseaux de
télescopes ou encore d'accélérateurs de
particules, ou, en une fraction de seconde
des milliers, voire des millions, de
mesures peuvent être effectuées. Les
techniques de synthèse d'image présentées
trouveront et prouveront là aussi leur
utilité.
- [28]
-Gregory M. Nielson and Bruce
Shriver, "Visualization in Scientific
Computing", IEEE Computer Society
Press, 1990.
- [29]
-A titre d'illustration de ce dernier
point, rappelons que les enfants
d'aujourd'hui manipulent beaucoup plus
aisément les jeux vidéos que leurs ainés...
- [30]
-A savoir : physique, chimie, biologie,
économie,... ; le processus de
modélisation demande donc des
connaisances propres au domaine étudié (il
s'agit presque là d'une lapalissade...).
- [31]
-A titre d'exemple il est possible de
rechercher un modèle des nombres
premiers, constitue d'une formule
universelle les donnant tous, et rien qu'eux
bien entendu.
- [32]
-Par exemple : croire en certaines
évidences qui par la suite se révèleront
fausses (achevée récemment, l'histoire de
la démonstration du grand théorème de
Fermat en donne quelques exemples),
supposer la continuité de telle fonction, ou
encore oublier la vitesse finie de
propagation des interactions.
- [33]
-Par exemple, inverser par
inadvertance le signe d'une expression,...
- [34]
-C'est-a-dire, pour simplifier les
choses, des problèmes ou interviennent
des produits de variables (voir la légende
de la figure "Calcul de l'attracteur de Lorenz sur trois ordinateurs différents (le Rouge, le Vert et le Bleu : sensibilité aux erreurs d'arrondi)"), ou encore des variables
élevées à certaines puissances (voir la
légende de la figure "Visualisation bidimensionnelle de la dynamique de Verhulst -(gris,orange,rouge) montrent les exposants de Lyapunov négatifs, (jaune,vert,bleu) montrent les exposants de Lyapunov positifs-").
- [35]
-La perte de la propriété d'associativité
se traduit par : (AxB)xC # Ax(BxC).
- [36]
-Et leurs "extensions", et par exemple
les nombres complexes.
- [37]
-Barbara Burke Hubbard and John
Hubbard, "Loi et ordre dans l'Univers : le
théorème Kolmogorov-Arnold-Moser",
Pour La Science, numéro 188, juin 1993.
- [38]
-Cela est surtout vrai dans le domaine
de la recherche fondamentale, mais
s'observe aussi dans de nombreuses
études industrielles.
- [39]
-Cas classique de la mécanique
quantique, mais aussi "plus près" de nous,
personne n'a jamais vu un champ de
pression.
- [40]
-Arie Kaufman, "Volume
Visualization", IEEE Computer Society
Press, 1990.
- [41]
-Par exemple, la géométrie fractale n'a
pu réellement prendre son envol que le
jour où les outils informatiques furent
suffisamment puissants pour lui permettre
de sortir de sa somnolence stérile et
envahir en l'espace de quelques années
pratiquement tous les domaines de la
recherche scientifique.
- [42]
-Par définition même de la notion
d'expérience, mais aussi parce que, ainsi
que cela fut dit précedemment, la
compréhension des images, intermédiaires
entre le chercheur et son modèle, passe par
une exploration "naturelle" (sous-entendu
imprévisible, voire au hasard) de celles-ci.
- [43]
-En effet, la portabilité absolue exige
soit le renoncement aux spécifités de tel ou
tel autre système, soit la réalisation de
"couches logiques de masquage"...
- [44]
-Aaron Marcus and Andries Van Dam,
"User-Interface Developments for the
nineties", Computer, IEEE, volume 24,
number 9, September 1991.
- [45]
-"Multimedia", Computer Graphics
and Applications, IEEE, volume 11,
number 4, July 1991.
- [46]
-Richard L. Philips, "An interpersonal
Multimedia Visualization System",
Computer Graphics and Applications,
IEEE, volume 11, number 3, May 1991.
- [47]
-Wes Iversen, "The sound of
Science", Computer Graphics World,
volume 15, number 1, page 54-62,
January 1992.
- [48]
-Hiroo Iwata, "Artificial Reality with
Force-feedback", Computer Graphics,
SIGGRAPH'90, volume 24, number 4,
1990.
Copyright © Jean-François COLONNA, 1995-2024.
Copyright © France Telecom R&D and CMAP (Centre de Mathématiques APpliquées) UMR CNRS 7641 / École polytechnique, Institut Polytechnique de Paris, 1995-2024.