Tout comme les travaux de Darwin, la révolution provoquée par la découverte de la double hélice, en 1953, tient à l'ordre de grandeur vertigineux des possibilités combinatoires. Le vivant que nous connaissons n'est qu'une infime partie de ce qui est concevable. Ces ADN qui n'existent pas, et qui pour beaucoup d'entre eux n'ont jamais existé, posent la question majeure de la rencontre fortuite de molécules artificielles avec l'existant.
Cette problématique, unique dans l'histoire, interroge la notion de providence qui est en balance avec celle de précaution. Au-delà des religions, bien des scientifiques ont une vision providentielle du progrès technique. C'est le cas en biologie de synthèse lorsque des chercheurs procèdent à des " essais pour voir ", mais la résilience de la nature n'a pas été façonnée pour réagir à des artefacts.
C'est une des raisons pour laquelle il est facile de la mutiler mais impossible de la refaire. Si la biologie est pertinente pour prendre soin du vivant existant, le blanc-seing que les chercheurs se donnent pour l'inventer est infondé. Et on peut postuler les risques qui ne tarderont plus à apparaître désormais, depuis que des jumelles génétiquement modifiées sont nées en catimini en Chine.
La finance est maintenant adossée à une théorie mathématique très aboutie qui rend bien compte des conséquences de la spéculation et de ses perfectionnements spectaculaires récents. On peut en déduire que l'agitation des cours, la volatilité, a un rôle grandissant. Sur les marchés le signal-prix et la rareté ne sont plus visibles. La transition environnementale est compromise. La construction d'indicateurs et d'institutions non financières est indispensable.
Depuis la mise en place des nouveaux marchés financiers dans les années 1970, munis de leurs produits dérivés, la spéculation a dépassé le stade artisanal. L'intelligence artificielle, les algorithmes d'apprentissage et les transactions à haute fréquence s'appuient maintenant sur des big data. Ceci accentue l'imprévisibilité des marchés.
Mathématicien de renom, fin connaisseur des marchés financiers, Nicolas Bouleau démontre que plus les équipes de spéculateurs de par le monde utilisent des méthodes puissantes, plus les marchés sont conformes à la théorie mathématique. Celle-ci donne à la volatilité un rôle majeur, incontournable, qui reflète l'inquiétude des intervenants. Visiblement ce rôle avait été sous-estimé dans les travaux des économistes sur les marchés dans l'incertain. L'agitation est telle que la raréfaction des réserves - de pétrole par exemple - ne se voit pas clairement sur le cours ni sur ses anticipations. Les prix des marchés financiers fournissent de plus en plus mal l'information sur la rareté qui permettrait aux entreprises, aux ménages et aux Etats de s'engager dans la transition. Les produits dérivés ne remplacent pas le signal-prix effacé par la volatilité. Une nouvelle fabrication d'information est nécessaire sur l'état de la planète et de ses habitants.
En dévoilant, grâce aux mathématiques financières elles-mêmes, les faiblesses de la gouvernance par la finance, Nicolas Bouleau plaide pour la construction d'indicateurs non financiers qui contrecarrent l'hégémonie des marchés, reflètent les besoins de la planète et permettent à des institutions politiques d'y répondre.
Les méthodes classiques de calcul d'erreurs, inventées au début du XIXe siècle (par les mathématiciens Laplace et Gauss) pour la pre´cision des calculs astronomiques, ont e´te´ tre`s utiles aux physiciens et aux inge´nieurs et rendent encore quelques services.
Mais elles sont inadapte´es aux calculs complexes effectue´s aujourd'hui par les ordinateurs, et notamment à ceux qui mettent en jeu l'aléatoire. En calcul des structures, en automatique et traitement du signal, en aéronautique, en statistiques, pour la pre´vision climatique, pour l'optimisation ou les mathe´matiques financie`res, leur application interdit une bonne maîtrise des précisions et des tolérances.
Il était donc devenu nécessaire d'élaborer de nouvelles méthodes, fondées sur des bases mathématiques rigoureuses. De nombreux chercheurs, dont Nicolas Bouleau, s'y sont employés depuis les années 1990, et leur travail est aujourd'hui assez abouti pour être exposé sous forme d'un manuel destiné aux étudiants.
L'interprétation, parce qu'elle ressemble à des croyances, a été écartée de la science moderne, en tout cas négligée, au profit de la déduction et la généralisation. Pourtant l'histoire des sciences nous montre son rôle permanent tant dans les sciences humaines que de la nature. C'est elle qui relance la fécondité dans les moments de compréhension difficile.
Le positivisme, qui reste une référence majeure dans les pratiques actuelles, est responsable de cette situation. Il cherche les commandements auxquels se soumet la nature. Cependant, après la période de conquête, nos inquiétudes sur l'environnement appellent une science plus ouverte, plus compréhensive des éventualités. Nicolas Bouleau montre que le coeur du problème est d'utiliser dans la science les matériaux interprétatifs que sont les craintes. Prolongeant et concrétisant les idées de Jonas, il décrit le travail d'élaboration de craintes désintéressées par une enquête sur un être supposé, comme par exemple l'agent de transmission de la maladie de la vache folle. L'ouvrage porte plus largement sur la façon de penser l'éventuel dans les relations des humains avec leur contexte.
Science nomologique et science interprétative propose de penser la connaissance comme ce qui est à transmettre. Dès lors persistent des préoccupations et des inquiétudes qui font partie de la science et sur lesquelles un travail scientifique reste à mener. Le positivisme, qui a voulu ne conserver dans la science que les régularités et laisser les interprétations aux sciences humaines et sociales ainsi qu'aux religions, a échoué puisque l'interprétation est en permanence présente dans la science et conditionne sa fécondité.
En prolongeant la vision du philosophe Hans Jonas et les thèses de Jacques Lacan sur le savoir, cet ouvrage place l'environnement au coeur de la démarche scientifique. À partir d'un panorama des philosophies de la connaissance depuis la fin du XVIIIe siècle, il démontre l'importance de l'interprétation dans la science et la façon de l'utiliser pour penser l'éventuel - c'est-à-dire le possible encore insoupçonné.
?L'économie contemporaine est dominée par les marchés financiers.?Ils commandent le développement industriel et commercial. Ils imposent leur loi aux gouvernements.?Quels principes les régissent ? Leur fonctionnement demeure-t-il chaotique ou bien recèle-t-il une logique que l'on peut analyser et reconstituer en toute certitude ? Si l'on pénètre dans les salles spécialisées à Paris, Londres, Tokyo ou bien Chicago, partout règnent les mathématiques.?Ce n'est pas un hasard si Black, Scholes et Merton ont reçu leur récent prix Nobel pour des équations qui servent aux opérateurs des banques. Les mathématiques vont-elles nous permettre de maîtriser enfin les marchés dont dépend l'économie tout entière ?
?Mathématicien, Nicolas Bouleau est professeur à l'École des Ponts et a dirigé l'une des premières unités de recherche françaises à travailler avec les banques sur les produits dérivés.?Il est lauréat du prix Montyon de l'Académie des sciences.
Comprendre le rôle économique que jouent les mathématiques est essentiel pour situer les enjeux de la formation des jeunes et des futurs ingénieurs. L'auteur montre que la recherche mathématique consiste à faire le travail inverse de celui d'un ordinateur. Cette intéressante image s'appuie sur les travaux les plus récents des logiciens. De plus, la modélisation, qui est devenue l'activité principale de l'ingénieur, permet d'utiliser les mathématiques directement, sans qu'elles soient la servante des disciplines traditionnelles.
Peut-être gardez-vous des mathématiques surtout des souvenirs d'hésitations et d'inquiétudes...
Pourtant, de temps à autre, ne ressentiez-vous pas quelques joies ? L'étincelle de la compréhension ne vous a-t-elle jamais touché ? C'est que, de l'humain en mathématiques, il y en a plus qu'on ne croit : du plaisir parfois, de la frustration aussi - en tout cas, de l'inconscient beaucoup. Avec la règle et le compas, outils venus de l'architecture, le mathématicien s'emploie à dire les constructions possibles et impossibles.
Telle est la nature de sa quête permanente. Poursuivant son imaginaire, nourri de rêves peut-être indéchiffrables par la psychanalyse, il s'aventure sur des chemins nouveaux, défiant la discipline et ses maîtres, au risque d'une interprétation qui restera éventuelle, irrésolue, et peut le mener au seuil de la déraison... Dans ce livre, c'est l'apparition du sens mathématique qui est interrogée : le rôle de l'inconscient dans la découverte, le problème du langage ordinaire, le statut de l'amateur en science, un parallèle avec la création architecturale, les étranges recherches poétiques de Saussure, la fonction de l'exil (Cauchy), un voyage à Akademgorok et la masculinité de la science, autant de questionnements croisés qui cherchent à comprendre comment apparaît le sens, vérité installant sa lumière.
L'ambition philosophique ici n'est pas de relativiser la science mais, grâce au cas des mathématiques, moins pur qu'on ne le dit, de dégager ses ancrages dans la psychologie du sujet et la socialité du langage, et de pouvoir ainsi sonder l'épaisseur de sa sagesse.
Nouvelle édition. Préface d'Alain Bensoussan, président de l'INRIA Issu d'un enseignement à l'École nationale des ponts et chaussées, ce manuel de probabilités s'attache à établir la jonction entre une compréhension intuitive de situations concrètes et leur modélisation, au sein d'une théorie rigoureuse, jusqu'au traitement informatique. Les quatre premiers chapitres développent, par la pratique, l'intuition probabiliste ; la compréhension des concepts et l'acquisition des méthodes de simulation sont facilitées par l'absence de difficultés mathématiques. Les exemples et applications ainsi acquis permettent ensuite la mise en place des outils mathématiques nécessaires pour traiter en toute rigueur les théorèmes de convergence et le calcul conditionnel. Dans ce cadre, on peut alors aborder les méthodes de calcul numérique d'espérances et d'espérances conditionnelles. L'ouvrage comprend également l'étude de sources historiques et divers approfondissements vers la recherche. On y trouvera donc un exposé précis et complet des techniques de base où les développements et les applications s'enchaînent de manière harmonieuse avec de nombreux exercices et la présence permanente de l'informatique. Ce livre s'adresse aux étudiants et enseignants des écoles d'ingénieurs et des universités dans les filières mathématiques appliquées ou informatique ainsi que économie, télécommunications ou génie civil. Il intéressera également ceux qui s'occupent de problèmes de transports, de fiabilité, de sécurité et plus généralement de modélisation en contexte incertain.
L'épistémologie classique, celle du XXe siècle, s'est essentiellement occupée de physique. Dominique Bourg et Nicolas Bouleau proposent en revanche de distinguer trois types de sciences grâce à un critère précis pour chacune, compréhensible par tous : la science nomologique, à savoir la physique avec ses différentes échelles ; la science interprétative, celle qui se construit et s'enrichit par modélisations d'un secteur de la réalité ; et la science combinatoire, à savoir la chimie et la biologie moléculaire. Les mathématiques joueront un rôle décisif dans cette tripartition. La réponse à la question « qu'est-ce que la connaissance scientifique ? » nous conduira ensuite à mettre en lumière une intrication fondamentale et insurmontable entre connaissance et ignorance. Celle-ci a été dévoilée au sujet de l'arithmétique au début des années 1930. Les auteurs révèlent l'existence de cette même intrication dans la biologie moléculaire. Bien que fondées et opératoires, nos connaissances n'en sont pas moins partielles, et ce à jamais. Ce constat permet d'éclairer l'état écologique de la planète. Ce faisant, leur réflexion conduit leurs pas dans ceux de quelques mathématiciens autour d'Alexandre Grothendieck au début des années 70, qui ont été les premiers à tirer certaines des conséquences des limites à nos connaissances.
Aujourd'hui, le travail de l'ingénieur ou du chercheur se fait principalement à l'aide des modèles. Des sciences de la matière à la sociologie en passant par l'environnement et l'économie, la modélisation est devenue, grâce à l'informatique, le mode d'expression le mieux adapté à la préparation des projets et à la décision collective sous toutes ses formes, parce qu'elle met en oeuvre naturellement l'interdisciplinarité indispensable aux problèmes complexes.
Faut-il prendre ces modèles pour la vérité ? C'est ce que prétendent souvent leurs auteurs. Pourtant, on voit bien à travers des cas concrets qu'on aurait pu prendre les choses autrement, qu'une autre approche aurait fait apparaître d'autres aspects, d'autres idées, d'autres risques.
Éclairé par diverses théories de la connaissance (W. Quine, T. Kuhn et U. Beck), ce livre montre que critiquer efficacement une modélisation nécessite de construire d'autres modèles du cas étudié. La contre-modélisation est la pratique indispensable aujourd'hui pour que la connaissance ne se cantonne pas à l'ésotérisme technocratique des boîtes noires ; elle doit être enseignée comme une dissertation scientifique, en suscitant la pensée critique.
Un public large trouvera dans ce livre matière à réflexion : les chercheurs et les doctorants d'abord, en situation de construire des modèles ; les membres actifs des associations qui s'engagent sur le terrain et sur internet, et sont amenés à participer à des modélisations ; enfin les enseignants qui, utilisant à juste titre la modélisation à des fins pédagogiques, sont souvent mal à l'aise avec le parti pris inhérent à une démarche de représentation.