10/11/2011

3-1 Les limites de la connaissance 3) le programme de Hilbert et les indécidables. Partie 1) le programme de Hilbert.

nombre de chaitin.jpg
Le nombre de Chaitin

 

Les limites de la connaissance 3) le programme de Hilbert et les indécidables.

Partie 1) le programme de Hilbert.


Préambule.

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

 

La certitude en mathématiques.

Les conclusions de l'article sur l'empirisme logique aboutissent à une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure; la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences; Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité.

 

Le programme finitiste de Hilbert.

L'idée de Hilbert est d'enfermer la totalité des mathématiques dans un système formel finitiste

Ces espoirs ont été ruinés par les théorèmes de Gödel les "indécidables".


 

 


Le programme de Hilbert et les indécidables.

 

"Est-il possible de raisonner sur des objets qui ne peuvent être définis en un nombre fini de mots? [...]Quant à moi, je n'hésite pas à répondre que ce sont de purs néants. Poincaré (1919).

"Du paradis créé pour nos par Cantor, nul ne doit pouvoir nous chasser." Hilbert (1926).

Blog images des mathématiques: la vérité et les indécidables



1) La certitude en mathématiques.



Les conclusions de l'article sur l'empirisme logique aboutissent à une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure; la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences; Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité.

Il est possible de considérer que cela est dû au fait que les sciences empiriques traitent du monde extérieur, que celui-ci nous résiste et que l'absence d'assurance vient de ce que notre cerveau n'est pas assez puissant pour comprendre pleinement le monde qui nous entoure.

Les Mathématiques semblent par contre un domaine où il semble que notre exigence de certitude soit parfaitement satisfaite, car le raisonnement mathématique symbolise par excellence la rigueur et la sûreté. Les mathématiques et la logique sont considérées comme des sciences dont la sûreté et la fiabilité ne sauraient être mises en doute.

Jamais, avant le début du 20e siècle, les mathématiciens et les logiciens n'ont rencontré de contradictions qu'ils n'aient éliminé après avoir construit un raisonnement correct.

Cette foi est particulièrement exprimée par David Hilbertt: "Qu'en serait-il de la vérité de notre connaissance, des progrès de la science si la mathématique ne donnait pas de vérité sûre? [...] La théorie de la démonstration renforce la conviction de l'absence de toute limite à à la compréhension mathématique [...].

C'est ainsi qu'il propose son célèbre programme où lors d'une conférence , il s'exprime ainsi: "Je voudrais réduire tout énoncé mathématique à la présentation concrète d'une formule  obtenue rigoureusement et donner ainsi aux notions et déductions mathématiques une forme irréfutable montrant bien l'ensemble de la science. Je pense pouvoir atteindre ce but avec ma théorie de la démonstration." Ce programme est un réaction à l'orage des antinomies qui avait éclaté en théorie des ensembles construite par georg Cantor et qui se matérialisait par la découverte de contradictions internes dans ses concepts et dans la logique elle-même.Elles aboutissaient à des paradoxes graves que les mathématiciens ne purent éliminer qu'après une refonte de la théorie des ensembles et une remise en cause du rôle de l'intuition en mathématiques. La formalisation, plus poussée, permit de montrer qu'il existe des limites à la puissance de démonstration en mathématiques. Le résultat le plus connu est dû à Gödel:

a) Quelque soit le système formel grâce auquel on axiomatise l'arithmétique, il existe toujours des propositions vraies mais indécidables (limite au formalisme et différence entre entre ce qui est vrai et ce qu'on peut démontrer).

b) La consistance (non contradiction) de tout système formel décrivant l'arithmétique est elle-même une proposition indécidable de ce système. Il est donc impossible de prouver que l'arithmétique n'est pas contradictoire en s'appuyant seulement le formalisme qui décrit l'arithmétique (sauf si l'arithmétique est incohérente).

Le problème des indécidables est tel qu'en mathématiques ou en logique, il est impossible d'être assuré qu'on ne démontrera jamais une contradiction (problème de la consistance) ou que ce qui est vrai est démontrable (problème de la complétude).


2) Les difficultés des anciennes théories.


Une grande part des difficultés est issue du concept d'infini actuel, c'est à dire de l'infini considéré comme un tout achevé et non comme une simple potentialité. Le recours à l'intuition est trompeur. Il a fallu bâtir progressivement des formalismes y faisant appel le moins possible et reposant sur des mécanismes ne pouvant raisonnablement mis en doute. Cette démarche a conduit au début du 20e siècle à une révolution conceptuelle majeure et abouti à la construction de la logique moderne. Ce qui suit permet de mieux comprendre les motivations qui ont conduit les mathématiciens à élaborer des systèmes de plus en plus sophistiqués et des théories dans lesquelles ils pouvaient placer leur confiance.


2-1) La géométrie euclidienne

Longtemps, elle a été considérée comme un modèle de rigueur mathématique. Mais elle fait largement appel à l'intuition et utilise des figures pour les démonstrations. Elle n'est que la description mathématique de l'espace dans lequel nous vivons. Un grand nombre de propriétés sont évidentes sur les figures, mais ne sont explicitées nulle part dans le système d'axiomes (les propriété y vont de soi car elles sont vraies).Au départ, il y a 5 postulats mais le cinquième a un statut particulier (par un point hors d'une droite, il ne passe qu'une parallèle à cette droite). Euclide échoue pour le démontrer à partir des quatre autres et toutes les autres tentatives échouèrent aussi, y compris les tentatives de démonstration par l'absurde (on n'a pu démontrer qu'en ajoutant sa négation aux 4 autres postulats, le système obtenu était contradictoire). Cela implique que l'axiome des parallèles doit être considéré comme indépendant des 4 autres et qu'il est possible de construire un système apparemment cohérent en ajoutant cet axiome, ou bien sa négation aux autres axiomes. L'existence de géométries non-euclidiennes a montré que la géométrie ne peut prétendre faire reposer sa validité sur son adéquation avec le réel et que sa cohérence doit reposer sur sa structure logique. Le recours à l'intuition doit alors être éliminé dans la mesure du possible. Les efforts furent donc dirigés vers l'axiomatisation formelle de la théorie.


2-2) L'axiomatisation de la géométrie par Hilbert.

On aboutit ainsi aux géométries non-euclidiennes: K.F. GaussJ Bolyaï et N. Lobatchevski, puis B. Riemann au 19e siècle.  Les travaux de Felix. KleinE. Beltrami et H. Poincaré ont montré plus tard que les géométries euclidiennes et non-euclidiennes étaient solidaires, elles sont toutes consistantes (non contradictoires), ou bien aucune ne l'est. En 1822, Pasch tente la première axiomatisation rigoureuse de la géométrie, amis il est resté attaché à une conception selon laquelle les axiomes sont suggérés par l'observation du monde extérieur.

C'est Hilbert qui résout totalement le problème en 1899. Il construit un système formel dans lequel il explicite tous les axiomes utilisés pour les démonstrations et les répartit en 5 groupes.

1) La géométrie projective axiomes qui traitent des liaisons entre le point, la droite et le plan).

2) Ce groupe, de nature topologique, traite de la relation "être entre".

3) Ce groupe contient les axiomes d'égalité géométrique.

4) Ce groupe est limité à un seul axiome: celui des parallèles.

5) Ce groupe concerne les axiomes de continuité dont l'axiome d'Archimède: en ajoutant sur une droite un segment plusieurs fois à lui-même à partir d'un point A, on finira par dépasser tout point B situé du même côté de cette droite.

Liaison de axiomes? Un  axiome est indépendant des autres si le système obtenu en ajoutant sa négation aux autres n'est pas contradictoire. cela conduit à construire des géométries nouvelles (non-euclidiennes) et des géométries non-archimédiennes, qui prouvent à la fois l'indépendance de l'axiome des parallèles et de l'axiome d'Archimède. Hilbert ramène aussi le problème de la consistance de la géométrie à celui de la consistance des théories antérieures qu'il utilise. On ne peut partir de zéro et l'axiomatisation de la géométrie suppose données la logique et l'arithmétique sans lesquelles il est impossible de construire un raisonnement déductif ou d'énoncer une proposition géométrique. Sa démonstration de la consistance se situe donc à l'intérieur d'un cadre dont il suppose la consistance ("consistance relative"). On sait maintenant que c'est la théorie des ensembles de Zermelo-Fraenkel (théorie "ZF"). Mais on revient ici à la théorie de la confiance (voir l'empirisme logique) et une démonstration rigoureuse de la théorie reste à trouver.


2-3) La nécessité de la formalisation.

La formalisation de Hilbert n'est pas encore totalement dégagée des images intuitives liées au sens concret des termes (ex: figures pour illustrer le texte) avec le risque que s'introduise subrepticement un maillon d'une propriété évidente mais non explicitée dans les axiomes. Ainsi, les mathématiciens ont cherché à supprimer tout recours à des noms pouvant évoquer un sens concret et en utilisant exclusivement une forme symbolique. Les axiomes deviennent les règles régissant les relations entre symboles. Par exemple: les droites sont des lettres majuscules, les points des minuscules. l'intersection de 2 droites sera le symbole intersection (^); la phrase "deux droites se coupent en un point c" deviendra "A^B = c".

Ainsi formalisé, le système obtenu peut représenter d'autres modèles, par exemple, les axiomes de la géométrie projective peuvent être interprétés en en permutant les termes de droite et de plan et les mêmes axiomes restent valables. Russel a pu dire: "la mathématique est une science où on ne sait jamais de quoi on parle ni si ce qu'on dit est vrai".


2-4) La théorie des ensembles de Cantor.

La théorie des ensembles a été construite durant le dernier quart du 19e siècle par Georg Cantor. Son apport décisif concerne les ensembles infinis. L'utilisation sans précaution de ce concept a conduit à de nombreux paradoxes dont l'un des plus célèbres est celui de Zénon d'Elée. Au 19e siècle, l'infini avait acquit moins de un statut moins problématique l'analyse y devenait plus efficace dans l'étude des limites de suites et la convergence des séries (travaux de Bernard BolzanoCauchy et surtout Weierstrass). Cependant, devait-il être considéré en tant que potentialité (possibilité de rajouter toujours de nouveaux objets), ou comme actualité (collection d'une infinité d'objets existant simultanément à un moment donné)? Dedekind, avait adopté comme définition des ensembles infinis une propriété mise en avant par Bolzano: un ensemble infini peut être mis en correspondance biunivoque avec un des sous ensembles propres (par exemple, l'ensemble des nombres entiers avec l'ensembles des nombre pairs qui y est pourtant strictement inclus). Mais cela ne règle pas le problème de l'infini actuel, car cette possibilité n'assure nullement la légitimité de considérer l'ensemble des entiers naturels comme un tout achevé, comme une donnée actuelle et la situation est pire pour l'ensemble des nombres réels sans lequel l'analyse mathématique s'effondrerait.

La théorie de Cantor jette les nouvelle bases des ensembles infinis.  La définition est intuitive: "par ensemble, j'entends toute collection, dans un tout M, d'objets définis et distincts de notre intuition ou de notre pensée". Le mot collection comporte un aspect circulaire, mais cela n'est pas grave si les règles d'utilisation des concepts sont non ambiguës puisque la définition ne joue dans ce cas aucun rôle opérationnel. L'impossibilité de définir précisément ce qu'on entend par "ensemble" ou "élément" n'empêche pas de construire une théorie qui en retour éclairera ce que sont les ensembles et les éléments, exactement, selon Boolos comme pour des termes comme "il existe" ou "non" dans la logique quantifiée.

Une propriété (être "rouge", être un "nombre pair"...)  est caractérisée par un prédicat. Il existe un ensemble qui est celui des objets satisfaisant cette propriété. Deux ensembles ont même puissance s'il est possible de les mettre en correspondance biunivoque. Ainsi l'ensembles des nombres entiers (N) et des nombres pairs (ou des couples, des triplets, des nombres rationnels....) ont même puissance (équipotents). Un ensemble équipotent à N est dit "dénombrable". Cette puissance set désignée par un nombre cardinal (le nombre d'éléments de l'ensemble s'il est fini). Le cardinal de N et de tous les ensembles dénombrables est appelé No. Cantor va encore plus loin: la puissance des parties d'un ensemble (ensemble de tous ses sous-ensembles)  est strictement > à celle de l'ensemble lui-même. Pour les ensembles finis, c'est évident, P(A) a 2(puissN) éléments => Card P(A) = 2 (puissCardA). Cantor généralise aux ensembles infinis avec Card P(A) = 2(puissCard(A) > Card A. Ainsi, il existe des ensembles de puissances croissantes supérieures au dénombrable (on les appelle N1, N2 ...). Pour les réels, Cantor montre qu'il est impossible de construire une correspondance biunivoque entre N et l'ensemble des réels R, donc N et R n'ont pas même puissance et, comme N est inclus dans R, on a puissance R > N. Cette puissance est appelée "puissance du continu". On peut aussi montrer que R peut être mis en correspondance avec un des ses segments ou avec R puiss2 (ou RpuissN). Il est possible de montrer que la puissance du continu est identique à celle de l'ensemble des parties de N, ce qui veut dire que Card R est 2puissN0 qu'on appelle N1. Y a-t-il une puissance entre N0 et N1, entre celle du dénombrable et celle du continu? Cantor a répondu non (c'est l'hypothèse du continu), mais il ne l'a jamais démontré. Depuis, Godël et Paul Cohen ont montré qu'elle est indécidable (on ne peut  ni la démontrer ni la réfuter).


2-5) Les antinomies de la théorie des ensembles.

La théorie de Cantor représente un immense pas en avant dans la compréhensions de l'infini après la solution des problèmes de l'infiniment petit (Weierstrass), de l'infini et de la continuité (Dedekind), solution que Cantor accomplit définitivement. Mais cette théorie, dite "théorie naïve des ensembles" est contradictoire. Elle engendre des des incohérences inacceptables, malgré son aspect intuitif apparemment satisfaisant. Le plus connu est le paradoxe de Russel concernant les ensembles qui ne sont pas éléments d'eux-même. Soie E l'ensemble des choses pensables. Etant une chose pensable, il fait partie de lui-même. Par contre l'ensemble des lettres du mot "théorie" est l'ensemble {t, h, é, o, r, i, e}. Cet ensemble n'est pas une lettre du mot "théorie", il n'est donc pas élément de lui-même. Considérons alors l'ensemble A des ensembles qui ne sont pas éléments d'eux-mêmes. A est-il élément de lui-même? Répondre non, c'est dire que A possède la propriété qui définit des propres éléments (il n'est pas élément de lui-même) et  donc il appartient à ARépondre oui, c'est dire qu'en temps qu'élément de A, il doit posséder la propriété qui définit ces éléments et donc il n'appartient pas à lui-même. Cela conduit dans les 2 cas à une contradiction. De multiples autres paradoxes sont ainsi apparus, tel celui du menteur qui dit "je mens" ou celui de Burali-Forti concernant l'ensemble de tous les ordinaux.


2-6)   La logique de Frege et de Russel et Whitehead.

Sans changement notable depuis Aristote, entamé avec De Morgan, le renouveau date vraiment de 1847 avec "de l'Analyse mathématique et de la logique" puis des "lois de la pensée" de Boole sous forme d'une algèbre permettent d'élargir et de faciliter les types possibles de déduction. Mais c'est Frege qui est considéré comme le père de la logique moderne. Son "Begriffs-Schrift" est le début de la formalisation de la logique où il introduit les prédicats et les quantificateurs et un système formel indépendant de toute interprétation. Son objectif, dans le cadre du logicisme, est de montrer que l'ensemble des mathématiques est réductible à la logique. Mais en 1902, il découvre les paradoxes de Russel, et poursuivant dans voies du logicisme, il publie les Principia Mathématica avec Whitehead. Ils fournissent l'essentiel des mathématiques de l'époque et le système formel qui contient la théorie des ensembles sous une forme appelée "la théorie des types", échappant aux paradoxes. C'est dans ce formalisme que Godël fera la démonstration de ses théorèmes d'incomplétude. De son côté, Zermelo proposa en 1908 une axiomatique de la théorie des ensembles, complétée et améliorée par Fraenkel et Skolem, appelée "théorie ZF".


3) Les systèmes formels modernes.


L'exigence des mathématiciens de ne as tomber dans la contradiction a engendré des découvertes surprenantes et contre-intuitives dont certaines se manifestent sous la forme de théorèmes limitation dans les systèmes formels.


a) Les méthodes finitistes.

Si on veut utiliser un systèmes d'axiomes pour en tirer des conséquences, il est essentiel de savoir s'il est cohérent (ou consistant, non-contradictoire). S'il est possible de trouver un modèle (un ensemble d'objets tels que les axiomes sont vrais pour eux) alors il semble que qu'on sera assuré que les axiomes seront cohérents. Si une propriété est la conséquences de propriétés vérifiées, alors il n'est pas possible de croire que la propriété conséquence n'est pas vérifiée elle aussi ("le réel doit être logique"). Le modèle est non contradictoire et toute propriété le concernant satisfait le principe du tiers-exclu, est soit vraie, soit fausse. Voir le modèle du triangle page 62 de "les limites de la connaissance)

Ces raisons semblent indubitables, mais elles reposent sur le fait que le modèle est simple et évident pour qu'on puisse décider par simple observation de sa valeur de vérité (on dit qu'il est utilisable). Il est constitué d'objets bien définis en nombre fini qui permet les vérifications en nombre fini. Cela revient à faire confiance à notre intuition du fini. En progressant vers la généralisation, on trouve des systèmes ayant un nombre fini d'axiomes et un modèle infini, puis un nombre infini d'axiomes et des modèles infinis. Or, les mathématiques concernent en général des collections infinies d'objets et nous ne pouvons pas les inspecter un par un, et on a bien vu que pour des ensembles intuitifs, au sens initial de Cantor, l'existence même d'un de ces objets pouvait conduire à une contradiction. Comment alors aller au-delà de notre intuition finie sans tomber dans le piège de l'infini?

On appelle "décidable" un propriété dont on peut s'assurer directement (par observation au sens précédent), qu'elle est vraie ou fausse, par exemple la propriété: être pair. Une généralisation pour généraliser, on peut étendre l'examen des propriétés sur des ensembles infinis dénombrables. Pour chacun des éléments de l'ensemble, il est possible de savoir par observation s'il vérifie P ou non, puisque P est décidable. Par contre, on ne peut vérifier que tout élément de l'ensemble vérifie P, il en faudrait un nombre infini. Par contre, on peut accepter le principe "d'induction": si la propriété P est vérifiée par 0 et si, lorsqu'elle est vérifiée par un nombre entier, elle est vérifiée par le nombre entier suivant, alors elle est vérifiée par tout nombre entier. Ce principe ne peut être établi par observation, mais sa validité semble suffisamment raisonnable. Il devient alors possible de s'assurer que qu'une propriété est décidable est vérifiée sur un ensemble infini (dénombrable). Mais en fait, c'est loin d'être suffisant pour s'assurer de la vérité ou de la fausseté de toute propriété de N où de nombreuses propriétés ne s'expriment pas sous cette forme.


b) Un système formel rudimentaire: le système "a,b,c,d"

Pour composer un système formel, on se donne un vocabulaire ou alphabet A qui regroupe les symboles utilisés dans le système. Toute "suite finie de symboles" est une expression. On se donne ensuite des règles qui permettent de construire des "expressions bien formées" (e,b,f) appelées des 'formules" (des suites de symboles). Cette partie du système formel est appelée "morphologie" car elle spécifie la forme que prendront les objets formels du système. On se donne ensuite des règles pour pour construire des preuves (des suites de formules conformes à ces règles). Les axiomes du système sont choisis parmi les formules (ce sont en eux-même des preuves, donc ils sont prouvés dans le système). Il est à noter que les règles de formulation des formules ou des preuves peuvent être exprimées, elles,  dans le langage ordinaire ou un langage qui préexiste à celui du système formel. Ce dernier est appelé un "métalangage".On a alors construit l'aspect syntaxique du système, aspect entièrement formel, qui ne concerne que la forme des objets qu'il est licite construire.

Par exemple, Le système "a,b,c,d" est formé à partir de l'alphabet A = {a;b;c;d}. "acba" et "acbdb"sont des expressions. Soit la règle suivante: On appelle "composante" toute expression qui est soit réduite à un unique symbole a ou b, soit de forme fc@ où f est une composante et @ peut être a ou b.  Une formule est alors toute expression e la forme fdg où f et g sont des composantes.

Cette règle définit donc des formules comme étant des expressions avec un nombre arbitraire mais fini de a et b liés ou non par des c et d'autre part de l'unique signe d (acab n'est par une formule alors que acbda l'est).

On se donne aussi la règle suivante de construction des preuves: une preuve est une suite de formules  vérifiant les propriétés: 1) ou bien elle est réduite à un axiome. 2) ou bien elle commence par un axiome, et la formule n°i s'obtient à partir de la formule n°( i-1)en remplaçant dans cette dernière une occurrence de a par aca, ou bca, ou en remplaçant dans cette dernière une occurrence de b par bcb.

On peut ainsi prouver des formules ou voir que d'autres formules n'ont pas de preuve. Jusqu'ici il n' a été attribué de signification aucun des symboles et les règles du jeu concernent exclusivement la forme des suites de symboles ("formules", "axiomes", "preuves"). Cette syntaxe peut être comparée aux règles de déplacement du jeu d'échecs qui n'ont en elles-même aucune signification, il faut la compléter par une sémantique: on appelle "modèle" du système formel une structure d'interprétation dans laquelle les axiomes sont vrais: cette interprétation permet de saisir intuitivement " parle le système".

Dans le système présenté, le domaine d'interprétation sera l'ensemble {0,1,x,=}. La formule "acbda" sera interprétée comme signifiant " 0x1=0. Une formule sera une égalité entre deux produits d'un nombre arbitraire de 0 et de 1. Les axiomes interprétés deviennent: 0=0, 1=1... {0,1,x,=] est un modèle du système formel.  Les preuves permettent de prouver toutes les égalités vraies (comme 1x0x1x0=0x1), car aucune égalité fausse (comme 0x0x1x=1x1) ne peut être prouvée. Il y a donc équivalence pour une formule entre "être prouvée" et "être vraie dans le modèle". Remarques: On voit ainsi pourquoi "acab" (0x01) n'est pas une formule, alors que "acbda" (0x1=0) en est une. Un système formel qui possède la propriété d'être prouvable est dit "correct" (ou fiable) et "complet". Comme il n'est pas possible de prouver une formule fausse, il est dit "consistant". Les démonstrations de la complétude et de la consistance du système ne font ici appel qu'à des raisonnements de type finitiste (avec le principe d'induction) portant sur la structure des preuves.


b La logique des propositions (initiation).

La logique est la discipline qui codifie les règles que nous utilisons pour nous exprimer. Le système le plus simple est celui qui codifie le calcul propositionnel, raisonnements les plus simples qui portent sur des propositions non analysées en constituants (ex: "Si je chante alors il pleuvra, or je chante, donc il pleuvra"...). Un système formel correspondant est le suivant:

On se donne un ensemble infini de variables propositionnelles P = [p,q...t]. Le vocabulaire V se compose de P et de deux symboles connecteurs {--, -->}, la "négation" et "l'implication". Les règles de formation des formules, suites finies de symboles de V sont les suivantes:

- Toute suite de variables ayant pour seul terme une variable propositionnelle est une formule.

- Si F est une formule, le terme --, suivi des termes de la formule, est une formule (notée --, F).

- Si F et G sont deux formules, la suite obtenue en faisant suivre les termes de F par --> puis par les termes de g est une formule notée (F --> G) .

- Toute formule est obtenue par itération des procédés ci-dessus.

Les axiomes sont les formules suivantes: 1). A --> (B--> A).

2). {A--> (B--> C)} --> {(A --> B) --> (A--> C)}  3). (--, A --> B) --> {(--, A --> --, B) --> A}

Il y a une infinité d'axiomes puisque A, B, C peuvent être n'importe quelle formule.

Les règles de formation des preuves sont les suivantes:

- Toute suite de formules ayant un axiome pour seul terme est une preuve.

- Si D est une preuve et A un axiome, le suite obtenue en faisant suivre D par A est une preuve.

- Si D est une preuve comprenant deux termes de la forme A et  (A --> B), le suite obtenue en faisant suivre D par B est une preuve. Cette règle s'appelle le "modus ponens".

Une formule est prouvable et s'appelle un "théorème" s'il existe une preuve dont elle est le dernier terme.

Ces règles constituent la syntaxe du calcul des propositions (on constate l'analogie avec du système " abcd ").

Pour la sémantique, on pourrait rechercher une structure d'interprétation en donnant une signification aux deux symboles (--, et -->), comme  on l'a fait pour le système {a,b,c,d} ou pour l'arithmétique, mais ici, il s'agit de modéliser le raisonnement logique lui-même. Ce n'est pas le sens des propositions qui nous intéresse, mais la vérité des propositions. Les raisonnements doivent partir de prémisses vraies et aboutir à des conclusions vraies, indépendamment de leur sens. On définit une assignation de valeurs de vérité comme l'assignation à chaque variable propositionnelle de la valeur V (vrai) ou F (faux). Le domaine d'interprétation des variables propositionnelles sera donc l'ensemble {V,F} et les connecteurs seront associés à ce qu'on appelle leur table de vérité:

p          q          --,p          --,q           p-->q

V          V           V             F             V

V          F           F             V              F

F         V           V              F             V

F          F          V              V             V


Un modèle particulier sera donc donné par une assignation particulière de valeur de vérité à chaque valeur de vérité dan {V,F} qui rende vrais les axiomes. Nous aurions modélisé un domaine particulier, correspondant à une assignation particulière, mais pas encore le raisonnement lui-même. Nous cherchons l'assurance que quelque soit la valeur de vérité des variables propositionnelles, le raisonnement permettant de déduire une formule d'une autre, le raisonnement sera licite et la conclusion aussi. Faisons un pas de plus, on s'intéresse aux propositions qui sont vraies pour toute assignation.de valeurs de vérité: on les appelle des "tautologies". Il est possible de montrer que si les règles de preuve sont telles que toute formule prouvée est une tautologie le système est correct),et que toute tautologie est démontrable (complétude), alors, pour chaque assignation particulière de valeurs de vérité, toute formule prouvée à partir de formules non tautologiques  sera vraie chaque fois que les formules seront vraies, et si une formule est vraie chaque fois que qu'un ensemble d'autres formules est vrai, alors la première sera prouvable à partir des secondes. On a ainsi formalisé ce que nous entendons par règles de raisonnement.

Le système que nous cherchons se donne donc pour objet de formaliser les règles qui permettent de prouver les tautologies qui en seront les axiomes. Le calcul propositionnel est donc correct et complet. Ce calcul des propositions est aussi consistant car il est impossible de prouver une proposition et sa négation (on aurait une formule tautologique dont la négation est tautologique, ce qui est impossible).

A côté des axiomes tautologiques, on peut maintenant se donner des axiomes complémentaires, qui sont des formules contingentes, vraies pour certaines assignations des valeurs de vérité et fausses pour d'autres ainsi qu'un modèle du système obtenu. On obtient ce qu'on appelle "une théorie" (d'ordre 0). On a ainsi bien réalisé une modélisation générale du raisonnement qui incorpore toute modélisation particulière. La consistance et la complétude du calcul des propositions ont pu être montrées d'une manière qui semble à l'abri de tout soupçon. Mais seules des méthodes finitistes qui ne suscitent aucun doute ont été employées.


c) Le calcul des prédicats.

Le calcul des propositions est trop rudimentaire pour suffire à exprimer des raisonnements mathématiques. On introduit le concept de prédicat pour formaliser le fait qu'une propriété est attribuée à un objet. Le fait d'être pair pour un entier revient à dire qu'il satisfait au prédicat "être pair". On note P(n) le fait que l'entier n vérifie le prédicat P. De plus, on introduit les deux quantificateurs "pour tout" (noté "V" et "il existe"  (noté "E"). Ainsi, l'énoncé "pour tout nombre pair n, il existe un nombre n tel que n est la somme de m avec lui-même" s'écrit: Vn, P(n) -->(Em, n=n+m). De même être le double s'écrit: D (m,n) est vérifié pour tout couple tel que m=2n. Le calcul des prédicats se formalise de la même manière (plus complexe) que le calcul des propositions. Il est correct et complet (toute formule dérivable à partie d'un ensemble de formules en est la conséquence logique, et si une formule est la conséquence logique d'un ensemble de formules, elle est dérivable à partir de cet ensemble et ce dernier est consistant. Le calcul des prédicats semble suffisant pour formaliser l'ensemble des mathématiques et les systèmes formels qui sont envisagés incorporent; outre les axiomes propres qui décrivent le domaine particulier envisagé (las nombres entiers, les ensembles...), le calcul des prédicats comme outil de raisonnement logique. Ces systèmes sont appelés "théories du premier ordre", le calcul des prédicats étant "le calcul du premier ordre". C'était la position de Hilbert. Depuis, Quine (1970) s'est opposé à cette logique, hintikka 1998) en propose une nouvelle avec Shapiro (1991) (logique du second ordre).


d) Les propriétés des systèmes formels.

Résumé: un système formel pour la logique des propositions ou le calcul des prédicats est dit "correct" ou "fiable" si toute formule prouvable est tautologique. Il est "complet" si si toute formule tautologique est prouvable. Une théorie est obtenue en en ajoutant aux axiomes de base un ensemble d'axiomes supplémentaires (formules contingentes qui peuvent être vraies ou fausses selon l'assignation). Une théorie est complète si toute formule est soit prouvable, soit réfutable. Par ailleurs, on distingue deux sens pour le mot "complétude". La complétude sémantique, signifie que toute formule, conséquence logique d'un ensemble de formules, est dérivable de cet ensemble. la complétude syntaxique signifie que toute formule est prouvable ou réfutable. Dans un système correct sémantiquement consistant, la complétude syntaxique entraîne la complétude sémantique. mais la réciproque est fausse: le calcul des prédicats est sémantiquement complet, mais pas syntaxiquement (la formule Ex P(x) --> Vx P(x) n'est ni démontrable ni réfutable). Quand on parle de complétude sans précision, il s'agit de la complétudes sémantique (l'arithmétique du premier ordre est dans ce cas, comme l'a montré Gödel).


e) L'axiomatique de Peano (axiomatisation formalisée de l'arithmétique _1899).

Le langage contient 4 symboles non logiques: le nom "0", la fonction à une variable "s" (successeur), les 2 fonctions à deux variables "+" et "-". L'arithmétique du premier ordre est la théorie obtenue en ajoutant au calcul des prédicats (avec identité; cad on s'est donné les axiomes régissant l'utilisation du prédicat binaire "=") les axiomes suivants:

- Vx --, {0 = S(x)} (0 n'est le successeur d'aucun nombre).

- Vx Vy {S(x) = S(y) --> (x= y)}. (si 2 nombres ont le même successeur, ils sont égaux).

- V x (x=0 = x). (0 ajouté à un nombre ne change pas le nombre).

- Vx Vy {x + S(y) = S(x+y)}. (x + le successeur de y est identique au successeur de x+y).

- Vx (x . 0 =0). (0 multiplié par un nombre = 0).

- Vx Vy (x . S(y) = x . y + x)). (x multiplié par le successeur de y = x multiplié par y plus x.

- (phi (0) ^ {Vx phi(x) --> phi(S(x))} --> x(phi(x) où phi(x) est une formule. (le principe d'induction).

L'ensemble N des entiers naturels muni de l'addition et de la multiplication est un modèle de ce système formel. Il en résulte que le système est consistant. Mais l'arithmétique possède un nombre infini d'éléments et il apparaît que des difficultés imprévues surgissent (voir le théorème de Gödel.


f) le programme finitiste de Hilbert.

L'idée de Hilbert est d'enfermer la totalité des mathématiques dans un système formel finitiste. On considère (bien qu'il n'ait pas été totalement explicite) qu'il se limitait, outre les constructions finies, aux propriétés décidables universellement quantifiées (les formules Vx P(x)) où P est un prédicat décidable) et qu'il est possible de démontrer à l'aide du principe d'induction. Un système peut comporter un nombre infini d'axiomes, pourvu qu'il soit possible de déterminer par simple observation si une formule est un axiome ou non. Le système doit être complet et consistant. Il doit être possible de prouver la consistance par des moyens finitistes. S'il est possible de projeter la preuve de sa consistance à l'intérieur du système, elle rejaillira de manière réflexive pour acquérir un statut de sûreté indubitable. Toute déduction mathématique se ramènerait à à une preuve formelle où on pourrait décider si elle est conforme ou pas sans ambiguïté. Mais il ne serait plus possible de débattre sur la légitimité des démonstrations pour une raison profonde. Tout énoncé vrai posséderait une démonstration et l'ignorabimus serait éliminé selon le voeu de Hilbert. Il ne rejette pas les résultats qui ne sont pas conformes à la méthode finitiste, mais il veut prouver que toute démonstration qui utilise ces méthodes ("abstraites" selon lui), peut être ramenée à un méthode finitiste. Ce programme est l'analogue du désir fondationnaliste des positivistes logiques et assez conforme à l'image que l'homme de la rue se fait des mathématiques.


Ces espoirs ont été ruinés par les théorèmes de Gödel les "indécidables" que nous verrons dans le prochain message.



05/11/2011

2- Les limites de la connaissance 2) l'effondrement des fondations, L'empirisme logique

 

Les limites de la connaissance 2) l'effondrement des fondations, L'empirisme logique

Préambule.

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

 

La certitude en mathématiques.

Les conclusions de l'article sur l'empirisme logique aboutissent à une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure; la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences; Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité.

 

 

Le programme finitiste de Hilbert.

L'idée de Hilbert est d'enfermer la totalité des mathématiques dans un système formel finitiste

 

 


Les limites de la connaissance 2) l'effondrement des fondations, L'empirisme logique

Idées fortes de ce chapitre?


Les idées de Quine sont dévastatrices pour l'empirisme logique,elles inaugurent une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure.

Quine est instrumentaliste: la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences. Les objets physiques ne sont que des entités intermédiaires que nous postulons

On est donc conduit en apparence au dilemme consistant à choisir entre une attitude sceptique (nous ne pouvons fonder rationnellement nos croyances), et un attitude dogmatique consistant à accepter un certains de postulats comme évidents et ne demandant pas à être justifiés (par exemple, croyance que nos théories reflètent la structure du monde).

Les réflexions des épistémologues ultérieurs ainsi que les avancées faites par les scientifiques, loin de donner espoir d'arriver un jour à résoudre ces difficultés, n'ont fait qu'accentuer l'écart entre la certitude qu'on souhaiterait pouvoir attribuer à la science et le statut objectif qu'il convient de lui céder.


 

 

En exergue:

"Dans une arche, un bloc de faîte est supporté immédiatement par d'autres blocs de faîte, et finalement par tous les blocs de base collectivement, mais par aucun individuellement; Il es est de même des phrases, lorsqu'elles sont reliées dans une théorie. [... ]Peut-être devrions-nous même concevoir l'arche comme chancelant comme pendant un tremblement de terre; On comprend alors que même un bloc de la base ne pourra être soutenu, à certains moments, que par les autres blocs de base par l'intermédiaire de l'arche." Quine  (1960).

 

1) Le cercle de Vienne et l'empirisme logique.

 

 


 

a)Le cercle de Vienne et ses conceptions.

 

Il s'est constitué, autour des années 1920, autour d'un noyau de départ formé du mathématicien Hans Hann, du physicien Philipp Frank et du sociologue Otto Neurath. Il a pris sa pleine mesure avec Rudolph Carnap le philosophe Moritz Schlick , puis les mathématiciens Kurt Godel, Gustav Bergman et Karl Mendel, l'historien Victor Kraft et deux étudiants Herbert Feigl et Friedrich Waismann. Il fut dissous après l'assassinat de Schlick en 1926. Mais l'empirisme logique, héritier de ces idées a exercé une influence,ce prépondérante sur des générations d'épistémologues et de logiciens de Quine, Hempel, et Goodman à Putnam, Von Wright et Hintikka.

Son espoir était de fonder la connaissance sur des bases certaines. A l'instar des empiristes classiques (Francis Bacon philosophe au 17e siècle), Jonh Locke, George Berkeley au 18e siècle, et Jonh Stuart Mill et Auguste Comte au 19e siècle) leur postulat de départ est que le monde extérieur nous est accessible uniquement à travers nos observations et que ce n'est que par l'expérience que nous pourrons acquérir les informations pour comprendre et décrire la réalité. Le sens d'un énoncé observationnel s'impose de lui-même et il ne peut résulter aucune ambiguïté tant qu'on se limite à des propositions du type: "à tel instant et en tel lieu, untel a observé directement tel mouvement...".

Le philosophes du cercle de Vienne disposent d'un nouvel instrument d'analyse, la logique formelle due à Frege, Russel et Elfred North Whitehead. Elle permet de formaliser et analyser le discours scientifique qu'on peut élaborer à partir des lois générales, des énoncés observationnels  et de leurs conséquences communes. A leur tour, celles-ci peuvent être traduites en énoncés observationnels, puis testés et donc vérifiés (les lois sont alors confirmées). C'est le modèle "déductif-nomologique", dont la rigueur et la cohérence permettent de nourrir les espoirs de construire une science rationnelle. La logique formelle utilisée pour analyser le langage ordinaire est censée y permettre d'éliminer les paradoxes, les ambiguïtés voire les non-sens. L'empirisme moderne a érigé en dogme le clivage entre les énoncés analytiques (significations indépendantes des faits) et les énoncés synthétiques (fondés sur les faits). Le cercle de vienne adopte une position anti-kantienne: aucun jugement synthétique à priori n'est possible. C'est dirigé contre la métaphysique en général et plus particulièrement l'idéalisme allemand (Hegel et Heidegger), qui selon les empiristes logiques, n'est qu'un discours vide de sens. Pour eux, une proposition n'a de sens que si que dans la mesure où elle est vérifiable expérimentalement (théorie vérificationniste du sens) et même selon le slogan de Schlick, le sens se réduit à à sa méthode de vérification. Par ailleurs, selon Wittgenstein, les vérités logiques et les définitions sont certaines car elles ne sont que des conventions de langage; les mathématiques et la logique se réduisent à des tautologies, vraies mais vides de sens (Tractatus logico-philosophicus). La science utilise donc les mathématiques et la logique comme outils analytiques n'apportant aucune connaissance empirique, mais ne contenant que des vérités; son contenu empirique provient des énoncés observationnels, qui peuvent être vérifiés.

 

 

Ce sont les pierres de base de l'édifice scientifique qui rendent compte des observations selon Carnap. Ils doivent être exprimés à l'aide des expériences sensibles du sujet agissant du type: "A tel moment et tel moment, en tel et tel lieu et sous telle et telle circonstance, tel et tel a été, est ou sera observé". Une telle réduction est cependant difficile pour des termes comme "électron " ou "champ". Ces terme, appelés "termes théoriques" par Carnap, peuvent-ils traduits dans le vocabulaire purement observationnel de la théorie? La réponse de Carnap et de Mach est positive. A partir des expériences sensibles du sujet connaissant comme éléments de base, il propose de construire une hiérarchie d'objets telle que chaque niveau puisse être réduit au niveau inférieur par des "définitions constructives". Ainsi tout énoncé scientifique peut ne porter que sur les objets de niveau le plus bas, les expériences sensibles. Tous les termes d'une théorie scientifique peuvent être alors traduits en énoncés protocolaires et la théorie est donc exprimable au moyen de lois générales ne portant que sur des entités observables.

 

c) La théorie vérificationniste du sens.

 

Ramener tout énoncé scientifique à à un ensemble de tels énoncés protocolaires est ce que Karl Hempel a appelé "l'exigence de vérificabilité complète". Pour les positivistes logiques, seuls les énoncés susceptibles d'être ainsi testés possèdent un sens, qui s'identifie donc avec le contenu empirique et même selon Schlick, avec la méthode de vérification. Ce critère de démarcation leur permet de rejeter en bloc l'idéalisme allemand et toute la métaphysique comme des discours ne développant que des suites de non-sens. Mais ne sont pas touchées les les propositions de mathématiques et de la logique dont Wittgenstein a montré dans le Tractatus qu'elles se réduisent à des tautologies, vraies, mais dénuées de contenu empirique.

 

d) L'induction.

 

Pour les positivistes logiques, on obtient une loi en généralisant les occurrences particulières de même type d'un phénomène, par exemple, que si on suspend des masses à un ressort, on observera que l'allongement de ce dernier est proportionnel à la masse suspendue. Cette expérience, répétée avec des ressorts différents, le coefficient de proportionnalité n'est pas le même pour des ressorts différents, mais est la même pour chaque ressort: l'allongement est proportionnel à la masse. Cette loi est supposée applicable à tous les ressorts et à toutes les masses bien qu'elle n'ait été observée que pour un nombre restreint de ressorts et de masses.

Formellement, l'induction est le mode d'inférence qui permet de passer d'exemples particuliers à une loi générale: étant donné l'observation d'un certain nombres d'objets de type A (A1, A2...An), possédant la propriété P, cad tels que P(A1), P(A2),...P(an), on infère que tout objet du type A possède la propriété P; Vi Ai € A =>P(Ai). Pour les positivistes logiques, l'induction est un des points fondamentaux de de l'explication et de la formation des lois scientifiques.

 

e) Le modèle déductif-nomologique.

 

Cette théorie repose sur trois pieds: 1) Les lois scientifiques (d'où l'adjectif nomologique). 2) Les conditions initiales. 3) Les règles logiques de déduction.

En appliquant la logique (et les mathématiques) à la loi de la gravitation sous la contrainte des conditions initiales, il est alors possible (par exemple pour un caillou qu'on lance en l'air), de prédire les propriétés observables des occurrences particulières d'un phénomène (la position et la vitesse à tout instant ultérieur). Celui-ci, prédictible dans ses manifestations et ramené à à un cas particulier d'une loi générale, est alors considéré comme expliqué et donc compris. Pour le positivisme logique,, la science est donc une construction hors de doute puisqu'elle repose sur des données certaines, des règles de construction logiques et des lois admises.

 

2) La libéralisation de l'empirisme logique.

 

a) Cohérence et difficultés des positions du Cercle de Vienne.

 

La conception des philosophes du cercle de Vienne possède une force de conviction et une cohérence indéniables. Elle permet de donner à la science une solidité et une certitude qui auraient ravi certains physiciens de la fin du 18e siècle, qui étaient persuadés que la physique était achevée... Elle ne peut que renforcer l'idée selon laquelle le savoir scientifique, par opposition aux  fausses sciences (l'astrologie, la psychanalyse) et à la métaphysique, dispose d'un statut supérieur, de par la rigueur de son fonctionnement. Malheureusement, les piliers sur lesquels il repose furent attaqué et rongés par ses propres héritiers.

La possibilité de réduire le vocabulaire théorique au vocabulaire observationnel fut remise en cause par Carnap en 1936 et l'irrévocabilité de ces énoncés fut critiquée par Neurath et dut être abandonnée. Le critère de signification vérificationniste se montra trop restrictif et laxiste comme le montra Hempel. La distinction entre énoncés synthétiques et et analytiques ne résista pas à la critique de Quine et même la possibilité de réfuter une loi générale par une expérience cruciale fut abandonnée en raison du problème de Duhem-Quine. Les règles durent être assouplies, ce qui entraîna un net affaiblissement des certitudes quant à la construction scientifique.

 

b) Les prédicats dispositionnels.

 

L'espoir de Carnap que le vocabulaire théorique pouvait être ramené au vocabulaire observationnel fut anéanti par la considération des prédicats dispotitionnels de type "soluble" ou "fragile". Explicitée selon les règles de la logique formelle, cette définition s'explicite ainsi: Vx {S(x) = Vt[E(x,t) => F(x,t)]} où S(x) signifie x est soluble, E(x,t) signifie est plongé dans l'eau à l'instant t, F(x,t) signifie fond à l'instant t. Le problème vient du fait que  E=>F si E et F sont vraies mais aussi si E est faux quelle que soit la valeur de vérité de F. Donc un corps sera dit soluble si s'il est plongé dans l'eau et fond ou bien s'il n'est pas plongé dans l'eau.On conçoit que cette définition soit insatisfaisante, car tout corps à l'abri de l'humidité pourra être réputé insoluble

Carnap tenta de résoudre ces difficultés à travers ce qu'il appela des "phrases de réduction". cela revient à restreindre la définition de soluble, par exemple de la manière suivante: si un corps est dans l'eau à l'instant t, il sera dit soluble si et seulement si il fond à l'instant t. Mais il devient impossible de dire si l'eau dans un sucrier est soluble. L'espoir de traduire le vocabulaire théorique en vocabulaire observationnel s'effondre. On ne peut plus considérer qu'un énoncé observationnel n'est doué de sens que s'il est strictement réductible à des énoncés protocolaires. Carnap a formulé une "exigence de de confirmabilité simple" (il suffit que certains cas particuliers soient vérifiables), mais il faut alors clarifier les liens entre un énoncé universel et ses occurrences. C'est le problème de l'induction.

c) Le principe vérificationniste.

 

C'est le principe: un énoncé a un sens quand il est logiquement déductible d'un ensemble fini d'énoncés protocolaires (ce que Hempel appelle "l'exigence de vérificabilité complète". Mais qui vérifie l'énoncé? Faut-il un hypothétique observateur idéal? Le sens ne semble pas pouvoir être défini de manière absolue. Selon ce principe, aucun énoncé universel n'a de signification, car il ne saurait être déduit d'un nombre réduit, aussi grand soit-il d'énoncés. Cela condamne toutes les lois de la physique à n'être que des énoncés dépourvus de sens. D'autres conséquences indésirables comme "cette chaise chante la couleur rugueuse" satisfait le critère de vérification.

Hempel proposa alors comme critère de scientificité d'un énoncé, la possibilité de sa traduction dans un langage empiriste défini ainsi: si L est la langage, le vocabulaire de L contient les locutions de la logique (connecteurs, quantificateurs...), les prédicats d'observations constituant le vocabulaire empirique de L, les expressions définissables à l'aide des éléments précédents et enfin des règles de formation dénoncés telles que celles données dans les Principia Mathématica de Russel et Whitehead. On peut ainsi lever les objections provenant des connecteurs et des quantificateurs, mais reste le problème des prédicats dispositionnels.

 

d) La logique inductive.

 

Devant le problème des lois universelles non réductibles à la conjonction d'un nombre fini d'énoncés, Carnap essaya de construire une logique inductive si la loi, bien que non vérifiée dans sa totalité, est confirmée à un certain degré par les occurrences constatées. Certes, on sait depuis le célèbre critique de Hume, que l'induction n'est pas un mode de raisonnement valide, contrairement à déduction pour laquelle la vérité des prémisses garantit celle de la conclusion. Carnap voulait construire à travers le concept de probabilité logique, un moyen de calculer le degré de confirmation qu'apporte un énoncé singulier à une hypothèse universelle. Les probabilités logiques ne sont pas des probabilités fréquentielles, mais sont liées au contenu logique (à l'ensemble des conséquences) des énoncés. Cela permet de ramener les lois universelles dans le champ de la science. Malheureusement, comme cela le fut fortement souligné par Popper, et reconnu par Carnap, le degré de confirmation de toute loi universelle dans un monde infini ne peut être différent de zéro. Hempel essaya de un critère de confirmation non quantitatif, mais se heurta à des difficultés, et on n'aboutit à aucune réponse satisfaisante. Goodman mit en évidence par l'intermédiaire de son célèbre paradoxe: la difficulté de déterminer si un prédicat est projectible (si on a le droit de faire une induction le concernant). L'observation d'un grand nombre d'objets de type A possédant la propriété P et d'aucun objet du type P ne la possédant pas, nous incite à induire que tout objet du type A possède la propriété P par exemple: toutes les émeraudes sont vertes). Le prédicat "vert" est projectible. Paradoxe:  soit le prédicat "vleu", défini par "vert" si observé avant 2011 ou "bleu" sinon.Les émeraudes observées jusqu'à présent sont "vertes", mais aussi "vleues". Son induit que toutes les émeraudes sont "vleues", alors une émeraude observée en 2012 sera "vleue". Ce paradoxe n'est pas encore résolu.

Certains, comme Boudot en concluent que l'absence d'une logique inductive n'est pas un échec momentané qui résulterait de l'insuffisance de la recherche, mais le signe de son impossibilité radicale.

 

e) Les énoncés protocolaires.

Les énoncés protocolaires perdent ainsi leur statut de privilégiés et doivent aussi satisfaire le critère de vérification. Neurath le remit en cause au nom du principe même de vérification. Aucun énoncé ne doit être inébranlable et considérer les données des sens comme se référant à une réalité extralinguistique est  un présupposé métaphysique inacceptable. Il est par ailleurs impossible de déterminer des énoncés protocolaires purs et en conséquence les énoncés de base de la science n'ont pas à faire référence aux données des sens.Ils doivent être ceux du langage naturel, du langage de la physique purifié de ses éléments inadéquats à l'édification de la science.C'est la thèse du physicalisme, qui stipule de plus que les énoncés ne peuvent être comparés qu'avec d'autres énoncés, et non pas directement avec les faits.  Mais que voulons nous dire lorsque nous parlons de fait ou de réalité?

Wittgenstein avait avancé que dans le Tractatus, que que cette correspondance était une similitude structurelle, mais cette idée, finalement fausse, avait obscurci le problème.Dans le physicalisme, le concept de vérité évolue de donc de la vérité-correspondance (est vrai un énoncé qui correspond aux faits), à la vérité-cohérence (est vrai un énoncé qui ne contredit pas les énoncés déjà acceptés). Il y a donc effondrement de de la construction originelle de l'épistémologie positiviste. La distinction entre théorie et observation s'estompe et la connaissance perd ses bases certaines. Carnap essaya bien de construire des règles syntaxiques permettent d'éliminer du langage ordinaire toutes les phrases contradictoires ou dépourvues de sens, pour que tout énoncé bien formé soit automatiquement pourvu de signification empirique et montrer que la métaphysique n'est qu'un discours vide de sens. Mais il reconnut que qu'il est impossible de se passer de considérations sémantiques.

Schlick fit remarquer que que la cohérence n'est pas une condition suffisante de vérité sinon un conte de fées, ne contenant aucune affirmation contradictoire avec les autres, devrait être considéré comme vrai. De plus, il mit en avant l'incompatibilité entre le physicalisme et l'empirisme, "la science n'est pas le monde".  Carnap se tourna alors vers la théorie sémantique de la vérité-correspondance de Tarski: l'énoncé "la neige est blanche" est vrai si et seulement si la neige est blanche. Cette formulation permet de parler à la fois des énoncés et des faits auxquels ils se rapportent dans un métalangage sémantique en faisant disparaître les difficultés liées à la notion de correspondance entre un fait et un énoncé. L'explication de Tarski emporta l'adhésion générale. Mais les critiques de Neurath sur le caractère certain des énoncés protocolaires avaient réussi à saper la base observationnelle et conduit à une conception relativiste de la connaissance.


3) Autres positions.


a) Les critiques de Karl Popper.


Pour Popper, vouloir éliminer la métaphysique en montrant qu'elle n'est qu'un discours vide de sens est à la fois inutile et sans espoir. Ce qui distingue la métaphysique de la science, ce n'est pas l'abscence ou la présence de sens, mais la testabilité: un énoncé est scientifique (donc pourvu du'un contenu empirique) si et seulement si il est réfutable par l'expérience. Ce principe de faslifiabilité est un critère de démarcation entre science et métaphysique et non pas un critère de signification. Les critères de signification proposés par Carnap sont non seulement insatisfaisants, mais peuvent être dangereux pour la science car certains énoncés scientifiques pourraient en être exclus. Il propose de construire dans un langage physicaliste  qui est censé assurer que les propositions qui suivent sa syntaxe sont pourvues des sens, ce qu'il appelle la proposition métaphysique suprême: "il existe un esprit personnel omniscient, omniprésent et omnipotent."  Il est vain de prétendre qu'on peut construire un langage physicaliste qui serait celui de la science unifiée et d'où la métaphysique serait bannie par construction. De même les énoncés de réduction que Carnap avait proposés pour résoudre le problème des prédicats dispositionnels n'est pas une solution satisfaisante, car elle est circulaire. Mais cela ne gêne pas Popper car il remet en cause la position des empiristes logiques sur les énoncés de base.

En effet, pour Carnap et les empiristes logiques il existe des énoncés de base (énoncés observationnels considérés comme indubitables) sur lesquels s'appuie l'édifice de la science. Que ce soient des rapports d'observation portant sur les objets physiques directement (physicalisme de Neurath et Carnap), ou des compte-rendus privés d'expériences sensorielles (Schlick), ces énoncés, bien que corrigibles demeurent une base solide.

Mais dit De Fries, comment justifier ces énoncés pour éviter qu'ils deviennent des dogmes?  sa réponse est : ils ne peuvent être justifiés que par d'autres énoncés; il y a donc régression à l'infini, sauf si on fait appel au psychologisme qui permet de justifier un énoncé à partir des perceptions. Popper le refusera, mais évitera la régression à l'infini en proposant que la justification soit basée à un moment donné sur un consensus qui permet d'accepter certains énoncés provisoirement. Mais il y a un prix à payer: on ne sera jamais certain de la sûreté d'un énoncé. Popper l'accepte, car il a construit toute son épistémologie sur le rejet de la certitude absolue. Les théories scientifiques sont des hypothèses que que nous faisons à un moment donné pour résoudre les problèmes empiriques que nous nous posons. Elles ne sont pas construites par induction, mais émises dans le but d'en déduire des conséquences qui seront confrontées avec la réalité. On ne pourra jamais prouver une hypothèse qui a la forme d'un énoncé universel, mais on pourra la réfuter si une de ses conséquences est en désaccord avec l'expérience, ou la corroborer si ses conséquences sont vérifiées. Ainsi, la science ne pourra jamais atteindre la vérité. Elle avance par conjectures et réfutations; plus une théorie aura subi avec succès des tests sévères et variés, mieux elle sera corroborée.

Popper attaque aussi la les tentatives de Carnap de construction d'une logique inductive. La théorie de la probabilité logique est est paradoxale et manque son but puisque toute lois a une probabilité nulle quelles que soient les évidences empiriques (en nombre forcément fini) en sa faveur, alors que certains énoncés métaphysiques peuvent avoir un probabilité proche de 1. Son épistémologie, qui prend le contre-pied de beaucoup des positions fondamentales des philosophes de de Vienne est hypothético-déductive contrairement à celle de l'empirisme logique qui est inductive à partir des énoncés d'observation.

Quant à la question de savoir comment les chercheurs se mettent d'accord sur les énoncés de base consensuels. Pour Popper, cette question relève de la psychologie ou de la sociologie, mais cette réponse n'est pas satisfaisante. Son système est entièrement hypothético-déductif met cependant en avant  le concept de degré corroboration: une théorie sera d'autant mieux corroborée qu'elle aura satisfait un nombre plus important de tests et que ceux-ci seront sévères. Cela rappelle étrangement au degré de confirmation de carnap que Popper rejette fortement. Ce degré de corroboration se rapporte aux performances passées de la théorie et ne dit rien de ses capacités futures de prédiction. Mais Lakatos fit remarquer qu'en l'absence d'un principe inductif, rien ne justifie une préférence d'une théorie à une autre moins bien corroborée.

Par ailleurs, Popper, en réaliste convaincu, avance le concept de vérisimilitude d'une théorie qui est censé mesurer le degré auquel cette théorie correspond à la réalité. Il compare l'ensemble des conséquences vraies (son "contenu de vérité") et l'ensemble des conséquences fausses ("contenu de fausseté") de deux théories. Cette idée, pourtant séduisante n'a jamais pu être appliquée (comme le montra David Miller), car deux théories fausses ne peuvent jamais être comparées, car aucune des deux conditions qu'elle implique n'est jamais satisfaite. Quant au critère de démarcation falsificationniste, il souffre de difficultés symétriques de celles du critère de signification vérificationniste. En effet, les propositions universelles du type "Vx P(x)" sont scientifiques si si P est un prédicat observable, car il suffit d'exhiber un x tel que "non" P(x) pour les réfuter. En revanche aucune proposition existentielle du type "E (il existe) P(x)" ne l'est puisque puisque pour la réfuter, il faudrait vérifier sur l'ensemble infini des x qu'aucun x ne vérifie P.

 

b) L'épistomologie pragmatique de Quine.


Quine va plus loin que Popper dans sa critique des dogmes empiristes et son épistémologie pragmatique aboutit à la nécessité de l'abandon complet du fondationalisme. Il s'attaque à à la distinction entre énoncé analytique et énoncé synthétique dont il démontre qu'elle n'est pas fondée. En partant de la définition de Kant selon laquelle un énoncé analytique est un énoncé qui est vrai en vertu de la signification des termes qu'il  contient et indépendamment des faits.


Que dire du concept de signification? De même qu'en physique, où on prend comme entité de base la relation d'égalité de poids pour une définition opérationnelle, il Quine se concentre sur la notion de synonymie qui lui permet d'éliminer le concept obscur de signification. Il définit le concept de vérité logique comme étant celui d'un énoncé vrai qui reste vrai pour toute réinterprétation de ses constituants autres que les termes logiques (connecteurs, quantificateurs). Ainsi l'énoncé "aucun homme non marié n'est marié" reste vrai quelque soit la manière dont on réinterprète les termes "homme" et "marié". Ainsi: "aucun nuage non noir n'est noir. L'énoncé "aucun célibataire n'est marié" n'est pas une vérité logique. Mais si on remplace les termes (ici "célibataire") par des synonymes (ici "homme non marié", l'énoncé est transformable en vérité logique. Il est donc possible de définir un énoncé analytique comme un énoncé qui est, soit une vérité logique, soit transformable en une vérité logique en remplaçant certains de ses termes par des synonymes. Maintenant, le problème consiste à à définir la synonymie entre deux termes. Les démarches suivantes sont possibles:

a) Deux termes sont synonymes quand l'un est la définition de l'autre.Cette solution est une illusion car elle repose sur une synonymie préalable plutôt qu'elle ne l'explique.

b) Les deux termes peuvent être substitués "salva veritate", selon l'expression de Leibniz (sans changement de valeur de vérité) dans un énoncé. Mais cette définition est trop laxiste et laisse passer pour synonymes des termes qui ne le sont pas.

c) Renforcer le critère en proposant la substituabilité salva veritae même au sein d'énoncés contenant des adverbes modaux du type "nécessairement". Mais il y a lors circularité car la compréhension de l'adverbe modal présuppose la notion d'analyticité.

d) Synonymie extensionelle: deux prédicats sont synonymes s'ils sont vrais des mêmes choses. Mais elle n'est pas identique à la synonymie cognitive, comme le montre l'exemple des deux prédicats "créatures avec des reins" et et "créatures avec un coeur", qui ont la même extension mais qui ne signifient la même chose.

Quine renverse alors sa stratégie en essayant de définir directement l'analycité. La vérité d'un énoncé provient de deux composantes: à la fois à cause de la signification de ses termes et en raison de faits extérieurs. Ainsi, dans l'énoncé "la neige est blanche"  est vrai, c'est à la fois parce  que "neige" veut dire neige et "blanche" veut dire blanche, mais aussi parce que la neige est blanche. La vérité a donc une composante linguistique et une composante factuelle. On pourrait définir un énoncé analytique comme un énoncé vrai dans lequel la composante factuelle est nulle.  Mais il semble à Quine que c'est une profession de foi métaphysique.

Alors il s'interroge sur la nature des relations entre les énoncés et les expériences qui contribuent à augmenter ou diminuer sa confirmation et élimine le réductionnisme radical (cette relation est fournie sous forme de constatation directe et un énoncé pris isolément est susceptible d'être confirmé ou infirmé). Il prétend que ce n'est que collectivement que les énoncés sont livrés au tribunal de l'expérience. Comme Duhem, il pense que la confirmation ou la réfutation ne vise pas une hypothèse isolée, mais l'ensemble du corpus scientifique; l'unité de signification empirique n'est pas l'énoncé, mais la totalité de la science. Cela efface définitivement tout espoir de définir l'analycité grâce au critère vérificationniste mais enlève aussi toute pertinence à ce critère.

Ce holisme donne de graves difficultés au critère falsificationiste de Poper: est-ce la théorie testée qui est réfutée ou une hypothèse auxiliaire? Le holisme sémantique (selon lequel l'unité de signification est la science toute entière) découle logiquement du holisme épistémologique de Duhem (selon lequel on ne vérifie jamais une hypothèse isolée) et de la théorie vérificationiste de la signification. De plus, ce holisme épistémologique de Quine ne se limite pas à la physique, mais s'étend à tout le savoir ("Il est comparable à un champ de forces dont les frontières seraient l'expérience"). En cas de conflit avec l'expérience, des réajustements s'opèrent et de plus, il est sous-déterminé par les expériences. La méthode scientifique est le chemin pour trouver la vérité, mais elle ne fournit pas, même en principe, une définition unique de la vérité. Cela signifie que plusieurs théories contradictoires entre elles peuvent être conformes avec toutes les expériences faites mais aussi avec toutes les expériences possibles en droit (c'est la thèse de la sous-détermination). Seul le pragmatisme nous dicte quels sont les énoncés que nous avons intérêt à réviser.

Les idées de Quine sont dévastatrices pour l'empirisme logique,elles inaugurent une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure. Quine est instrumentaliste: la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences. Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité. Même si une théorie "colle" aux observations passées, présentes et futures, la sous-détermination des théories interdit de penser que sa structure est une fidèle reflet de la réalité telle qu'elle est. Une autre théorie incompatible peut tout aussi bien "coller", alors qu'en déduire sur la structure de la réalité? Quine n'abandonne cependant pas l'empirisme, mais prône un pragmatisme permettant de considérer la science comme un instrument permettant de s'y retrouver dans l'expérience empirique.


4) Que reste-t-il de l'empirisme logique?


Les difficultés que rencontrent les conceptions des empiristes logiques ne sont pas de simples objections éliminables par de légers aménagements, mais elles sont symptomatiques de maladies plus profondes qui touchent l'essence même du projet fonctionnaliste.

1) Le concept d'énoncés observationnels sur lequel on peut faire reposer de manière sûre l'édifice scientifique ne peut être maintenu. Il semble impossible de faire reposer la science sur l'observation de telle manière qu'aucun doute n'existe quant à ses énoncés de base. Cependant, sur quelle autre base s'appuyer?

2) Le vocabulaire de la science ne peut être réduit à un vocabulaire ne faisant appel qu'à des entités observables. Certains termes comme les prédicats dispositionnels sont irréductibles et leur définition ne peut être donnée formellement de manière satisfaisante. De plus, tous les prédicats descriptifs sont dispositionnels et il faut donc abandonner l'idée de pouvoir traduire quelque terme théorique .que ce soit (comme "champ" ou "électron") en vocabulaire observationnel. La distinction, fondamentale pour les positivistes, entre théorie et observation disparaît et la science n'est pas décomposable entre une partie observationnelle et une partie et une partie théorique. C'est un mélange intime des deux.

3) La possibilité de s'assurer de manière définitive de la vérité d'une théorie doit être abandonnée. Elle doit être considérée au mieux comme une hypothèse à confirmer. Mais le concept même de confirmation est sujet à difficultés.

4) La possibilité de définir un critère définitif permettent au moins de caractériser le discours scientifique par rapport à tout autre type de discours (métaphysique, théologique ou charlatanesque), paraît rencontrer des obstacles insurmontables.

5) Le statut ontologique des objets physiques se voit ramené à celui des chimères, tout juste peut-on considérer qu'il en diffère par une question de degré.

6) Enfin, la possibilité de construire des théories incompatibles, rendant compte aussi bien de l'ensemble des observations possibles, enlève tout espoir de connaître la structure intime de la réalité en supposant que celle de la théorie en est le fidèle reflet.


Les critiques se sont succédées jusque dans les années 1970. A partir de là on assista à la naissance d'une multitude de visions divergentes "prétendant" pallier les défauts du positivisme logique: réhabilitation de l'étude de l'histoire et de la sociologie des sciences qui avaient été écartées par le Cercle de Vienne (Thomas Kuhn), réalisme scientifique (Hilary. Putnam, R. Boyd), théorie anarchiste de la connaissance (P. Fereyabend), relativisme, scepticisme....

On est donc conduit en apparence au dilemme consistant à choisir entre une attitude sceptique (nous ne pouvons fonder rationnellement nos croyances), et un attitude dogmatique consistant à accepter un certains de postulats comme évidents et ne demandant pas à être justifiés (par exemple, croyance que nos théories reflètent la structure du monde).

Les réflexions des épistémologues ultérieurs ainsi que les avancées faites par les scientifiques, loin de donner espoir d'arriver un jour à résoudre ces difficultés, n'ont fait qu'accentuer l'écart entre la certitude qu'on souhaiterait pouvoir attribuer à la science et le statut objectif qu'il convient de lui céder.