Mathématiques incohérentes
Les mathématiques incohérentes sont l'étude d'objets mathématiques courants, comme des ensembles, Nombres, et fonctions, où certaines contradictions sont permises. Des outils issus de la logique formelle sont utilisés pour garantir que toutes les contradictions sont contenues et que les théories globales restent cohérentes.. Les mathématiques incohérentes ont commencé comme une réponse à des paradoxes théoriques et sémantiques tels que le paradoxe de Russell et le paradoxe du menteur – la réponse étant qu’il s’agit de faits intéressants à étudier plutôt que de problèmes à résoudre – et ont jusqu’à présent intéressé principalement les logiciens et les philosophes.. Plus récemment, mais, les techniques des mathématiques incohérentes ont été étendues à des domaines mathématiques plus larges, tels que les espaces vectoriels et la topologie, étudier une structure incohérente pour le plaisir.
Pour être précis, une théorie mathématique est un ensemble de phrases, les théorèmes, qui sont déduits par des preuves logiques. Une contradiction est une phrase avec sa négation, et une théorie est incohérente si elle inclut une contradiction. Les mathématiques incohérentes considèrent les théories incohérentes. Par conséquent, les mathématiques incohérentes nécessitent une attention particulière à la logique. En logique classique, une contradiction est toujours absurde: une contradiction implique tout. Une théorie contenant chaque phrase est triviale. La logique classique rend donc l’incohérence absurde et est inappropriée pour les mathématiques incohérentes.. La logique classique prédit que l'incohérent n'a pas de structure. Une logique paracohérente guide les preuves afin que les contradictions ne conduisent pas nécessairement à la trivialité. Avec une logique paracohérente, les théories mathématiques peuvent être à la fois incohérentes et intéressantes.
Cet article traite des mathématiques incohérentes en tant que programme de recherche actif, avec une partie de son histoire, philosophie, résultats et questions ouvertes.
Table des matières
Introduction
Un exemple
Arrière-plan
Motivations
Points de vue
Méthodes
Preuves
Géométrie
Théorie des ensembles
Arithmétique
Analyse
L'informatique
Références et lectures complémentaires
Lectures complémentaires
Les références
1. Introduction
Les mathématiques incohérentes sont apparues comme discipline indépendante au XXe siècle, grâce aux progrès de la logique formelle. Au XIXe siècle, une grande importance a été accordée à la rigueur formelle des preuves, parce que diverses confusions et contradictions étaient apparues dans l'analyse des nombres réels. Pour remédier à la situation, il fallait examiner en détail le fonctionnement interne des arguments mathématiques.. Les mathématiques ont toujours été conduites à travers des preuves étape par étape, mais la logique formelle était destinée à exercer un degré supplémentaire de contrôle sur les preuves, pour garantir que tous et seulement les résultats souhaités obtiendraient. Diverses reconstructions du raisonnement mathématique ont été avancées.
Une proposition était la logique classique, lancé par Giuseppe Peano, Dieu merci, Frege, et Bertrand Russel. Un autre était la logique paracohérente, né des idées de Jan Łukasiewicz et N. UN. Vasil'ev vers 1910, et réalisé pour la première fois dans son intégralité par Jaśkowski en 1948. Le premier à suggérer la paracohérence comme motif d’incohérence mathématique fut Newton da Costa au Brésil en 1958.. Depuis lors, son école a mené une étude des mathématiques paracohérentes. Une autre école, centré en Australie et le plus associé au nom de Graham Priest, est actif depuis les années 1970. Priest et Richard Routley ont avancé la thèse selon laquelle certaines théories incohérentes ne sont pas seulement intéressantes, mais vrai; c'est du dialectéisme.
Comme n'importe quelle branche des mathématiques, les mathématiques incohérentes sont l'étude de structures abstraites à l'aide de preuves. La logique paracohérente offre un guide de preuve inhabituellement exigeant qui garantit que l'incohérence ne devient pas incontrôlable.. La paracohérence n’est pas une baguette magique ni une panacée. C'est une méthodologie pour un travail acharné. La paracohérence ne fait que nous aider à nous perdre, ou tomber dans des trous, lors de la navigation sur un terrain accidenté.
À. Un exemple
Considérons une collection d'objets. La collection a une certaine taille, le nombre d'objets dans la collection. Considérons maintenant toutes les façons dont ces objets pourraient être recombinés. Par exemple, si nous envisageons la collection {À, b}, alors nous avons quatre recombinaisons possibles: juste un, juste b, les deux, A et B, ou ni a ni b. En général, si une collection a κ membres, il a 2κ recombinaisons. C'est un théorème du XIXe siècle qui dit, même si les collections en question sont infiniment grandes, toujours Monsieur < 2κ, that is, the number of recombinations is always strictly larger than the number of objects in the original collection. This is Georg Cantor’s theorem. Now consider the collection of all objects, the universe, V. This collection has some size, |V|, and quite clearly, being by definition the collection of everything, this size is the absolutely largest size any collection can be. (Any collection is contained in the universe by definition, and so is no bigger than the universe.) By Cantor’s theorem, though, the number of recombinations of all the objects exceeds the original number of objects. So the size of the recombinations is both larger than, and cannot be larger than, the universe, This is Cantor’s paradox. Inconsistent mathematics is unique in that, if rigorously argued, Cantor’s paradox is a theorem. 2. Background a. Motivations There are at least two reasons to take an interest in inconsistent mathematics, which roughly fall under the headings of pure and applied. The pure reason is to study structure for its own sake. Whether or not it has anything to do with physics, for example, Reimann geometry is beautiful. If the ideas displayed in inconsistent mathematics are rich and elegant and support unexpected developments that make deep connections, then people will study it. G. H. Hardy’s A Mathematician’s Apology (1940) makes a stirring case that pure mathematics is inherently worth doing, and inconsistent mathematics provides some panoramic views not available anywhere else. The applied reasons derive from a longstanding project at the foundations of mathematics. Around 1900, David Hilbert proposed a program to ensure mathematical security. Hilbert wanted: to formalize all mathematical reasoning into an exact notation with algorithmic rules; to provide axioms for all mathematical theories, such that no contradictions are provable (consistency), and all true facts are provable (completeness). Hilbert’s program was (in part) a response to a series of conceptual crises and responses from ancient Greece through Issac Newton and G. W. Leibniz (see section 6 below) to Cantor. Each crisis arose due to the imposition of some objects that did not behave well in the theories of the day—most dramatically in Russell’s paradox, which seems to be about logic itself. The inconsistency would not have been such trouble, except the logic employed at that time was explosive: From a contradiction, anything at all can be proved, so Russell’s paradox was a disaster. In 1931, Kurt Gödel’s theorems showed that consistency is incompatible with completeness, that any complete foundation for mathematics will be inconsistent. Hilbert’s program as stated is dead, and with it even more ambitious projects like Frege-Russell logicism. The failure of completeness was hard to understand. Hilbert and many others had felt that any mathematical question should be amenable to a mathematical answer. The motive to inconsistency, then, is that an inconsistent theory can be complete. In light of Gödel’s result, an inconsistent foundation for mathematics is the only remaining candidate for completeness. b. Perspectives There are different ways to view the place of inconsistent mathematics, ranging from the ideological to the pragmatic. The most extreme view is that inconsistent mathematics is a rival to, or replacement for, classical consistent mathematics. This seems to have been Routley’s intent. Routley wanted to perfect an “ultramodal universal logic,” which would be a flexible and powerful reasoning tool applicable to all subjects and in all situations. Routley argued that some subjects and situations are intractably inconsistent, and so the universal logic would be paraconsistent. He wanted such a logic to underly not only set theory and arithmetic, but metaphysics, ecology and economics. (For example, Routley and Meyer [1976] suggest that our economic woes are caused by using classical logic in economic theory.) Rotuley (1980, p.927) writes: There are whole mathematical cities that have been closed off and partially abandoned because of the outbreak of isolated contradictions. They have become like modern restorations of ancient cities, mostly just patched up ruins visited by tourists. In order to sustain the ultramodal challenge to classical logic it will have to be shown that even though leading features of classical logic and theories have been rejected, … by going ultramodal one does not lose great chunks of the modern mathematical megalopolis. … The strong ultramodal claim—not so far vindicated—is the expectedly brash one: we can do everything you can do, only better, and we can do more. A more restrained, but still unorthodox, view is of inconsistency as a non-revisionary extension of classical theory. There is nothing wrong with the classical picture of mathematics, says a proponent of this position, except if we think that the classical picture exhausts all there is to know. A useful analogy is the extension of the rational numbers by the irrational numbers, to get the real numbers. Rational numbers are not wrong; they are just not all the numbers. This moderate line is found in Priest’s work. As articulated by da Costa (1974, p.498): It would be as interesting to study the inconsistent systems as, for instance, the non-euclidean geometries: we would obtain a better idea of the nature of certain paradoxes, could have a better insight on the connections amongst the various logical principles necessary to obtain determinate results, etc. In a similar vein, Chris Mortensen argues that many important questions about mathematics are deeper than consistency or completeness. A third view is even more open-minded. This is to see all theories (within some basic constraints) as genuine, interesting and useful for different purposes. Jc Beall and Greg Restall have articulated a version of this view at length, which they call logical pluralism. c. Methods There are at least two ways to go about mathematical research in this field. The first is axiomatic. The second is model theoretic. The axiomatic approach is very pure. We pick some axioms and inference rules, some starting assumptions and a logic, and try to prove some theorems, with the aim of producing something on the model of Euclid, or Russell and A. N. Whitehead’s Principia Mathematica. This would be a way of obtaining results in inconsistent mathematics independently, as if we were discovering mathematics for the first time. On the axiomatic approach there is no requirement that the same theorems as classical mathematics be proved. The hardest work goes into choosing a logic that is weak enough to be paraconsistent, but strong enough to get results, and formulating the definitions and starting assumptions in a way that is compatible with the logic. Little work has so far been done using axiomatics. By far more attention has been given to the model theoretic approach, because it allows inconsistent theories to “ride on the backs” of already developed consistent theories. The idea here is to build up models—domains of discourse, along with some relations between the objects in the domain, and an interpretation—and to read off facts about the attached theory. A way to do this is to take a model from classical mathematics, and to tinker with the interpretation, as in collapsed models of arithmetic (section 5 below). The model theoretic approach shows how different logics interact with different mathematical structures. Mortensen has followed through on this in a wide array of subjects, from the differential calculus to vector spaces to topology to category theory, always asking: Under what conditions is identity well-behaved? Let Φ(a) be some sentence about an object a. Mortensen’s question is, if a = b holds in a theory, then is it the case that Φ(a) exactly when Φ(b)? It turns out that the answer to this question is extremely sensitive to small changes in logic and interpretations, and the answer can often be “no.” Most of the results obtained to date have been through the model theoretic approach, which has the advantage of maintaining a connection with classical mathematics. The model theory approach has the same disadvantage, since it is unlikely that radically new or robustly inconsistent ideas will arise from always beginning at classical ideas. d. Proofs It is often thought that inconsistent mathematics faces a grave problem. A very common mathematical proof technique is reductio ad absurdum. The concern, then, is that if contradictions are not absurd—a fortiori, if a theory has contradictions in it—then reductio is not possible. How can mathematics be done without the most common sort of indirect proof? The key to working inconsistent mathematics is its logic. Much hinges on which paraconsistent logic we are using. For instance, in da Costa’s systems, if a proposition is marked as “consistent,” then reductio is allowed. Similarly, in most relevance logics, contraposition holds. And so forth. The reader is recommended to the bibliography for information on paraconsistent logic. Independently of logic, the following may help. In classical logic, all contradictions are absurd; in a paraconsistent logic this is not so. But some things are absurd nevertheless. Classically, contradiction and absurdity play the same role, of being a rejection device, a reason to rule out some possibility. In inconsistent mathematics, there are still rejection devices. Anything that leads to a trivial theory is to be rejected. More, suppose we are doing arithmetic and hypothesize that Φ. But we find that Φ has as a consequence that j=k for every number j, k. Now, we are looking for interesting inconsistent structure. This may not be full triviality, but 0 = 1 is nonsense. Reject Φ. There are many consistent structures that mathematicians do not, and will never, investigate, not by force of pure logic but because they are not interesting. Inconsistent mathematicians, irrespective of formal proof procedures, do the same. 3. Geometry Intuitively, M. C. Escher’s “Ascending, Descending” is a picture of an impossible structure—a staircase that, if you walked continuously along it, you would be going both up and down at the same time. Such a staircase may be called impossible. The structure as a whole seems to present us with an inconsistent situation; formally, defining down as not up, then a person walking the staircase would be going up and not up, at the same time, in the same way, a contradiction. Nevertheless, the picture is coherent and interesting. What sorts of mathematical properties does it have? The answers to this and more would be the start of an inconsistent geometry. So far, the study has focused on the impossible pictures themselves. A systematic study of these pictures is being carried out by the Adelaide school. Two main results have been obtained. First, Bruno Ernst conjectured that one cannot rotate an impossible picture. This was refuted in 1999 by Mortensen; later, Quigley designed computer simulations of rotating impossible Necker cubes. Second, all impossible pictures have been given a preliminary classification of four basic forms: Necker cubes, Reutersvärd triangles, Schuster pipes or fork, and Ernst stairs. It is thought that these forms exhaust the universe of impossible pictures. If so, an important step towards a fuller geometry will have been taken, since, for example, a central theme in surface geometry is to classify surfaces as either convex, flat, or concave. Most recently, Mortensen and Leishman (2009) have characterized Necker cubes, including chains of Neckers, using linear algebra. Otherwise, algebraic and analytic methods have not yet been applied in the same way they have been in classical geometry. Inconsistent equational expressions are not at the point where a robust answer can be given to questions of length, area, volume etc. On the other hand, as the Adelaide school is showing, the ancient Greeks do not have a monopoly on basic “circles drawn in sand” geometric discoveries. 4. Set Theory Set theory is one of the most investigated areas in inconsistent mathematics, perhaps because there is the most consensus that the theories under study might be true. It is here we have perhaps the most important theorem for inconsistent mathematics, Ross Brady’s (2006) proof that inconsistent set theory is non-trivial. Set theory begins with two basic assumptions, about the existence and uniqueness of sets: A set is any collection of objects all sharing some property Φ; Sets with exactly the same members are identical. These are the principles of comprehension (a.k.a. abstraction) and extensionality, respectively. In symbols, x ∈ {z : Φ(z)} ↔ Φ(x); x = y ↔ ∀z (z ∈ x ↔ z ∈ y). Again, these assumptions seem true. When the first assumption, the principle of comprehension, was proved to have inconsistent consequences, this was felt to be highly paradoxical. The inconsistent mathematician asserts that a theory implying an inconsistency is not automatically equivalent to a theory being wrong. Newton da Costa was the first to develop an openly inconsistent set theory in the 1960s, based on Alonzo Church’s set theory with a universal set, or what is similar, W. V. O. Quine’s new foundations. In this system, axioms like those of standard set theory are assumed, along with the existence of a Russell set R = {x : x ∉ x} and a universal set V = {x : x = x}. Da Costa has defined “russell relations” and extended this foundation to model theory, arithmetic and analysis. Note that V ∈ V, since V = V. This shows that some sets are self-membered. This also means that V ≠ R, by the axiom of extensionality. On the other hand, in perhaps the first truly combinatorial theorem of inconsistent mathematics, Arruda and Batens (1982) proved where ∪R is the union of R, the set of all the members of members of R. This says that every set is a member of a non-self-membered set. The Arruda-Batens result was obtained with a very weak logic, and shows that there are real set theoretical theorems to be learned about inconsistent objects. Arruda further showed that where P (X) denotes all the subsets of X and ⊆ is the subset relation. Routley, meanwhile, in 1977 took up his own dialetheic logic and used it on a full comprehension principle. Routley went as far as to allow a comprehension principle where the set being defined could appear in its own definition. A more mundane example of a set appearing in its own defining condition could be the set of “critics who only criticize each other.” One of Routley’s examples is the ultimate inconsistent set, x ∈ Z ↔ x ∉ Z. Routley indicated that the usual axioms of classical set theory can be proven as theorems—including a version of the axiom of choice—and began work towards a full reconstruction of Cantorian set theory. The crucial step in the development of Routley’s set theory came in 1989 when Brady adapted an idea from 1971 to produce a model of dialetheic set theory, showing that it is not trivial. Brady proves that there is a model in which all the axioms and consequences of set theory are true, including some contradictions like Russell’s, but in which some sentences are not true. By the soundness of the semantics, then, some sentences are not provable, and the theory is decidedly paraconsistent. Since then Brady has considerably refined and expanded his result. A stream of papers considering models for paraconsistent set theory has been coming out of Europe as well. Olivier Esser has determined under what conditions the axiom of choice is true, for example. See Hinnion and Libert (2008) for an opening into this work. Classical set theory, it is well known, cannot answer some fundamental questions about infinity, Cantor’s continuum hypothesis being the most famous. The theory is incomplete, just as Gödel predicted it would be. Inconsistent set theory, on the other hand, appears to be able to answer some of these questions. For instance, consider a large cardinal hypothesis, that there are cardinals λ such that for any κ < λ, also 2κ < λ. The existence of large cardinals is undecidable by classical set theory. But recall the universe, as we did in the introduction (section 1), and its size |V|. Almost obviously, |V| is such large a cardinal, just because everything is smaller than it. Taking the full sweep of sets into account, the hypothesis is true. Set theory is the lingua franca of mathematics and the home of mathematical study of infinity. Since Zeno’s paradoxes it has been obvious that there is something paradoxical about infinity. Since Russell’s paradox, it has been obvious that there is something paradoxical about set theory. So a rigorously developed paraconsistent set theory serves two purposes. First, it provides a reliable (inconsistent) foundation for mathematics, at least in the sense of providing the basic toolkit for expressing mathematical ideas. Second, the mathematics of infinity can be refined to cover the inconsistent cases like Cantor’s paradox, and cases that have yet to be considered. See the references for what has been done in inconsistent set theory so far; what can be still be done in remains one of the discipline’s most exciting open questions. 5. Arithmetic An inconsistent arithmetic may be considered an alternative or variant on the standard theory, like a non-euclidean geometry. Like set theory, though, there are some who think that an inconsistent arithmetic may be true, for the following reason. Gödel, in 1931, found a true sentence G about numbers such that, if G can be decided by arithmetic, then arithmetic is inconsistent. This means that any consistent theory of numbers will always be an incomplete fragment of the whole truth about numbers. Gödel’s second incompleteness theorem states that, if arithmetic is consistent, then that very fact is unprovable in arithmetic. Gödel’s incompleteness theorems state that all consistent theories are terminally unable to process everything that we know is true about the numbers. Priest has argued in a series of papers that this means that the whole truth about numbers is inconsistent. The standard axioms of arithmetic are Peano’s, and their consequences—the standard theory of arithmetic—is called P A. The standard model of arithmetic is N = {0, 1, 2, …}, zero and its successors. N is a model of arithmetic because it makes all the right sentences true. In 1934 Skolem noticed that there are other (consistent) models that make all the same sentences true, but have a different shape—namely, the non-standard models include blocks of objects after all the standard members of N. The consistent non-standard models are all extensions of the standard model, models containing extra objects. Inconsistent models of arithmetic are the natural dual, where the standard model is itself an extension of a more basic structure, which also makes all the right sentences true. Part of this idea goes back to C. F. Gauss, who first introduced the idea of a modular arithmetic, like that we use to tell the time on analog clocks: On a clock face, 11 + 2 = 1, since the hands of the clock revolve around 12. In this case we say that 11 + 2 is congruent to 1 modulo 12. An important discovery in the late 19th century was that arithmetic facts are reducible to facts about a successor relation starting from a base element. In modular arithmetic, a successor function is wrapped around itself. Gauss no doubt saw this as a useful technical device. Inconsistent number theorists have considered taking such congruences much more seriously. Inconsistent arithmetic was first investigated by Robert Meyer in the 1970’s. There he took the paraconsistent logic R and added to it axioms governing successor, addition, multiplication, and induction, giving the system R#. In 1975 Meyer proved that his arithemtic is non-trivial, because R# has models. Most notably, R# has finite models with a two element domain {0, 1}, with the successor function moving in a very tight circle over the elements. Such models make all the theorems of R# true, but keep equations like 0 = 1 just false. The importance of such finite models is just this: The models can be represented within the theory itself, showing that a paraconsistent arithmetic can prove its own non-triviality. In the case of Meyer’s arithemetic, R# has a finitary consistency proof, formalizable in R#. Thus, in non-classical contexts, Gödel’s second incompleteness theorem loses its bite. Since 1976 relevance logicians have studied the relationship between R# and PA. Their hope was that R# contains PA as a subtheory and could replace PA as a stronger, more genuine arithmetic. The outcome of that project for our purposes is the development of inconsistent models of arithmetic. Following Dunn, Meyer, Mortensen, and Friedman, these models have now been extensively studied by Priest, who bases his work not on the relevant logic R but on the more flexible logic LP. Priest has found inconsistent arithmetic to have an elegant general structure. Rather than describe the details, here is an intuitive example. We imagine the standard model of arithmetic, up to an inconsistent element n = n + 1. This n is suspected to be a very, very large number, “without physical reality or psychological meaning.” Depending on your tastes, it is the greatest finite number or the least inconsistent number. We further imagine that for j, k > est, nous avons j=k. Si dans le modèle classique j≠ k, alors c'est vrai aussi; nous avons donc une incohérence, j=k et j≠ k. Tout fait vrai pour les nombres supérieurs à n est vrai pour n, aussi, parce qu'après n, tous les nombres sont identiques à n. Aucun fait du modèle cohérent n'est perdu. Cette technique donne un modèle arithmétique réduit.
Soit T toutes les phrases du langage arithmétique qui sont vraies de N; alors laissez T(est) de même, toutes les phrases des nombres jusqu'à n sont vraies, une théorie des nombres incohérente. Depuis t(est) ne contredit pas T à propos des nombres inférieurs à n, if n > 0 then T(est) n'est pas trivial. (Cela ne prouve pas 0 = 1, par exemple.) Les phrases de T(est) sont représentables dans T(est), et son langage contient un prédicat de vérité pour T(est). La théorie peut s'avérer valable. La phrase de Gödel pour T(est) est prouvable dans T(est), tout comme sa négation, donc la théorie est incohérente. Pourtant, comme Meyer l'a prouvé, la non-trivialité de T(est) peut être établi dans T(est) par une procédure finie.
Le plus frappant en ce qui concerne le programme de Hilbert, il y a un moyen, en principe, déterminer pour toute phrase arithmétique Φ si Φ est vrai ou non, juste en vérifiant tous les nombres jusqu'à n. Cela signifie que T(est) est décidable, et qu'il doit y avoir des axiomes garantis pour fournir toute la vérité sur le modèle effondré. Cela signifie qu'une arithmétique incohérente est cohérente et complète..
6. Analyse
Newton et Leibniz ont développé indépendamment le calcul au XVIIe siècle. Ils ont présenté des solutions ingénieuses à des problèmes en suspens (taux de changement, zones sous courbes) utiliser des quantités infinitésimales. Considérons une courbe et une tangente à la courbe. L'intersection de la ligne tangente et de la courbe peut être considérée comme un point. Si la courbe est la trajectoire d'un objet en mouvement, ce point est un instant de changement. Mais un peu de réflexion montre que cela doit être un peu plus qu'un point, sinon, comme mesure, un taux de changement, il n'y aurait aucun changement, pas plus qu'une photographie n'est en mouvement. Il doit y avoir une tache. D'autre part, l'instant doit être inférieur à toute quantité finie, parce qu'il existe une infinité d'instants de ce type. Un infinitésimal respecterait ces deux préoccupations, et avec ceux-ci fournis, un cercle pourrait être interprété comme une infinité de segments tangents infinitésimaux.
Les infinitésimaux étaient essentiels, non seulement pour construire les étapes conceptuelles de l'invention du calcul, mais pour obtenir les bonnes réponses. Pourtant, il a été souligné, le plus célèbre est l'évêque George Berkeley, que les infinitésimaux étaient mal compris et étaient utilisés de manière incohérente dans les équations. Le calcul dans sa forme originale était carrément incohérent. Voici un exemple. Supposons que nous différencions le polynôme f(X) =ax2+bx+c. Utiliser la définition originale d'un dérivé,
Dans l'exemple, ε est un infinitésimal. Il marque un quartier petit mais non trivial autour de x, et peut être divisé par, donc ce n'est pas nul. Néanmoins, à la fin ε a tout simplement disparu. Cet exemple suggère que la logique paracohérente est plus qu'un dispositif technique utile. L'exemple montre que Leibniz raisonnait avec des informations contradictoires, et pourtant je n'ai pas tout déduit. Au contraire, il a eu la bonne réponse. Il ne s'agit pas non plus d'un incident isolé. Les mathématiciens semblent capables de trier le « bruit » et d’en tirer des vérités intéressantes, même à partir d'ensembles de données contradictoires. Pour capturer cela, Brown et prêtre (2004) ont développé une méthode qu'ils appellent « chunk and permeate » pour modéliser le raisonnement dans les premiers calculs. L'idée est de prendre toutes les informations, y compris disons ε = 0 et ε ≠ 0, et divisez-le en petits morceaux. Chaque morceau est cohérent, sans informations contradictoires, et on peut raisonner en utilisant la logique classique à l'intérieur d'un morceau. Ensuite, une relation de perméation est définie qui contrôle le flux d'informations entre les morceaux.. Tant que la relation de perméation est soigneusement définie, les conclusions obtenues dans un segment peuvent être transmises à un autre segment et y entrer dans des chaînes de raisonnement. Brown et Priest proposent ceci comme modèle, ou reconstruction rationnelle, de ce que faisaient Newton et Leibniz.
Un autre, Une approche plus directe pour les mathématiques incohérentes consiste à travailler avec des nombres infinitésimaux eux-mêmes. Il existe des théories classiques des infinitésimaux dues à Abraham Robinson (les hyperréels), et J. H. Conway (les surréalistes). Mortensen a travaillé avec des équations différentielles utilisant des hyperréels. Une autre approche est issue de la théorie des catégories. Petits segments de ligne (« lignelets ») de longueur ϵ sont considérés, tel que ϵ2 = 0 mais il n’est pas vrai que ϵ = 0. Dans cette théorie, il n’est pas non plus vrai que ϵ ≠ 0, donc la loi logique du tiers exclu échoue. L'approche de la théorie des catégories ressemble le plus aux mathématiques incohérentes, alors, car cela implique un changement de logique. Toutefois, la manière la plus évidente d'utiliser des linelets avec des logiques paracohérentes, dire que ϵ = 0 et ϵ ≠ 0 sont vrais, signifie que nous divisons par 0 et c'est donc probablement trop grossier pour travailler.
En général, le concept de continuité est riche en développements incohérents. Moments de changement, l'écoulement du temps, et les frontières mêmes qui séparent les objets ont toutes été considérées du point de vue des mathématiques incohérentes..
7. L'informatique
Les questions posées par David Hilbert peuvent être formulées dans un langage très moderne:
Existe-t-il un programme informatique pour décider, pour toute instruction arithmétique, si la déclaration peut être prouvée ou non? Y a-t-il un programme pour décider, pour toute instruction arithmétique, si la déclaration est vraie ou non? Nous avons déjà vu que les théorèmes de Gödel ont dévasté le programme de Hilbert, répondre à ces questions par la négative. Toutefois, nous avons également vu qu’une arithmétique incohérente l’emporte sur les résultats de Gödel et peut donner une réponse positive à ces questions. Il est naturel d'étendre ces idées à l'informatique.
Le programme de Hilbert requiert certains algorithmes – une procédure étape par étape qui peut être exécutée sans perspicacité ni créativité.. Une machine de Turing exécute des programmes, dont certains s'arrêtent après un nombre fini d'étapes, et dont certains continuent de fonctionner pour toujours. Existe-t-il un programme E qui puisse nous dire à l'avance si un programme donné s'arrêtera ou non? S'il y a, alors considérons le programme E*, qui existe si E existe en le définissant comme suit. Lorsque l'on considère un programme x, E* s'arrête si et seulement si x continue de fonctionner lorsqu'on lui donne l'entrée x. Alors
E* s'arrête pour E*
si et seulement si
E* ne s'arrête pas pour E*,
ce qui implique une contradiction. Turing a conclu qu'il n'y a pas de E*, et donc il n'y a pas de E — qu'il ne peut pas y avoir de procédure de décision générale.
Tout programme capable de décider à l'avance du comportement de tous les autres programmes sera incohérent..
Un système paracohérent peut parfois produire des contradictions en sortie, alors que sa procédure reste complètement déterministe. (Ce n’est pas que la machine produise ou ne produise pas occasionnellement un résultat.) Il y a, en principe, aucune raison pour laquelle un programme de décision ne peut pas exister. Richard Sylvan identifie comme idée centrale de la théorie de la calculabilité paracohérente le développement de machines « pour calculer des fonctions diagonales qui sont classiquement considérées comme non calculables ». Il discute d'un certain nombre de possibilités riches pour une approche non classique des algorithmes., incluant un résultat à virgule fixe sur l'ensemble de toutes les fonctions algorithmiques, et un prototype de machines dialecthéiques.
Des résultats importants ont été obtenus par l'école paracohérente au Brésil – da Costa et Doria en 1994, et Agudelo et Carnielli en 2006. Comme le calcul quantique, mais, à l'heure actuelle, la théorie des machines paracohérentes dépasse le matériel. Des machines capables de calculer plus que les machines de Turing attendent les progrès de la physique.
8. Références et lectures complémentaires
À. Lectures complémentaires
Le prêtre en contradiction (2006) est le meilleur endroit pour commencer. La deuxième édition contient des informations sur la théorie des ensembles, continuité, et arithmétique incohérente (résumer des documents précédemment publiés dans des articles). Une critique de l'arithmétique incohérente se trouve dans Shapiro (2002). Le livre de Franz Berto, Comment vendre une contradiction (2007), est plus difficile à trouver, mais aussi une excellente introduction peut-être plus douce.
Certaines des mathématiques paracohérentes de Da Costa sont résumées dans l’intéressant recueil Frontiers of Paraconsistency. (2000)— les actes d'un congrès mondial sur la paracohérence édités par Batens et al. Plus de détails sont dans la Philosophie de la Logique de Jacquette (2007) manuel; L’article de Beall dans ce volume couvre les questions de vérité et d’incohérence..
Ceux qui souhaitent des sujets mathématiques plus avancés devraient consulter les mathématiques incohérentes de Mortensen. (1995). Pour une géométrie impossible, ses récents articles avec Leishman sont une avancée prometteuse. Le site Internet de son école vaut bien une visite. La logique universelle de Brady (2006) est la théorie des ensembles paracohérentes la plus élaborée à ce jour, mais pas pour les âmes sensibles.
Si tu peux le trouver, lire l'article fondateur de Routley, « Ultralogique comme universel?”, réimprimé en annexe de son magnum opus, Explorer la jungle de Meinong (1980). Avant que trop de confusion ne surgisse, notons que Richard Routley et Richard Sylvan, dont les travaux posthumes sont rassemblés par Hyde et Priest dans Sociative Logics and Their Applications (2000), dans un exploit altruiste d'incohérence, sont la même personne.
Pour le mode d'emploi des logiques paracohérentes, consulter à la fois l'entrée sur la pertinence et la paracohérence dans Gabbay & Manuel de logique philosophique de Günthner, volume 6 (2002), ou le manuel de Priest Une introduction à la logique non classique (2008). Pour la logique paracohérente et sa philosophie plus généralement, voir Routley, Collection éditée par Priest et Norman en 1989. La collection La Loi de Non-Contradiction (Priest et al. 2004) discute de la philosophie de la paracohérence, tout comme Priest's Doubt Truth be a Liar (2006).
Pour les problèmes philosophiques plus larges associés aux mathématiques incohérentes, surtout dans les applications (par exemple, conséquences pour les débats sur le réalisme et l'antiréalisme), voir Mortensen (2009a) et Colyvan (2009).
b. Les références
Rue, UN. je. & Lattes, D. (1982). "L'ensemble de Russell contre l'ensemble universel dans la théorie des ensembles paracohérents." Logique et Analyse, 25, pp. 121-133.
Lattes, D., Mortensen, C. , Prêtre, G., & j'ai un patient, J-P., eds. (2000). Frontières de la logique paracohérente. Éditeurs académiques Kluwer.
Berto, Francesco (2007). Comment vendre une contradiction. Études de logique v. 6. Publications du Collège.
Brady, Ross (2006). Logique universelle. Publications du CSLI.
Brun, Bryon & Prêtre, g. (2004). "Morceau et imprégnation je: le calcul infinitésimal. Journal de logique philosophique, 33, pp. 379-88.
Colyvan, Marquer (2008). «Les engagements ontologiques de théories incohérentes.» Études philosophiques, 141(1):115 – 23, Octobre.
Colyvan, Marquer (2009). « Appliquer des mathématiques incohérentes," en O. Bueno et Ø. Linnébo (éd.), Nouvelles vagues en philosophie des mathématiques, Palgrave MacMillan, pp. 160-72
de la côte, Newton C.. UN. (1974). « Sur la théorie des systèmes formels incohérents. » Notre Dame Journal de logique formelle, 15, pp. 497-510.
de la côte, Newton C.. UN. (2000). Mathématiques paracohérentes. Dans Batens et coll.. 2000, pp. 165-180.
de la côte, Newton C.A., Krause, Décio & Bon, Ot´avio (2007). «Logiques paracohérentes et paracohérence.» Dans Jacquette 2007, pp. 791 – 912.
Jacasseur, Dov M. & Gunthner, F. eds. (2002). Manuel de logique philosophique, 2e édition, tome 6, Intelligent.
Hinnion,Roland & Libert, Thierry (2008). «Modèles topologiques pour la théorie extensionnelle des ensembles partiels.» Notre Dame Journal de logique formelle, 49(1).
Hyde, Dominique & Prêtre, G., eds. (2000). Logiques sociatives et leurs applications: Essais de feu Richard Sylvan. Porte des cendres.
Jacquette, Vallée, éd. (2007). Philosophie de la logique. Elsevier: Hollande du Nord.
Libert, Thierry (2004). «Modèles pour la théorie des ensembles paracohérents.» Journal de logique appliquée, 3.
Mortensen, Chris (1995). Mathématiques incohérentes. Éditeurs académiques Kluwer.
Mortensen, Chris (2009a). « Des mathématiques incohérentes: Quelques implications philosophiques. En addition. Irvine, éd., Manuel de philosophie des sciences Volume 9: Philosophie des mathématiques. Hollande du Nord/Elsevier.
Mortensen, Chris (2009b). « Représentation algébrique linéaire des cubes de Necker II: Le foncteur routley et les chaînes necker. Journal australasien de logique, 7.
Mortensen, Chris & Leishman, Steve (2009). « Représentation algébrique linéaire des cubes de Necker I: La caisse folle. Journal australasien de logique, 7.
Prêtre, Graham, Être tout, J.C. & Armure, B., eds. (2004). La loi de non-contradiction. Oxford: Presse Clarendon.
Prêtre, Graham (1994). "L'arithmétique est-elle cohérente?" Esprit, 103.
Prêtre, Graham (2000). « Modèles arithmétiques incohérents, II: Le cas général. Journal de logique symbolique, 65, pp. 1519-29.
Prêtre, Graham (2002). «Logique paracohérente.» Chez Gabbay et Günthner, eds. 2002, pp. 287-394.
Prêtre, Graham (2006a). Le doute sur la vérité est un menteur. Presse universitaire d'Oxford.
Prêtre, Graham (2006b). En contradiction: Une étude du transcohérent. Presse universitaire d'Oxford. deuxième édition.
Prêtre, Graham (2008). Une introduction à la logique non classique. la presse de l'Universite de Cambridge, deuxième édition.
Prêtre, Graham, Routley, R. & normand, J. eds. (1989). Logique paracohérente: Essais sur l'incohérent. Éditions de philosophie.
Routley, Richard (1977). « L’ultralogique comme universel?» Newsletter Pertinence Logic, 2, pp. 51-89. Réimprimé dans Routley 1980.
Routley, Richard (1980). «Explorer la jungle de Meinong et au-delà.» Département de philosophie, RSSS, Université nationale australienne, 1980. Édition intermédiaire, Monographie départementale numéro 3.
Routley, Richard & Meyer, R. K. (1976). « Logique dialectique, logique classique et cohérence du monde. Études sur la pensée soviétique, 16, pp. 1 à 25.
Shapiro, Stewart (2002). « Incomplétude et incohérence. » Esprit, 111, pp. 817 – 832.
Informations sur l’auteur
Zach Weber
Messagerie: [email protected]
Université de Sydney, Université de Melbourne
Australie