simplicity-in-the-philosophy-of-science

Einfachheit in der Wissenschaftstheorie

Einfachheit in der Wissenschaftstheorie

Die Ansicht, dass Einfachheit in wissenschaftlichen Theorien eine Tugend ist und dass, unter sonst gleichen Bedingungen, Der Grundsatz, dass einfachere Theorien komplexeren vorgezogen werden sollten, wurde in der Geschichte der Wissenschaft und Philosophie weithin vertreten, und es bleibt bei modernen Wissenschaftlern und Wissenschaftsphilosophen weit verbreitet. Es wird oft „Ockhams Rasiermesser“ genannt. Die Behauptung lautet, dass Einfachheit eines der Schlüsselkriterien für die Bewertung und Auswahl konkurrierender Theorien sein sollte, neben Kriterien wie Konsistenz mit den Daten und Kohärenz mit akzeptierten Hintergrundtheorien. Einfachheit, in diesem Sinne, wird oft ontologisch verstanden, im Hinblick darauf, wie einfach eine Theorie die Natur als Wesen darstellt – zum Beispiel, Man könnte sagen, eine Theorie sei einfacher als eine andere, wenn sie die Existenz weniger Einheiten voraussetzt, Ursachen, oder Prozesse in der Natur, um die empirischen Daten zu berücksichtigen. Aber, Einfachheit kann beispielsweise auch im Hinblick auf verschiedene Merkmale der Art und Weise verstanden werden, wie Theorien die Natur erklären, Man könnte sagen, dass eine Theorie einfacher ist als eine andere, wenn sie weniger einstellbare Parameter enthält, wenn es weniger irrelevante Annahmen hervorruft, oder wenn es eine einheitlichere Erklärung der Daten liefert.

Es wird allgemein angenommen, dass Präferenzen für einfachere Theorien in vielen wichtigen Episoden der Wissenschaftsgeschichte eine zentrale Rolle gespielt haben. Überlegungen zur Einfachheit gelten auch als integraler Bestandteil vieler Standardmethoden, die Wissenschaftler verwenden, um Hypothesen aus empirischen Daten abzuleiten, Das häufigste Beispiel dafür ist die Praxis der Kurvenanpassung. In der Tat, Einige Philosophen haben argumentiert, dass eine systematische Ausrichtung auf einfachere Theorien und Hypothesen ganz allgemein ein grundlegender Bestandteil des induktiven Denkens ist.

Aber, obwohl die Legitimität der Wahl zwischen konkurrierenden wissenschaftlichen Theorien aus Gründen der Einfachheit häufig als selbstverständlich angesehen wird, oder als selbstverständlich angesehen werden, Diese Praxis wirft eine Reihe sehr schwieriger philosophischer Probleme auf. Eine häufige Sorge besteht darin, dass Vorstellungen von Einfachheit vage erscheinen, und Urteile über die relative Einfachheit bestimmter Theorien erscheinen unwiderruflich subjektiv. So, Ein Problem besteht darin, genauer zu erklären, was es bedeutet, dass Theorien einfacher sind als andere und wie, wenn überhaupt, Die relative Einfachheit von Theorien kann objektiv gemessen werden. Außerdem, auch wenn wir klarer darüber werden können, was Einfachheit ist und wie sie zu messen ist, Es bleibt das Problem, die Begründung zu erklären, wenn überhaupt, Aus Gründen der Einfachheit können Möglichkeiten zur Wahl zwischen konkurrierenden wissenschaftlichen Theorien vorgesehen werden. Zum Beispiel, Haben wir irgendeinen Grund zu der Annahme, dass einfachere Theorien eher wahr sind??

Dieser Artikel gibt einen Überblick über die Debatte um Einfachheit in der Wissenschaftsphilosophie. Abschnitt 1 veranschaulicht die mutmaßliche Rolle von Einfachheitsüberlegungen in der wissenschaftlichen Methodik, Darin werden einige gemeinsame Ansichten von Wissenschaftlern zu diesem Thema dargelegt, verschiedene Formulierungen von Ockhams Rasiermesser, und einige häufig zitierte Beispiele für Einfachheit in der Geschichte und aktuellen Praxis der Wissenschaft. Abschnitt 2 beleuchtet die umfassendere Bedeutung der philosophischen Fragen rund um die Einfachheit für zentrale Kontroversen in der Wissenschaftsphilosophie und Erkenntnistheorie. Abschnitt 3 skizziert die Herausforderungen, vor denen das Projekt steht, wenn es darum geht, theoretische Einfachheit genau zu definieren und zu messen, und es untersucht die führenden Messgrößen für Einfachheit und Komplexität, die derzeit auf dem Markt sind. Endlich, Abschnitt 4 gibt einen Überblick über die Vielfalt der Versuche, die unternommen wurden, um die Praxis der Wahl zwischen konkurrierenden Theorien aus Gründen der Einfachheit zu rechtfertigen.

Inhaltsverzeichnis
Die Rolle der Einfachheit in der Wissenschaft
Ockhams Rasiermesser
Beispiele für Einfachheitspräferenzen in der Wissenschaftsgeschichte
Newtons Argument für die universelle Gravitation
Andere Beispiele
Einfachheit und induktive Folgerung
Einfachheit in Statistik und Datenanalyse
Umfassendere philosophische Bedeutung von Fragen rund um die Einfachheit
Einfachheit definieren und messen
Syntaktische Maßnahmen
Goodmans Maß
Einfachheit als Testbarkeit
Nüchternes Maß
Thagards Maß
Informationstheoretische Maßnahmen
Ist Einfachheit ein einheitliches Konzept??
Begründung der Präferenzen für einfachere Theorien
Einfachheit als Indikator für Wahrheit
Die Natur ist einfach
Metainduktive Vorschläge
Bayesianische Vorschläge
Einfachheit als grundlegendes A-priori-Prinzip
Alternative Begründungen
Widerlegbarkeit
Einfachheit als erklärende Tugend
Vorhersagegenauigkeit
Effizienz bei der Wahrheitsfindung
Deflationäre Ansätze
Abschluss
Referenzen und weiterführende Literatur
1. Die Rolle der Einfachheit in der Wissenschaft

Es gibt viele Möglichkeiten, Einfachheit als wünschenswertes Merkmal wissenschaftlicher Theorien zu betrachten. Einfachere Theorien gelten häufig als „schöner“ oder „eleganter“ als ihre Konkurrenten; Möglicherweise sind sie auch leichter zu verstehen und leichter zu bearbeiten. Aber, nach Ansicht vieler Wissenschaftler und Philosophen, Einfachheit ist nicht nur etwas, was man in Theorien erhoffen kann; Es ist auch nichts, was wir erst dann anstreben sollten, wenn wir uns bereits für eine Theorie entschieden haben, von der wir glauben, dass sie auf dem richtigen Weg ist (Zum Beispiel, indem man versucht, eine einfachere Formulierung einer akzeptierten Theorie zu finden). Eher, Die Behauptung lautet, dass Einfachheit tatsächlich eines der Schlüsselkriterien sein sollte, anhand derer wir beurteilen, welche Theorie aus einer Reihe konkurrierender Theorien die richtige ist, Tatsächlich, die beste Theorie, Angesichts der verfügbaren Beweise: unter sonst gleichen Bedingungen, Die einfachste Theorie, die mit den Daten übereinstimmt, ist die beste.

Diese Ansicht hat eine lange und illustre Geschichte. Heutzutage wird es jedoch am häufigsten mit dem Philosophen des 14. Jahrhunderts in Verbindung gebracht, Wilhelm von Ockham (auch „Occam“ geschrieben), dessen Name mit der berühmten methodischen Maxime „Ockhams Rasiermesser“ verknüpft ist., was oft so interpretiert wird, dass es uns auffordert, die einfachste Theorie zu bevorzugen, die mit den verfügbaren Beweisen im Einklang steht, es lässt sich mindestens bis zu Aristoteles zurückverfolgen. In seiner Posterior Analytics, Aristoteles argumentierte, dass nichts in der Natur umsonst sei und nichts überflüssig sei, Deshalb sollten unsere Naturtheorien so einfach wie möglich sein. Mehrere Jahrhunderte später, zu Beginn der modernen wissenschaftlichen Revolution, Galilei vertrat eine ähnliche Ansicht, das halten, „[ist]Natur vervielfacht die Dinge nicht unnötig; dass sie sich zur Erzielung ihrer Wirkungen der einfachsten und einfachsten Mittel bedient“ (Galilei, 1962, S. 396). Ähnlich, am Anfang des dritten Buches der Principia, Isaac Newton hat den folgenden Grundsatz in seine „Regeln für das Studium der Naturphilosophie“ aufgenommen::

Es sollten nicht mehr Ursachen für natürliche Dinge zugelassen werden, als sowohl wahr als auch ausreichend sind, um ihre Phänomene zu erklären.
Wie die Philosophen sagen: Die Natur tut nichts umsonst, und mehr Ursachen sind vergeblich, wenn weniger ausreichen. Denn die Natur ist einfach und gönnt sich nicht den Luxus überflüssiger Ursachen. (Newton, 1999, S. 794 [Hervorhebung im Original]).

Im 20. Jahrhundert, Albert Einstein behauptete: „Unsere bisherige Erfahrung rechtfertigt uns zu der Annahme, dass die Natur die Verwirklichung der einfachsten denkbaren mathematischen Ideen ist.“ (Einstein, 1954, S. 274). In jüngerer Zeit, Der bedeutende Physiker Steven Weinberg hat behauptet, dass er und seine Physikkollegen „Einfachheit und Strenge unserer Prinzipien fordern, bevor wir bereit sind, sie ernst zu nehmen“. (Weinberg, 1993, S. 148-9), während der mit dem Nobelpreis ausgezeichnete Ökonom John Harsanyi erklärte: „[o]Sonst sind die Dinge gleich, Eine einfachere Theorie wird einer weniger einfachen Theorie vorzuziehen sein. (zitiert in McAlleer, 2001, S. 296).

Es sollte notiert werden, Jedoch, dass nicht alle Wissenschaftler darin übereinstimmen, dass Einfachheit als legitimes Kriterium für die Theoriewahl angesehen werden sollte. Der bedeutende Biologe Francis Crick beklagte sich einmal, „[w]Occams Rasiermesser ist ein nützliches Werkzeug in der Physik, Es kann ein sehr gefährliches Werkzeug in der Biologie sein. Es ist daher sehr voreilig, sich in der biologischen Forschung an Einfachheit und Eleganz zu orientieren.“ (Verrenken, 1988, S. 138). Ähnlich, Hier ist eine Gruppe von Geowissenschaftlern, die in Science schreiben:

Viele Wissenschaftler akzeptieren und bewerben sich [Ockhams Rasiermesser] in ihrer Arbeit, auch wenn es eine völlig metaphysische Annahme ist. Es gibt kaum empirische Beweise dafür, dass die Welt tatsächlich einfach ist oder dass einfache Berichte mit größerer Wahrscheinlichkeit wahr sind als komplexe. Unser Bekenntnis zur Einfachheit ist größtenteils ein Erbe der Theologie des 17. Jahrhunderts. (Oreskes et al, 1994, Endnote 25)

Daher, während sehr viele Wissenschaftler behaupten, dass konkurrierende Theorien aus Gründen der Einfachheit bewertet werden sollten, andere stehen dieser Idee deutlich skeptischer gegenüber. Ein großer Teil dieser Skepsis beruht auf dem Verdacht, dass die Aussagekraft eines Einfachheitskriteriums von der Annahme abhängt, dass die Natur einfach ist (Kein Wunder, wenn man bedenkt, wie viele Wissenschaftler ein solches Kriterium verteidigt haben) und dass wir keinen guten Grund haben, eine solche Annahme zu treffen. Verrenken, Zum Beispiel, schien zu glauben, dass eine solche Annahme in der Biologie keinen Sinn ergeben könnte, angesichts der offensichtlichen Komplexität der biologischen Welt. Im Gegensatz, Einige Befürworter der Einfachheit haben argumentiert, dass eine Bevorzugung einfacher Theorien beispielsweise nicht unbedingt eine einfache Welt voraussetzen muss, auch wenn die Natur im ontologischen Sinne nachweislich komplex ist, Wir sollten immer noch vergleichsweise einfache Erklärungen für die Komplexität der Natur bevorzugen. Oreskes und andere betonen auch, dass die Einfachheitsprinzipien von Wissenschaftlern wie Galileo und Newton ausdrücklich in einer bestimmten Art natürlicher Theologie verwurzelt waren, die besagte, dass ein einfaches und elegantes Universum eine notwendige Folge der Güte Gottes sei. Heute, Es gibt viel weniger Begeisterung dafür, wissenschaftliche Methoden in der Theologie zu verankern (Der vermeintliche Zusammenhang zwischen der Güte Gottes und der Einfachheit der Schöpfung ist ohnehin theologisch umstritten). Eine weitere häufige Quelle der Skepsis ist die scheinbare Unbestimmtheit des Begriffs der Einfachheit und der Verdacht, dass den Urteilen der Wissenschaftler über die relative Einfachheit von Theorien eine prinzipielle und objektive Grundlage fehlt.

Auch so, Es besteht kein Zweifel an der Popularität der Idee, dass Einfachheit als Kriterium für die Auswahl und Bewertung der Theorie verwendet werden sollte. Es scheint zum Beispiel in vielen wissenschaftlichen Methoden explizit verankert zu sein, Standardstatistische Methoden der Datenanalyse (Abschnitt 1d). Sie hat sich auch weit über die Philosophie und die Naturwissenschaften hinaus ausgebreitet. Eine aktuelle Ausgabe des FBI Law Enforcement Bulletin, Zum Beispiel, enthielt den Hinweis, dass „[u]leider, Viele Menschen empfinden kriminelle Handlungen als komplexer, als sie tatsächlich sind … die einfachste Erklärung eines Ereignisses ist normalerweise die richtige.“ (Rothwell, 2006, S. 24).

An. Ockhams Rasiermesser

Viele Wissenschaftler und Philosophen befürworten ein methodisches Prinzip, das als „Ockhams Rasiermesser“ bekannt ist.. Dieses Prinzip wurde auf unterschiedliche Weise formuliert. Im frühen 21. Jahrhundert, Typischerweise wird es einfach mit der allgemeinen Maxime gleichgesetzt, dass einfachere Theorien „besser“ sind als komplexere, unter sonst gleichen Bedingungen. Historisch, Jedoch, Es ist üblicher, Ockhams Rasiermesser als eine spezifischere Art des Einfachheitsprinzips zu formulieren, oft als „Prinzip der Sparsamkeit“ bezeichnet. Ob Wilhelm von Ockham selbst eine der zahlreichen methodischen Maximen, die ihm zugeschrieben wurden, befürwortet hätte, ist Gegenstand einiger Kontroversen (siehe Thorburn, 1918; Eintrag über Wilhelm von Ockham), da Ockham sich nie explizit auf ein methodisches Prinzip bezog, das er sein „Rasiermesser“ nannte. Aber, Ein Standard für die Formulierung des Prinzips der Sparsamkeit – eines, das der Art von Prinzip, die Ockham selbst wahrscheinlich befürwortet hätte, einigermaßen nahe zu kommen scheint – ist die Maxime „Entitäten dürfen nicht über die Notwendigkeit hinaus vermehrt werden“.. So gesagt, Das Prinzip ist ontologischer Natur, denn es geht um Sparsamkeit in Bezug auf die Entitäten, deren Existenz Theorien bei dem Versuch, die empirischen Daten zu erklären, postulieren. "Juristische Person", in diesem Kontext, wird typischerweise weit gefasst, bezieht sich nicht nur auf Objekte (Zum Beispiel, Atome und Teilchen), sondern auch auf andere Arten von Naturphänomenen, die eine Theorie in ihre Ontologie einbeziehen kann, wie zum Beispiel Ursachen, Prozesse, Eigenschaften, und so weiter. Andere, Allgemeinere Formulierungen von Ockhams Rasiermesser sind nicht ausschließlich ontologischer Natur, und kann sich auch auf verschiedene Strukturmerkmale der Art und Weise beziehen, wie Theorien die Natur erklären, wie etwa die Einheitlichkeit ihrer Erklärungen. Der Rest dieses Abschnitts wird sich auf die traditionellere ontologische Interpretation konzentrieren.

Es ist wichtig, das Prinzip zu erkennen, „Entitäten dürfen nicht über das Notwendige hinaus vermehrt werden“ kann auf mindestens zwei verschiedene Arten gelesen werden. Eine Möglichkeit, es zu lesen, ist das, was wir als Anti-Überfluss-Prinzip bezeichnen können (Barnes, 2000). Dieses Prinzip fordert die Eliminierung ontologischer Postitionen aus Theorien, die erklärend redundant sind. Vermuten, Zum Beispiel, dass es zwei Theorien gibt, T1 und T2, Beide versuchen, denselben Satz empirischer Daten zu erklären, D. Nehmen wir außerdem an, dass T1 und T2 hinsichtlich der postulierten Entitäten identisch sind, mit Ausnahme der Tatsache, dass T2 ein zusätzliches Postulat mit sich bringt, b, das ist nicht Teil von T1. Nehmen wir also an, dass T1 a postuliert, während T2 a + b postuliert. Intuitiv, T2 ist eine komplexere Theorie als T1, weil sie mehr Dinge postuliert. Nehmen wir nun an, dass beide Theorien eine gleichermaßen vollständige Erklärung von D liefern, in dem Sinne, dass es keine Merkmale von D gibt, die die beiden Theorien nicht erklären können. In dieser Situation, Das Anti-Überfluss-Prinzip würde uns dazu veranlassen, die einfachere Theorie zu bevorzugen, T1, zur komplexeren Theorie, T2. Der Grund hierfür liegt darin, dass T2 eine erklärend redundante Annahme enthält, b, was in der Theorie bezüglich D keine erklärende Arbeit leistet. Wir wissen das, weil T1, was voraussetzt, dass a allein eine ebenso angemessene Darstellung von D wie T2 liefert. Daher, Wir können daraus schließen, dass das Postulieren von a allein ausreicht, um die gesamte Erklärungsfähigkeit zu erlangen, die T2 bietet, in Bezug auf D; Das Hinzufügen von b verbessert nicht die Fähigkeit von T2, die Daten zu berücksichtigen.

Diese Art von Anti-Überfluss-Prinzip liegt einer wichtigen Interpretation von „Entitäten dürfen nicht über das Notwendige hinaus vermehrt werden“ zugrunde.: als Prinzip, das uns dazu einlädt, überflüssige Bestandteile von Theorien loszuwerden. Hier, ein ontologisches Postulat ist im Hinblick auf eine gegebene Theorie überflüssig, T, sofern es Ts Fähigkeit, die zu erklärenden Phänomene zu erklären, nicht verbessert. So verstand John Stuart Mill Ockhams Rasiermesser (Mühle, 1867, S. 526). Mill wies auch auf eine plausible Rechtfertigung des Anti-Überfluss-Prinzips hin: Erklärend redundante Postulierungen – solche, die keinen Einfluss auf die Fähigkeit der Theorie haben, die Daten zu erklären – sind ebenfalls Postulierungen, die keine beweiskräftige Unterstützung durch die Daten erhalten. Dies liegt daran, dass es plausibel ist, dass theoretische Entitäten nur insoweit nachweislich durch empirische Daten gestützt werden, als sie uns dabei helfen können, zu erklären, warum die Daten die Form annehmen, die sie haben. Wenn eine theoretische Einheit dazu nicht beiträgt, dann können die Daten die Existenz dieser Entität nicht bestätigen. Wenn wir keinen anderen unabhängigen Grund haben, die Existenz dieser Entität zu postulieren, Dann haben wir keine Rechtfertigung dafür, diese Entität in unsere theoretische Ontologie aufzunehmen.

Eine weitere Rechtfertigung für das Anti-Überfluss-Prinzip ist probabilistischer Natur. Beachten Sie, dass T2 eine logisch stärkere Theorie ist als T1: T2 sagt, dass a und b existieren, während T1 sagt, dass nur a existiert. Aus den Wahrscheinlichkeitsaxiomen ergibt sich, dass eine logisch stärkere Theorie immer weniger wahrscheinlich ist als eine logisch schwächere Theorie, daher, solange die Wahrscheinlichkeit der Existenz von a und die Wahrscheinlichkeit der Existenz von b unabhängig voneinander sind, die Wahrscheinlichkeit einer Existenz ist größer als Null, und die Wahrscheinlichkeit, dass b existiert, ist kleiner als 1, Wir können behaupten, dass Pr (a existiert) > Pr (a existiert & b existiert), wo Pr (a existiert & b existiert) = Pr (a existiert) * Pr (b existiert). Nach dieser Argumentation, Wir sollten daher die Ansprüche von T1 als a priori wahrscheinlicher betrachten als die Ansprüche von T2, und das ist ein Grund, es zu bevorzugen. Aber, Ein Einwand gegen diese probabilistische Rechtfertigung des Anti-Überfluss-Prinzips besteht darin, dass sie nicht vollständig erklärt, warum wir Theorien nicht mögen, die erklärend redundante Entitäten postulieren: Das kann es nicht wirklich, weil es sich um logisch stärkere Theorien handelt; Vielmehr liegt es daran, dass sie Entitäten postulieren, die nicht durch Beweise gestützt werden.

Wenn das Prinzip der Sparsamkeit als Anti-Überfluss-Prinzip gelesen wird, es scheint relativ unumstritten. Aber, Es ist wichtig zu erkennen, dass in den allermeisten Fällen der Grundsatz der Sparsamkeit angewendet wird (oder wurde als zutreffend angesehen) in der Wissenschaft kann nicht allein im Sinne des Anti-Überfluss-Prinzips interpretiert werden. Dies liegt daran, dass der Satz „Entitäten dürfen nicht über das Notwendige hinaus vermehrt werden“ normalerweise als etwas verstanden wird, das wir als Anti-Quantitäts-Prinzip bezeichnen können: Theorien, die weniger Dinge postulieren, sind es (unter sonst gleichen Bedingungen) Theorien vorzuziehen, die mehr Dinge postulieren, ob die relevanten Thesen eine echte erklärende Rolle in den betreffenden Theorien spielen oder nicht (Barnes, 2000). Dies ist eine viel stärkere Behauptung als die Forderung, dass wir erklärend redundante Entitäten abschneiden sollten. Die gerade beschriebene beweiskräftige Rechtfertigung des Anti-Überfluss-Prinzips kann nicht zur Motivation des Anti-Quantitäts-Prinzips herangezogen werden, denn die Argumentation hinter dieser Rechtfertigung erlaubt es, dass wir so viele Dinge postulieren können, wie wir wollen, solange alle einzelnen Postulats innerhalb der Theorie erklärende Arbeit leisten. Es fordert uns lediglich auf, die theoretische Ontologie loszuwerden, aus der Perspektive einer gegebenen Theorie, ist erklärend überflüssig. Es sagt uns nicht, dass Theorien, die bei der Berücksichtigung der Daten weniger Dinge postulieren, besser sind als Theorien, die mehr Dinge postulieren – das heißt, dass spärlichere Ontologien besser sind als reichhaltigere.

Ein weiterer wichtiger Punkt des Anti-Überfluss-Prinzips besteht darin, dass es uns keinen Grund gibt, die Nichtexistenz des überflüssigen Postulats zu behaupten. Fehlen von Beweisen, ist nicht (von selbst) Beweis für Abwesenheit. Daher, Diese Version von Ockhams Rasiermesser wird manchmal auch als „agnostisches“ Rasiermesser und nicht als „atheistisches“ Rasiermesser bezeichnet, denn es motiviert uns nur dazu, Agnostiker gegenüber der abgeschnittenen Ontologie zu sein (Nüchtern, 1981). Es scheint, dass in den meisten Fällen, in denen Ockhams Rasiermesser in der Wissenschaft herangezogen wird, die Absicht besteht, atheistische Schlussfolgerungen zu stützen – die betreffenden Entitäten werden nicht einfach aus unserer theoretischen Ontologie herausgeschnitten, auch ihre Existenz wird geleugnet. Daher, Wenn wir erklären wollen, warum eine solche Präferenz gerechtfertigt ist, müssen wir nach einer anderen Rechtfertigung suchen. In Bezug auf die oben beschriebene probabilistische Begründung des Anti-Überfluss-Prinzips, Es ist wichtig zu beachten, dass es kein Wahrscheinlichkeitsaxiom ist, dass Pr (a existiert & b existiert nicht) > Pr (a existiert & b existiert).

b. Beispiele für Einfachheitspräferenzen in der Wissenschaftsgeschichte

Es wird allgemein angenommen, dass es in der Geschichte der Wissenschaft zahlreiche Episoden gab, in denen bestimmte wissenschaftliche Theorien von bestimmten Wissenschaftlern verteidigt wurden und/oder von der breiteren wissenschaftlichen Gemeinschaft weniger aus direkt empirischen Gründen bevorzugt wurden (Zum Beispiel, einige aufschlussreiche experimentelle Erkenntnisse) als aufgrund ihrer relativen Einfachheit im Vergleich zu konkurrierenden Theorien. Daher, Die Geschichte der Wissenschaft wird herangezogen, um die Bedeutung von Überlegungen zur Einfachheit bei der Art und Weise zu verdeutlichen, wie Wissenschaftler verteidigen, auswerten, und zwischen Theorien wählen. Ein markantes Beispiel ist Isaac Newtons Argument für die universelle Gravitation.

Ich. Newtons Argument für die universelle Gravitation

Zu Beginn des dritten Buches der Principia, Untertitel „Das System der Welt“, Isaac Newton beschrieb vier „Regeln für das Studium der Naturphilosophie“:

Regel 1 Es sollten nicht mehr Ursachen für natürliche Dinge zugelassen werden, als sowohl wahr als auch ausreichend sind, um ihre Phänomene zu erklären.
Wie die Philosophen sagen: Die Natur tut nichts umsonst, und mehr Ursachen sind vergeblich, wenn weniger ausreichen. Denn die Natur ist einfach und gönnt sich nicht den Luxus überflüssiger Ursachen.
Regel 2 Deshalb, Die Ursachen müssen natürlichen Wirkungen gleicher Art zugeordnet werden, soweit wie möglich, das gleiche.
Regel 3 Die Eigenschaften von Körpern, die nicht bestimmt und übertragen werden können [d.h., Qualitäten, die nicht erhöht oder verringert werden können] und die zu allen Körpern gehören, an denen Experimente durchgeführt werden können, sollten allgemein als Eigenschaften aller Körper angesehen werden.
Denn die Eigenschaften von Körpern können nur durch Experimente ermittelt werden; und daher sind Eigenschaften, die mit Experimenten im Allgemeinen übereinstimmen, als universelle Eigenschaften zu betrachten … Ideale Fantasien sollten sicherlich nicht leichtsinnig auf der Grundlage der Beweise von Experimenten erfunden werden, Wir sollten auch nicht von der Analogie der Natur abweichen, denn die Natur ist immer einfach und immer im Einklang mit sich selbst ...
Regel 4 In der experimentellen Philosophie, Aussagen, die durch Induktion aus Phänomenen gewonnen werden, sollten ungeachtet aller gegenteiligen Hypothesen entweder als genau oder als nahezu wahr angesehen werden, bis weitere Phänomene solche Aussagen entweder genauer machen oder Ausnahmen unterliegen.
Diese Regel sollte befolgt werden, damit Argumente, die auf Induktion basieren, nicht durch Hypothesen zunichte gemacht werden können. (Newton, 1999, S. 794-796).

Hier sehen wir, dass Newton die Einfachheit ausdrücklich in den Mittelpunkt seiner Konzeption der wissenschaftlichen Methode stellt. Regel 1, eine Version von Ockhams Rasiermesser, welche, trotz der Verwendung des Wortes „überflüssig“, wurde typischerweise eher als Anti-Mengen-Prinzip denn als Anti-Überfluss-Prinzip verstanden (siehe Abschnitt 1a), wird als direkte Folge der Annahme angenommen, dass die Natur einfach ist, Daraus wiederum ergeben sich die Regeln 2 und 3, beide Prinzipien der induktiven Generalisierung (schließen ähnliche Ursachen für ähnliche Wirkungen ab, und gehen davon aus, dass die Eigenschaften, die in allen beobachteten Körpern zu finden sind, in allen Körpern universell sind). Diese Regeln spielen im Folgenden eine entscheidende Rolle, Im Mittelpunkt steht das Argument für die universelle Gravitation.

Nachdem Sie diese Methodenregeln dargelegt haben, Newton beschrieb mehrere „Phänomene“ – bei denen es sich in Wirklichkeit um empirische Verallgemeinerungen handelt, abgeleitet aus astronomischen Beobachtungen, über die Bewegungen der Planeten und ihrer Satelliten, einschließlich des Mondes. Von diesen Phänomenen und den Regeln der Methode, Anschließend „leitete“ er mehrere allgemeine theoretische Thesen ab. Vorschläge 1, 2, und 3 besagen, dass die Satelliten des Jupiter, die Primärplaneten, und der Mond werden von den Zentren des Jupiter angezogen, Die Sonne, und die Erde jeweils durch Kräfte, die sie auf ihren Umlaufbahnen halten (Dadurch wird verhindert, dass sie zu einem bestimmten Zeitpunkt einem linearen Pfad in ihrer Bewegungsrichtung folgen). Es wird auch behauptet, dass diese Kräfte umgekehrt proportional zum Quadrat der Entfernung des umlaufenden Körpers variieren (Zum Beispiel, Mars) vom Mittelpunkt des Körpers, um den es kreist (Zum Beispiel, Die Sonne). Man geht davon aus, dass diese Aussagen aus den Phänomenen folgen, einschließlich der Tatsache, dass die jeweiligen Umlaufbahnen dargestellt werden können (etwa) Befolgen Sie das Keplersche Flächengesetz und das Harmonische Gesetz, und die Bewegungsgesetze, die in Buch 1 der Principia entwickelt wurden. Newton machte dann Satz 4 geltend: „Der Mond orientiert sich an der Erde und wird durch die Schwerkraft immer von der geradlinigen Bewegung abgelenkt und auf seiner Umlaufbahn gehalten.“ (S. 802). Mit anderen Worten, Es ist die Schwerkraft, die den Mond auf seiner Umlaufbahn um die Erde hält. Newton berief sich in der Argumentation für diesen Satz ausdrücklich auf die Regeln 1 und 2 (was als „Mondtest“ bekannt wurde). Erste, Aus astronomischen Beobachtungen wissen wir, wie schnell der Mond auf die Erde zuläuft. Newton konnte dann berechnen, wie hoch die Beschleunigung des Mondes an der Erdoberfläche sein würde, wenn es auf die Erde fallen würde. Es stellte sich heraus, dass dies der Beschleunigung von Körpern entsprach, die in Experimenten auf der Erde beobachtet wurden. Denn es ist die Schwerkraft, die Körper auf der Erde zum Fallen bringt (Newton ging davon aus, dass seine Leser in diesem Sinne mit „Schwerkraft“ vertraut waren), und da sowohl die Schwerkraft als auch die auf den Mond wirkende Kraft „auf den Mittelpunkt der Erde gerichtet sind und einander ähnlich und gleich sind“, Newton behauptete: „Das werden sie.“ (nach den Regeln 1 und 2) habe die gleiche Ursache“ (S. 805). Deshalb, die Kräfte, die auf fallende Körper auf der Erde wirken, und die den Mond auf seiner Umlaufbahn halten, sind ein und dasselbe: Schwere. Angesichts dessen, Man könnte nun behaupten, dass die auf Erdkörper wirkende Schwerkraft einem Gesetz des umgekehrten Quadrats gehorcht. Durch einen ähnlichen Einsatz von Regeln 1, 2, und 4, Newton gelangte zu der Behauptung, dass es auch die Schwerkraft sei, die die Planeten auf ihren Umlaufbahnen um die Sonne und die Satelliten Jupiter und Saturn auf ihren Umlaufbahnen hält, da diese Kräfte auch auf die Sonnenzentren gerichtet sind, Jupiter, und Saturn, und weisen ähnliche Eigenschaften wie die Schwerkraft auf der Erde auf, wie zum Beispiel die Tatsache, dass sie einem umgekehrten Quadratgesetz gehorchen. Deshalb, Es wurde angenommen, dass die Schwerkraft auf allen Planeten universell wirkt. Durch mehrere weitere Schritte, Newton gelang es schließlich, zum Prinzip der universellen Gravitation zu gelangen: dass die Schwerkraft eine sich gegenseitig anziehende Kraft ist, die auf zwei beliebige Körper wirkt und durch ein umgekehrtes Quadratgesetz beschrieben wird, Das besagt, dass jeder Körper den anderen mit einer Kraft gleicher Größe anzieht, die proportional zum Produkt der Massen der beiden Körper und umgekehrt proportional zum quadrierten Abstand zwischen ihnen ist. Von dort, Newton konnte die Massen und Dichten der Sonne bestimmen, Jupiter, Saturn, und die Erde, und bieten eine neue Erklärung für die Gezeiten der Meere, Dies zeigt die bemerkenswerte Erklärungskraft dieser neuen Physik.

Newtons Argument war Gegenstand zahlreicher Debatten unter Historikern und Wissenschaftsphilosophen (für die weitere Diskussion der verschiedenen Kontroversen rund um seine Struktur und die Genauigkeit seiner Prämissen, siehe Glymour, 1980; Cohen, 1999; Harper, 2002). Aber, Eines scheint klar zu sein: Seine Schlussfolgerungen werden uns keineswegs durch einfache Schlussfolgerungen aus den Phänomenen aufgezwungen, selbst wenn es mit den mathematischen Theoremen und der allgemeinen Bewegungstheorie kombiniert wird, die in Buch 1 der Principia dargelegt sind. Kein Experiment oder keine mathematische Ableitung der Phänomene hat gezeigt, dass die Schwerkraft die häufigste Ursache für den Fall von Körpern auf der Erde sein muss, die Umlaufbahnen des Mondes, die Planeten und ihre Satelliten, geschweige denn, dass die Schwerkraft eine sich gegenseitig anziehende Kraft ist, die auf alle Körper überhaupt wirkt. Eher, Newtons Argument scheint auf die Behauptung hinauszulaufen, dass die Schwerkraft tatsächlich die Eigenschaften hätte, die ihr das Prinzip der universellen Gravitation verleiht, es könnte eine gemeinsame kausale Erklärung für alle Phänomene liefern, und seine Methodenregeln fordern uns auf, auf gemeinsame Ursachen zu schließen, wo immer wir können. Daher, die Regeln, die wiederum auf einer Vorliebe für Einfachheit beruhen, spielen eine entscheidende Rolle dabei, uns von den Phänomenen zur universellen Gravitation zu führen (für die weitere Diskussion des offensichtlichen Zusammenhangs zwischen Einfachheit und Argumentation aus einer gemeinsamen Sache, siehe Nüchtern, 1988). Newtons Argument für die universelle Gravitation kann daher als Argument für die vermeintlich einfachste Erklärung der empirischen Beobachtungen angesehen werden.

Ii. Andere Beispiele

In der Literatur wurden zahlreiche weitere mutmaßliche Beispiele für Einfachheitsüberlegungen in der Wissenschaftsgeschichte angeführt:

Eines der am häufigsten zitierten Themen betrifft Kopernikus‘ Argumente für die heliozentrische Theorie der Planetenbewegung. Kopernikus legte besonderen Wert auf die vergleichsweise „Einfachheit“ und „Harmonie“ der Darstellung der Planetenbewegungen in seiner Theorie im Vergleich zur konkurrierenden geozentrischen Theorie aus dem Werk des Ptolemäus. Dieses Argument scheint für die Nachfolger von Kopernikus von großer Bedeutung gewesen zu sein, einschließlich Rheticus, Galileo, und Kepler, die alle die Einfachheit als Hauptmotivation für den Heliozentrismus betonten. Philosophen haben verschiedene Rekonstruktionen des kopernikanischen Arguments vorgeschlagen (siehe zum Beispiel, Glymour, 1980; Rosencrantz, 1983; Forster und Sober, 1994; Ameisengewalt, 2003; Martens, 2009). Aber, Wissenschaftshistoriker haben in Frage gestellt, inwieweit Einfachheit in dieser Episode eine echte und nicht nur rhetorische Rolle gespielt haben könnte. Zum Beispiel, Es wurde argumentiert, dass es keinen klaren Sinn dafür gibt, dass das kopernikanische System tatsächlich einfacher war als das des Ptolemäus, und dass geozentrische Systeme wie das Tychronische System konstruiert werden könnten, die mindestens so einfach seien wie das kopernikanische (zur Diskussion, siehe Kuhn, 1957; Palter, 1970; Cohen, 1985; Gingerich, 1993; Martens, 2009).
Es wird allgemein behauptet, dass Einfachheit eine Schlüsselrolle bei der Entwicklung von Einsteins Theorien der speziellen und allgemeinen Relativitätstheorie spielte, und in der frühen Akzeptanz von Einsteins Theorien durch die wissenschaftliche Gemeinschaft (siehe zum Beispiel, Hessen, 1974; Holton, 1974; Schaffner, 1974; Nüchtern, 1981; Pais, 1982; Norton, 2000).
Thagard (1988) argumentiert, dass Überlegungen zur Einfachheit eine wichtige Rolle in Lavoisiers Argument gegen die Existenz von Phlogiston und zugunsten der Sauerstofftheorie der Verbrennung spielten.
Carlson (1966) beschreibt mehrere Episoden in der Geschichte der Genetik, in denen Einfachheitserwägungen eine Vorrangstellung zu haben schienen.
Nolan (1997) argumentiert, dass eine Vorliebe für ontologische Sparsamkeit eine wichtige Rolle bei der Entdeckung des Neutrinos und beim Vorschlag von Avogadros Hypothese spielte.
Bäcker (2007) argumentiert, dass ontologische Sparsamkeit ein zentrales Thema in Diskussionen über rivalisierende dispersalistische und extensionistische biogeografische Theorien im späten 19. und frühen 20. Jahrhundert war.

Allerdings behaupten Wissenschaftler und Philosophen häufig, dass Überlegungen zur Einfachheit in der Geschichte der Wissenschaft eine bedeutende Rolle gespielt haben, Es ist wichtig anzumerken, dass einige Skeptiker argumentiert haben, dass die tatsächliche historische Bedeutung von Einfachheitsüberlegungen überbewertet wurde (Zum Beispiel, Bunge, 1961; Lakatos und Zahar, 1978). Solche Skeptiker bestreiten die Behauptung, dass wir die Grundlage für diese und andere Episoden des Theoriewandels nur erklären können, indem wir der Einfachheit eine Rolle zuweisen, Die Behauptung, andere Überlegungen hätten tatsächlich mehr Gewicht. Außerdem, es wurde argumentiert, in vielen Fällen, Was oberflächlich wie Appelle an die relative Einfachheit von Theorien aussieht, waren in Wirklichkeit versteckte Appelle an eine andere theoretische Tugend (Zum Beispiel, Boyd, 1990; Nüchtern, 1994; Norton, 2003; Fitzpatrick, 2009). Daher, für jedes mutmaßliche Beispiel für Einfachheit in der Geschichte der Wissenschaft, Es ist wichtig zu überlegen, ob sich die relevanten Argumente nicht am besten mit anderen Begriffen rekonstruieren lassen (Eine solche „deflationäre“ Sichtweise der Einfachheit wird in Abschnitt 4c weiter erörtert).

c. Einfachheit und induktive Folgerung

Viele Philosophen sehen Einfachheitsüberlegungen nicht nur darin, wie Wissenschaftler entwickelte wissenschaftliche Theorien bewerten und zwischen ihnen wählen, aber auch in der Mechanik, viel grundlegendere induktive Schlussfolgerungen aus empirischen Daten zu ziehen. Das Standardbeispiel hierfür in der modernen Literatur ist die Praxis der Kurvenanpassung. Angenommen, wir haben eine Reihe von Beobachtungen der Werte einer Variablen, und, gegebene Werte einer anderen Variablen, X. Dies gibt uns eine Reihe von Datenpunkten, wie in Abbildung 1 dargestellt.

Angesichts dieser Daten, Welche zugrunde liegende Beziehung sollten wir zwischen x und y annehmen, damit wir zukünftige Paare von x-y-Werten vorhersagen können?? Die übliche Praxis besteht darin, keine holprige Kurve auszuwählen, die sauber durch alle Datenpunkte verläuft, sondern vielmehr eine glatte Kurve wählen – vorzugsweise eine gerade Linie, wie H1 – das nah an den Daten vorbeigeht. Aber warum machen wir das?? Ein Teil einer Antwort ergibt sich aus der Tatsache, dass die Daten bis zu einem gewissen Grad mit Messfehlern verunreinigt sind (Zum Beispiel, durch Fehler bei der Datenerfassung) oder „Lärm“, der durch die Auswirkungen unkontrollierter Faktoren entsteht, dann ist jede Kurve, die perfekt zu den Daten passt, höchstwahrscheinlich falsch. Aber, Dies erklärt nicht unsere Vorliebe für eine Kurve wie H1 gegenüber einer unendlichen Anzahl anderer Kurven – H2, zum Beispiel – die auch nahe an den Daten vorbeigehen. Hier wurde Einfachheit als entscheidend angesehen, Allerdings spielen sie oft eine implizite Rolle dabei, wie wir aus empirischen Daten Hypothesen ableiten: H1 postuliert eine „einfachere“ Beziehung zwischen x und y als H2 – daher, Aus Gründen der Einfachheit neigen wir dazu, Hypothesen wie H1 abzuleiten.

Die Praxis der Kurvenanpassung hat gezeigt, dass Menschen – ob wir uns dessen bewusst sind oder nicht – eine grundlegende kognitive Voreingenommenheit gegenüber einfachen Hypothesen haben. Ob wir uns zwischen konkurrierenden wissenschaftlichen Theorien entscheiden, oder grundlegendere Verallgemeinerungen aus unserer Erfahrung durchführen, Wir neigen allgegenwärtig dazu, die einfachste Hypothese abzuleiten, die mit unseren Beobachtungen übereinstimmt. Darüber hinaus, Diese Voreingenommenheit wird als notwendig erachtet, damit wir aus der potenziell unbegrenzten Anzahl von Hypothesen, die mit einer endlichen Menge an Erfahrung übereinstimmen, eine einzigartige Hypothese auswählen können.

Die Ansicht, dass Einfachheit beim empirischen Denken oft eine implizite Rolle spielt, lässt sich wohl auf David Humes Beschreibung der enumerativen Induktion im Zusammenhang mit seiner Formulierung des berühmten Induktionsproblems zurückführen. Hume schlug vor, dass eine stillschweigende Annahme der Einheitlichkeit der Natur in unserer Psychologie verankert ist. So, Aus der Tatsache, dass alle zuvor beobachteten Raben schwarze Federn haben, ziehen wir natürlich den Schluss, dass alle Raben schwarze Federn haben, weil wir stillschweigend davon ausgehen, dass die Welt in ihren Eigenschaften weitgehend einheitlich ist. Dies wurde als eine Art Einfachheitsannahme angesehen: es ist einfacher, mehr vom Gleichen anzunehmen.

Ein grundlegender Zusammenhang zwischen Einfachheit und induktivem Denken wurde in vielen neueren beschreibenden Darstellungen induktiver Schlussfolgerungen beibehalten. Zum Beispiel, Hans Reichenbach (1949) beschrieb die Induktion als eine Anwendung dessen, was er die „gerade Regel“ nannte., Modellierung aller induktiven Schlussfolgerungen auf der Kurvenanpassung. Außerdem, Befürworter des Modells „Inference to Best Explanation“, die der Meinung sind, dass viele induktive Schlussfolgerungen am besten als Schlussfolgerungen auf die Hypothese verstanden werden können, die dies tun würde, Wenn wahr, liefern die beste Erklärung für unsere Beobachtungen, Normalerweise behaupten wir, dass Einfachheit eines der Kriterien ist, anhand derer wir bestimmen, welche Hypothese die „beste“ Erklärung darstellt.

In den vergangenen Jahren, Die mutmaßliche Rolle der Einfachheit in unserer schlussfolgernden Psychologie hat bei Kognitionswissenschaftlern zunehmend Aufmerksamkeit erregt. Zum Beispiel, Lombrozo (2007) beschreibt Experimente, von denen sie behauptet, dass sie zeigen, dass Teilnehmer die relative Einfachheit konkurrierender Erklärungen nutzen (Zum Beispiel, ob eine bestimmte medizinische Diagnose für eine Reihe von Symptomen die Annahme des Vorliegens einer oder mehrerer unabhängiger Erkrankungen beinhaltet) als Leitfaden zur Einschätzung ihrer Wahrscheinlichkeit, Daher ist eine unverhältnismäßig große Menge gegenteiliger probabilistischer Beweise erforderlich, damit die Teilnehmer eine komplexere Erklärung einer einfacheren vorziehen. Überlegungen zur Einfachheit wurden auch als zentral für Lernprozesse in vielen verschiedenen kognitiven Bereichen angesehen, einschließlich Spracherwerb und Kategorienlernen (Zum Beispiel, Geschwätz, 1999; Lu und andere, 2006).

d. Einfachheit in Statistik und Datenanalyse

Philosophen verwenden zur Veranschaulichung seit langem das Beispiel der Kurvenanpassung (oft implizit) Rolle, die Überlegungen zur Einfachheit beim induktiven Denken auf der Grundlage empirischer Daten spielen. Aber, Dies ist teilweise auf das Aufkommen kostengünstiger Rechenleistung zurückzuführen und auf die Tatsache, dass Wissenschaftler in vielen Disziplinen mit immer größeren und komplexeren Datenbeständen zu tun haben, In den letzten Jahrzehnten kam es zu einer bemerkenswerten Revolution bei den Methoden, die Wissenschaftlern zur Analyse und Interpretation empirischer Daten zur Verfügung stehen (Gauch, 2006). Wichtig, Mittlerweile gibt es zahlreiche formalisierte Verfahren zur Datenanalyse, die in Computersoftware implementiert werden können – und die in Disziplinen vom Ingenieurwesen über die Pflanzenwissenschaften bis hin zur Soziologie weit verbreitet sind –, die eine explizite Rolle für einen bestimmten Begriff der Einfachheit spielen. In der Literatur zu solchen Methoden ist reichlich von „Ockhams Rasiermesser“ die Rede., „Occam-Faktoren“, „Ockhams Hügel“ (MacKay, 1992; Gauch, 2006), „Occams Fenster“ (Raftery und andere, 1997), und so weiter. Diese Literatur liefert nicht nur wichtige Beispiele für die Rolle, die Einfachheit in der wissenschaftlichen Praxis spielt, kann aber auch Einblicke für Philosophen bieten, die die Grundlage dieser Rolle verstehen möchten.

Als Illustration, Berücksichtigen Sie Standardverfahren für die Modellauswahl, wie das Akaike Information Criterion (AIC), Bayesianisches Informationskriterium (BIC), Mindestnachrichtenlänge (MML) und Mindestbeschreibungslänge (MDL) Verfahren, und zahlreiche andere (zur Diskussion siehe, Forster und Sober, 1994; Förster, 2001; Gauch, 2003; Dowe und andere, 2007). Bei der Modellauswahl geht es darum, die Art der Beziehung auszuwählen, die zwischen einer Menge von Variablen postuliert werden soll, eine Stichprobe von Daten gegeben, in dem Bemühen, Hypothesen über die wahre zugrunde liegende Beziehung in der Schlussfolgerungspopulation zu erstellen und/oder Vorhersagen über zukünftige Daten zu treffen. Diese Frage stellt sich beispielsweise in dem oben diskutierten einfachen Kurvenanpassungsbeispiel, ob die wahre zugrunde liegende Beziehung zwischen x und y linear ist, parabolisch, quadratisch, und so weiter. Es kommt auch in vielen anderen Zusammenhängen vor, beispielsweise das Problem, den Kausalzusammenhang abzuleiten, der zwischen einem empirischen Effekt und einer Reihe von Variablen besteht. „Modelle“ in diesem Sinne sind Familien von Funktionen, wie die Familie der linearen Funktionen, LIN: y = a + bx, oder die Familie der Parabelfunktionen, PAR: y = a + bx + cx2. Die Einfachheit eines Modells lässt sich normalerweise anhand der Anzahl der darin enthaltenen einstellbaren Parameter erklären (MML und MDL messen die Einfachheit von Modellen anhand des Ausmaßes, in dem sie kompakte Beschreibungen der Daten liefern, liefern aber ähnliche Ergebnisse wie das Zählen einstellbarer Parameter). Auf dieser Maßnahme, Das Modell LIN ist einfacher als PAR, da LIN zwei einstellbare Parameter enthält, während PAR drei hat. Dies hat zur Folge, dass ein komplexeres Modell immer besser zu einer bestimmten Datenstichprobe passen kann als ein einfacheres Modell (Beim „Anpassen“ eines Modells an die Daten werden die Daten verwendet, um zu bestimmen, welche Werte die Parameter im Modell haben sollen, angesichts dieser Daten – das heißt, Ermittlung des am besten passenden Familienmitglieds). Zum Beispiel, Rückkehr zum in Abbildung 1 dargestellten Kurvenanpassungsszenario, Die am besten passende Kurve in PAR passt garantiert mindestens genauso gut zu diesem Datensatz wie das am besten passende Mitglied des einfacheren Modells, LIN, und das gilt unabhängig von den Daten, da lineare Funktionen Sonderfälle von Parabeln sind, wobei c = 0, Daher ist jede Kurve, die Mitglied von LIN ist, auch Mitglied von PAR.

Modellauswahlverfahren erstellen anhand der Daten eine Rangfolge aller betrachteten Modelle, So können Wissenschaftler zwischen ihnen wählen. Obwohl sie es auf unterschiedliche Weise tun, AIC, BIC, MML, und MDL implementieren alle Verfahren zur Modellauswahl, die die Komplexität eines Modells beeinträchtigen, Daher muss ein komplexeres Modell deutlich besser zur vorliegenden Datenstichprobe passen als ein einfacheres, damit es höher bewertet wird als das einfachere Modell. Oft, Dieser Nachteil ist umso größer, je kleiner die Datenstichprobe ist. Interessanterweise – und im Gegensatz zu den Annahmen einiger Philosophen – scheint dies darauf hinzudeuten, dass Einfachheitsüberlegungen nicht nur als entscheidender Faktor zwischen Theorien ins Spiel kommen, die gleichermaßen gut zu den Daten passen: gemäß der Modellauswahlliteratur, Einfachheit übertrifft manchmal die bessere Anpassung an die Daten. Daher, Einfachheit muss nicht nur dann ins Spiel kommen, wenn alle anderen Dinge gleich sind.

Sowohl Statistiker als auch Statistikphilosophen haben heftig über die zugrunde liegende Rechtfertigung dieser Art von Modellauswahlverfahren debattiert (sehen, Zum Beispiel, die Papiere in Zellner und anderen, 2001). Aber, Eine Motivation für die Berücksichtigung der Einfachheit von Modellen ergibt sich aus einem Stück praktischer Weisheit: wenn es Fehler oder „Rauschen“ in der Datenprobe gibt, Ein relativ einfaches Modell, das weniger gut zur Stichprobe passt, ist oft genauer, wenn es darum geht, zusätzliche Stichproben vorherzusagen (Zum Beispiel, Zukunft) Daten als ein komplexeres Modell, das besser zur Stichprobe passt. Die Logik hier ist, dass komplexere Modelle flexibler in der Lage sind, die Daten anzupassen (da sie mehr einstellbare Parameter haben), Sie neigen auch eher dazu, sich durch Fehler und Lärm in die Irre führen zu lassen, In diesem Fall können sie möglicherweise weniger vom wahren zugrunde liegenden „Signal“ in der Stichprobe wiedererlangen. So, Die Einschränkung der Modellkomplexität kann eine höhere Vorhersagegenauigkeit ermöglichen. Diese Idee wird in Gauch festgehalten (2003, 2006) (im Anschluss an MacKay, 1992) nennt sich „Ockhams Hügel“. Links vom Gipfel des Hügels, Durch die Erhöhung der Komplexität eines Modells wird seine Genauigkeit in Bezug auf Daten außerhalb der Stichprobe verbessert, da dadurch ein größerer Teil des Signals in der Stichprobe wiederhergestellt wird. Aber, nach dem Höhepunkt, Eine zunehmende Komplexität verringert tatsächlich die Vorhersagegenauigkeit, da dies zu einer Überanpassung an Störrauschen in der Stichprobe führt. Es liegt also ein optimaler Kompromiss vor (auf dem Gipfel von Ockhams Hügel) zwischen Einfachheit und Anpassung an die Stichprobendaten, wenn es darum geht, eine genaue Vorhersage von Daten außerhalb der Stichprobe zu ermöglichen. In der Tat, Dieser Kompromiss ist im Wesentlichen die Kernidee von AIC, Deren Entwicklung leitete die mittlerweile umfangreiche Literatur zur Modellauswahl ein, und die Philosophen Malcolm Forster und Elliott Sober haben versucht, diese Argumentation zu nutzen, um die Rolle der Einfachheit in vielen Bereichen der Wissenschaft zu verstehen (siehe Abschnitt 4biii).

Eine wichtige Implikation dieses offensichtlichen Zusammenhangs zwischen der Einfachheit des Modells und der Vorhersagegenauigkeit besteht darin, dass die Interpretation von Probendaten mithilfe relativ einfacher Modelle die Effizienz von Experimenten verbessern kann, indem es Wissenschaftlern beispielsweise ermöglicht, mit weniger Daten mehr zu erreichen, Wissenschaftler können möglicherweise ein kostspieliges Experiment weniger oft durchführen, bevor sie in der Lage sind, relativ genaue Vorhersagen über die Zukunft zu treffen. Gauch (2003, 2006) beschreibt mehrere reale Fälle aus der Pflanzenwissenschaft und anderswo, in denen dieser Gewinn an Genauigkeit und Effizienz durch die Verwendung relativ einfacher Modelle dokumentiert wurde.

2. Umfassendere philosophische Bedeutung von Fragen rund um die Einfachheit

Die mutmaßliche Rolle der Einfachheit, sowohl bei der Bewertung konkurrierender wissenschaftlicher Theorien als auch bei der Mechanik, wie wir aus empirischen Daten Hypothesen ableiten, wirft eindeutig eine Reihe schwieriger philosophischer Fragen auf. Diese beinhalten, sind aber keineswegs darauf beschränkt: (1) die Frage, was genau es bedeutet, zu sagen, dass eine Theorie oder Hypothese einfacher ist als eine andere, und wie die relative Einfachheit von Theorien gemessen werden kann; (2) die Frage nach der rationalen Rechtfertigung (wenn überhaupt) Aus Gründen der Einfachheit können Möglichkeiten zur Auswahl zwischen konkurrierenden Theorien bereitgestellt werden; und (3) die eng damit verbundene Frage, welches Gewicht Einfachheitsüberlegungen bei der Theoriewahl im Vergleich zu anderen theoretischen Tugenden haben sollten, insbesondere wenn diese manchmal gegeneinander abgewogen werden müssen. (Für einen allgemeinen Überblick über die philosophische Literatur zu diesen Themen, siehe Hessen, 1967; Nüchtern, 2001a, 2001b). Bevor wir tiefer darauf eingehen, wie Philosophen versucht haben, diese Fragen zu beantworten, Erwähnenswert sind die engen Verbindungen zwischen philosophischen Fragen rund um die Einfachheit und vielen der wichtigsten Kontroversen in der Wissenschaftsphilosophie und Erkenntnistheorie.

Erste, Das Problem der Einfachheit steht in engem Zusammenhang mit seit langem bestehenden Fragen rund um die Natur und Rechtfertigung induktiver Schlussfolgerungen. Einige Philosophen haben als angebliche Lösung des Induktionsproblems tatsächlich die Idee vertreten, dass einfachere Theorien weniger einfachen vorzuziehen seien: Es ist die relative Einfachheit der Hypothesen, die wir aus empirischen Beobachtungen ableiten, die angeblich die Rechtfertigung für diese Schlussfolgerungen liefert – also, Es ist die Einfachheit, die die Grundlage für unsere induktiven Praktiken darstellt. Dieser Ansatz ist nicht mehr so ​​beliebt wie früher, da man davon ausgeht, dass das Problem der Induktion lediglich das ebenso substanzielle Problem der Rechtfertigung von Präferenzen für einfachere Theorien ersetzt. Eine in der neueren Literatur häufiger vertretene Ansicht ist, dass das Problem der Induktion und das Problem der Rechtfertigung von Präferenzen für einfachere Theorien eng miteinander verbunden sind, oder kann sogar auf das gleiche Problem hinauslaufen. Daher, Eine Lösung des letztgenannten Problems wird einen wesentlichen Beitrag zur Lösung des ersteren leisten.

Allgemeiner, Die Fähigkeit, die vermeintliche Rolle der Einfachheit im wissenschaftlichen Denken zu verstehen, wurde von vielen als zentrales Desiderat für jede angemessene philosophische Theorie der wissenschaftlichen Methode angesehen. Zum Beispiel, Thomas Kuhns (1962) Die einflussreiche Diskussion über die Bedeutung der ästhetischen Vorlieben von Wissenschaftlern – einschließlich, aber nicht beschränkt auf Urteile über Einfachheit – in wissenschaftlichen Revolutionen war ein zentraler Teil seiner Argumentation für die Annahme einer umfassenderen Konzeption der wissenschaftlichen Methode und des Theoriewandels in der Wissenschaft, als er sie in der fand vorherrschende logisch-empiristische Ansichten der Zeit. In jüngerer Zeit, Kritiker des Bayes'schen Ansatzes zum wissenschaftlichen Denken und zur Bestätigung von Theorien, Dies besagt, dass fundiertes induktives Denken ein Denken nach den formalen Wahrscheinlichkeitsprinzipien ist, haben behauptet, dass Einfachheit ein wichtiges Merkmal des wissenschaftlichen Denkens ist, das einer Bayes'schen Analyse entgeht. Zum Beispiel, Forster und Sober (1994) argumentieren, dass bayesianische Ansätze zur Kurvenanpassung und Modellauswahl gelten (wie das Bayes'sche Informationskriterium) Für sich genommen kann keine bayesianische Begründung gegeben werden, Auch kein anderer Ansatz, der auf einfachere Modelle abzielt, kann dies tun. Die Fähigkeit des Bayes’schen Ansatzes, die Einfachheit bei der Modellauswahl und anderen Aspekten der wissenschaftlichen Praxis zu verstehen, wurde daher als zentral für die Bewertung seines Versprechens angesehen (siehe zum Beispiel, Glymour, 1980; Forster und Sober, 1994; Förster, 1995; Kelly und Glymour, 2004; Howson und Urbach, 2006; Dowe und andere, 2007).

Diskussionen über die Legitimität der Einfachheit als Kriterium für die Theoriewahl waren auch eng mit Debatten über den wissenschaftlichen Realismus verbunden. Wissenschaftliche Realisten behaupten, dass wissenschaftliche Theorien darauf abzielen, eine buchstäblich wahre Beschreibung der Welt zu liefern, und dass wir guten Grund zu der Annahme haben, dass die Behauptungen unserer derzeit besten wissenschaftlichen Theorien zumindest annähernd wahr sind, Dazu gehören auch jene Behauptungen, bei denen es angeblich um „nicht beobachtbare“ Naturphänomene geht, die außerhalb unseres direkten Wahrnehmungszugangs liegen. Einige Anti-Realisten wenden ein, dass es möglich sei, inkompatible Alternativen zu unseren derzeit besten Theorien zu formulieren, die genauso konsistent mit allen aktuellen Daten sind, die wir haben, vielleicht sogar alle zukünftigen Daten, die wir jemals sammeln könnten. Sie behaupten, dass wir daher niemals berechtigt sein können, die Behauptungen unserer derzeit besten Theorien zu behaupten, insbesondere diejenigen, die nicht beobachtbare Werte betreffen, sind wahr, oder annähernd wahr. Eine realistische Standardantwort besteht darin, die Rolle der sogenannten „theoretischen Tugenden“ bei der Theoriewahl zu betonen, unter denen normalerweise Einfachheit aufgeführt wird. Die Behauptung lautet also, dass wir diese alternativen Theorien ausschließen, weil sie unnötig komplex sind. Wichtig, damit diese Verteidigung funktioniert, Realisten müssen die Idee verteidigen, dass wir nicht nur aus Gründen der Einfachheit berechtigt sind, zwischen konkurrierenden Theorien zu wählen, aber auch, dass Einfachheit als Leitfaden zur Wahrheit dienen kann. Natürlich, Antirealisten, insbesondere solche empiristischer Überzeugung (Zum Beispiel, van Fraassen, 1989), haben tiefe Skepsis gegenüber der angeblichen Wahrheitsförderlichkeit eines Einfachheitskriteriums geäußert.

3. Einfachheit definieren und messen

Das erste große philosophische Problem, das sich aus der Vorstellung zu ergeben scheint, dass Einfachheit bei der Auswahl und Bewertung von Theorien eine Rolle spielt, besteht darin, genauer zu spezifizieren, was es bedeutet, zu sagen, dass eine Theorie einfacher als eine andere ist, und wie die relative Einfachheit von Theorien genau sein soll und objektiv gemessen. Es wurden zahlreiche Versuche unternommen, Definitionen und Maße theoretisch einfach zu formulieren, Sie alle stehen vor großen Herausforderungen. Philosophen waren nicht die einzigen, die zu diesem Unterfangen beitrugen. Zum Beispiel, in den letzten Jahrzehnten, In der mathematischen Informationstheorie wurden eine Reihe formaler Maße für Einfachheit und Komplexität entwickelt. Dieser Abschnitt bietet einen Überblick über einige der wichtigsten vorgeschlagenen Vereinfachungsmaßnahmen und die damit verbundenen Probleme. Die hier beschriebenen Vorschläge sind normalerweise auch mit bestimmten Vorschlägen darüber verknüpft, was die Bevorzugung einfacherer Theorien rechtfertigt. Aber, Die Diskussion dieser Begründungen wird bis Abschnitt 4 verschoben.

Zunächst, Es lohnt sich darüber nachzudenken, warum die Bereitstellung einer genauen Definition und eines Maßes für die theoretische Einfachheit als wesentliches philosophisches Problem angesehen werden sollte. Schließlich, Dies scheint oft der Fall zu sein, wenn man mit einer Reihe konkurrierender Theorien konfrontiert wird, die ein bestimmtes empirisches Phänomen erklären sollen, Es liegt auf der Hand, was am einfachsten ist. Man braucht nicht immer eine genaue Definition oder Messung einer bestimmten Eigenschaft, um sagen zu können, ob etwas diese Eigenschaft stärker aufweist als etwas anderes. Daher, Man könnte vermuten, dass hier ein philosophisches Problem vorliegt, es ist nur von sehr untergeordnetem Interesse und sicherlich von geringer Relevanz für die wissenschaftliche Praxis. Es gibt, Jedoch, einige Gründe, dies als ein wesentliches philosophisches Problem zu betrachten, was auch einen gewissen praktischen Bezug hat.

Erste, Es ist nicht immer leicht zu sagen, ob eine Theorie wirklich als einfacher angesehen werden sollte als eine andere, und es ist nicht ungewöhnlich, dass praktizierende Wissenschaftler über die relative Einfachheit konkurrierender Theorien uneinig sind. Ein bekanntes historisches Beispiel ist die Meinungsverschiedenheit zwischen Galileo und Kepler über die relative Einfachheit von Kopernikus‘ Theorie der Planetenbewegung, Danach bewegen sich die Planeten nur auf perfekten Kreisbahnen mit Epizykeln, und Keplers Theorie, wonach sich die Planeten auf elliptischen Bahnen bewegen (siehe Holton, 1974; McAllister, 1996). Galileo hielt an der Idee fest, dass eine perfekte Kreisbewegung einfacher sei als eine elliptische Bewegung. Im Gegensatz, Kepler betonte, dass ein elliptisches Modell der Planetenbewegung viel weniger Umlaufbahnen erforderte als ein kreisförmiges Modell und eine Reduzierung aller Planetenbewegungen auf drei Grundgesetze der Planetenbewegung ermöglichte. Das Problem besteht darin, dass Wissenschaftler die Einfachheit von Theorien offenbar anhand verschiedener Dimensionen bewerten, die möglicherweise miteinander in Konflikt stehen. Daher, Wir müssen uns mit der Tatsache auseinandersetzen, dass eine Theorie in einer Hinsicht als einfacher als eine Konkurrenz und in einer anderen als komplexer angesehen werden kann. Um dies weiter zu veranschaulichen, Betrachten Sie die folgende Liste häufig zitierter Methoden, mit denen Theorien als einfacher als andere angesehen werden können:

Quantitative ontologische Sparsamkeit (oder Wirtschaft): Postulieren einer geringeren Anzahl unabhängiger Einheiten, Prozesse, Ursachen, oder Veranstaltungen.
Qualitative ontologische Sparsamkeit (oder Wirtschaft): Postulieren einer kleineren Anzahl unabhängiger Arten oder Klassen von Entitäten, Prozesse, Ursachen, oder Veranstaltungen.
Erklärung einer gemeinsamen Ursache: Berücksichtigung von Phänomenen im Hinblick auf gemeinsame und nicht auf getrennte kausale Prozesse.
Symmetrie: Sie postulieren, dass Gleichheiten zwischen interagierenden Systemen gelten und dass die Gesetze, die die Phänomene beschreiben, aus verschiedenen Perspektiven gleich aussehen.
Gleichmäßigkeit (oder Homogenität): Postulieren Sie eine geringere Anzahl von Änderungen in einem bestimmten Phänomen und halten Sie fest, dass die Beziehungen zwischen Phänomenen unveränderlich sind.
Vereinigung: Erklärung eines breiteren und vielfältigeren Spektrums von Phänomenen, von denen man andernfalls annehmen würde, dass sie separate Erklärungen in einer einzigen Theorie erfordern (Die theoretische Reduktion wird allgemein als eine Art der Vereinheitlichung angesehen).
Prozesse auf niedrigerer Ebene: wenn die Arten von Prozessen, die zur Erklärung eines Phänomens postuliert werden können, in einer Hierarchie vorliegen, Es werden Prozesse postuliert, die in dieser Hierarchie eher niedriger als höher stehen.
Vertrautheit (oder Konservativität): Erklärung neuer Phänomene mit minimaler neuer theoretischer Maschinerie, Wiederverwendung bestehender Erklärungsmuster.
Mangel an Hilfsannahmen: weniger irrelevante Annahmen über die Welt hervorrufen.
Mangel an einstellbaren Parametern: enthält weniger unabhängige Parameter, die die Theorie der Bestimmung durch die Daten überlässt.

Wie aus dieser Liste ersichtlich ist, Hier gibt es eine große Vielfalt. Wir können sehen, dass theoretische Einfachheit häufig in ontologischen Begriffen gedacht wird (Zum Beispiel, quantitative und qualitative Sparsamkeit), aber manchmal auch als Strukturmerkmal von Theorien (Zum Beispiel, Vereinigung, Mangel an einstellbaren Parametern), und während einige dieser intuitiven Arten der Einfachheit oft in Theorien zusammengefasst werden – zum Beispiel, qualitative Sparsamkeit scheint oft mit der Berufung auf gemeinsame Ursachen einherzugehen, was wiederum oft mit einer erklärenden Vereinheitlichung einherzugehen scheint – es gibt aber auch erheblichen Spielraum dafür, dass sie im Einzelfall in unterschiedliche Richtungen weisen. Zum Beispiel, Eine Theorie, die qualitativ sparsam ist, weil sie weniger verschiedene Arten von Entitäten postuliert, könnte quantitativ unsparsam sein, weil sie mehr von einer bestimmten Art von Entitäten postuliert; während die Forderung, anhand von Prozessen auf niedrigerer Ebene und nicht anhand von Prozessen auf höherer Ebene zu erklären, möglicherweise im Widerspruch zu der Forderung steht, anhand gemeinsamer Ursachen für ähnliche Phänomene zu erklären, und so weiter. Es gibt auch verschiedene Möglichkeiten, die Einfachheit einer Theorie im Hinblick auf einen dieser intuitiven Arten von Einfachheit zu bewerten. Eine Theorie könnte, Zum Beispiel, erweist sich als quantitativ sparsamer als ein anderes, wenn man sich auf die Anzahl unabhängiger Einheiten konzentriert, die es postuliert, aber weniger sparsam, wenn man sich auf die Anzahl der unabhängigen Ursachen konzentriert, die es hervorruft. Infolgedessen, Es scheint, dass ein Einfachheitskriterium tatsächlich in der Praxis anwendbar sein soll, Wir brauchen eine Möglichkeit, die Meinungsverschiedenheiten zu lösen, die zwischen Wissenschaftlern über die relative Einfachheit konkurrierender Theorien entstehen können, und dies erfordert ein genaueres Maß an Einfachheit.

Zweite, wie bereits erwähnt wurde, Ein erheblicher Teil der Skepsis, die sowohl von Philosophen als auch von Wissenschaftlern gegenüber der Praxis geäußert wird, eine Theorie aufgrund relativer Einfachheit einer anderen vorzuziehen, ist auf den Verdacht zurückzuführen, dass unseren Urteilen über Einfachheit eine prinzipielle Grundlage fehlt (Zum Beispiel, Ackermann, 1961; Bunge, 1961; Priester, 1976). Meinungsverschiedenheiten zwischen Wissenschaftlern, Zusammen mit der Vielfalt und dem Spielraum für Konflikte zwischen intuitiven Arten der Einfachheit haben wichtige Faktoren zu diesem Verdacht beigetragen, was zu der Ansicht führt, dass für zwei beliebige Theorien, T1 und T2, Es gibt eine Möglichkeit, ihre Einfachheit so zu bewerten, dass T1 einfacher als T2 ausfällt, und umgekehrt. Es scheint, dann, dass eine angemessene Verteidigung der Legitimität eines Einfachheitskriteriums zeigen muss, dass es tatsächlich prinzipielle Möglichkeiten gibt, zu bestimmen, wann eine Theorie tatsächlich einfacher ist als eine andere. Darüber hinaus, sofern auch eine Rechtfertigungsfrage zu klären ist, Wir müssen uns auch darüber im Klaren sein, wofür wir eine Präferenz rechtfertigen müssen.

An. Syntaktische Maßnahmen

Ein Vorschlag besteht darin, dass die Einfachheit von Theorien präzise und objektiv daran gemessen werden kann, wie kurz sie ausgedrückt werden können. Zum Beispiel, Eine natürliche Möglichkeit, die Einfachheit einer Gleichung zu messen, besteht einfach darin, die Anzahl der Terme zu zählen, oder Parameter, die es enthält. Ähnlich, Wir könnten die Einfachheit einer Theorie beispielsweise anhand der Größe des Vokabulars messen, die Anzahl der außerlogischen Begriffe, die zum Aufschreiben seiner Behauptungen erforderlich sind. Solche Einfachheitsmaße werden oft als syntaktische Maße bezeichnet, da sie das Zählen der sprachlichen Elemente beinhalten, die zur Aussage erforderlich sind, oder um die Theorie zu beschreiben.

Ein Hauptproblem, mit dem ein solches syntaktisches Maß an Einfachheit konfrontiert ist, ist das Problem der Sprachvarianz. Ein Maß für die Einfachheit ist die Sprachvariante, wenn sie abhängig von der Sprache, die zur Darstellung der verglichenen Theorien verwendet wird, unterschiedliche Ergebnisse liefert. Vermuten, Zum Beispiel, dass wir die Einfachheit einer Gleichung messen, indem wir die Anzahl der darin enthaltenen nichtlogischen Terme zählen. Dies führt zu dem Ergebnis, dass r = a einfacher ausfällt als x2 + y2 = a2. Aber, Diese zweite Gleichung ist lediglich eine Transformation der ersten in kartesische Koordinaten, wobei r2 = x2 + y2, und ist daher logisch äquivalent. Der intuitive Vorschlag zur Messung der Einfachheit in Kurvenanpassungskontexten, Demnach sollen Hypothesen einfacher sein, wenn sie weniger Parameter enthalten, ist in diesem Sinne auch eine Sprachvariante. Wie viele Parameter eine Hypothese enthält, hängt von den verwendeten Koordinatenskalen ab. Für zwei beliebige nichtidentische Funktionen, F und G, Es gibt eine Möglichkeit, die Koordinatenskalen so umzuwandeln, dass wir F in eine lineare Kurve und G in eine nichtlineare Kurve umwandeln können, und umgekehrt.

Nelson Goodmans (1983) Das berühmte „neue Rätsel der Induktion“ ermöglicht es uns, ein weiteres Beispiel für das Problem der Sprachvarianz zu formulieren. Angenommen, alle zuvor beobachteten Smaragde waren grün. Betrachten Sie nun die folgenden Hypothesen über die Farbeigenschaften der gesamten Smaragdpopulation:

H1: alle Smaragde sind grün
H2: Alle vor dem Zeitpunkt t erstmals beobachteten Smaragde sind grün und alle nach dem Zeitpunkt t erstmals beobachteten Smaragde sind blau (wobei t eine zukünftige Zeit ist)

Intuitiv, H1 scheint eine einfachere Hypothese zu sein als H2. Zunächst, es kann mit einem kleineren Wortschatz ausgedrückt werden. H1 scheint auch eine Einheitlichkeit der Eigenschaften von Smaragden zu postulieren, während H2 Ungleichmäßigkeit postuliert. Zum Beispiel, H2 scheint anzunehmen, dass es einen Zusammenhang zwischen dem Zeitpunkt, zu dem ein Smaragd zum ersten Mal beobachtet wird, und seinen Eigenschaften gibt. Somit kann davon ausgegangen werden, dass es einen zusätzlichen Zeitparameter enthält. Aber nun betrachten wir Goodmans erfundene Prädikate, „grue“ und „diaper“. Diese wurden auf unterschiedliche Weise definiert, aber definieren wir sie hier wie folgt: Ein Objekt ist grau, wenn es vor der Zeit t zum ersten Mal beobachtet wird und das Objekt grün ist, oder erstmals nach t beobachtet und das Objekt ist blau; Ein Objekt ist blau, wenn es vor der Zeit t zum ersten Mal beobachtet wird und das Objekt blau ist, oder erstmals nach der Zeit t beobachtet und das Objekt ist grün. Mit diesen Prädikaten, wir können eine weitere Eigenschaft definieren, „grolor“. Grue und Bleen sind Grolors, ebenso wie Grün und Blau Farben sind. Jetzt, aufgrund der Art und Weise, wie Grolors definiert werden, Farbprädikate wie „grün“ und „blau“ können auch als Grolor-Prädikate definiert werden: Ein Objekt ist grün, wenn es vor dem Zeitpunkt t zum ersten Mal beobachtet wird, und das Objekt ist grau, oder erst nach der Zeit t beobachtet und das Objekt ist klar; Ein Objekt ist blau, wenn es vor dem Zeitpunkt t zum ersten Mal beobachtet wird, und das Objekt ist blau, oder erstmals nach t beobachtet und das Objekt ist grau. Dies bedeutet, dass Aussagen, die in Bezug auf Grün und Blau ausgedrückt werden, auch in Bezug auf Grue und Bleen ausgedrückt werden können. Also, Wir können H1 und H2 wie folgt umschreiben:

H1: Alle Smaragde, die zum ersten Mal vor dem Zeitpunkt t beobachtet wurden, sind grau und alle Smaragde, die zum ersten Mal nach dem Zeitpunkt t beobachtet wurden, sind bleen (wobei t eine zukünftige Zeit ist)
H2: Alle Smaragde sind grau

Erinnern Sie sich daran, dass wir H1 früher als einfacher als H2 beurteilt haben. Aber, wenn wir dieses Einfachheitsurteil beibehalten, Wir können nicht sagen, dass H1 einfacher als H2 ist, da es mit einem kleineren Vokabular ausgedrückt werden kann; Wir können auch nicht sagen, dass H1 eine größere Einheitlichkeit postuliert, und ist daher einfacher, weil es keinen Zeitparameter enthält. Dies liegt daran, dass Einfachheitsurteile, die auf solchen syntaktischen Merkmalen basieren, einfach dadurch umgekehrt werden können, dass die zur Darstellung der Hypothesen verwendete Sprache von einer Farbsprache auf eine Grolorsprache umgestellt wird.

Beispiele wie diese wurden herangezogen, um zwei Dinge zu zeigen. Erste, Kein syntaktisches Maß an Einfachheit kann ausreichen, um eine prinzipielle Einfachheitsordnung zu erzeugen, da alle diese Maßnahmen je nach verwendeter Darstellungssprache zu unterschiedlichen Ergebnissen führen. Es reicht nicht aus, nur festzulegen, dass wir die Einfachheit in einer Sprache und nicht in einer anderen bewerten sollten, denn das würde nicht erklären, warum Einfachheit auf diese Weise gemessen werden sollte. Besonders, Wir möchten wissen, dass unsere gewählte Sprache die objektive sprachunabhängige Einfachheit der verglichenen Theorien genau widerspiegelt. Daher, wenn ein syntaktisches Maß der Einfachheit verwendet werden soll, sagen wir aus praktischen Gründen, es muss durch eine grundlegendere Theorie der Einfachheit untermauert werden. Zweite, Ein plausibles Maß an Einfachheit kann gegenüber all den verschiedenen Behauptungen über die Welt, die die Theorie aufstellt oder als solche interpretiert werden kann, nicht völlig neutral sein. Aufgrund der jeweiligen Definitionen von Farben und Farben, Jede Hypothese, die eine Gleichmäßigkeit der Farbeigenschaften postuliert, muss eine Ungleichmäßigkeit der Farbeigenschaften postulieren. Wie Goodman betonte, Man kann überall Einheitlichkeit finden, wenn es keine Einschränkung gibt, welche Arten von Eigenschaften berücksichtigt werden sollen. Ähnlich, Man kann nicht sagen, dass Theorien einfacher sind, weil sie die Existenz weniger Einheiten voraussetzen, Ursachen und Prozesse, seit, unter Verwendung von Goodman-ähnlichen Manipulationen, Es ist trivial zu zeigen, dass eine Theorie so betrachtet werden kann, dass sie eine beliebige Anzahl unterschiedlicher Entitäten postuliert, Ursachen und Prozesse. Daher, Es muss eine grundsätzliche Einschränkung hinsichtlich der Aspekte des Inhalts einer Theorie vorgenommen werden, die bei der Messung ihrer relativen Einfachheit berücksichtigt und welche außer Acht gelassen werden sollen.

b. Goodmans Maß

Laut Nelson Goodman, Ein wichtiger Bestandteil des Problems der Messung der Einfachheit wissenschaftlicher Theorien ist das Problem der Messung des Grads der Systematisierung, den eine Theorie der Welt auferlegt, seit, für Goodman, Einfachheit suchen bedeutet, ein System zu suchen. In einer Reihe von Aufsätzen in den 1940er und 50er Jahren, Guter Mann (1943, 1955, 1958, 1959) versuchte, ein genaues Maß der theoretischen Systematisierung anhand der logischen Eigenschaften der Menge von Konzepten zu erklären, oder außerlogische Begriffe, die die Aussagen der Theorie ausmachen.

Laut Goodman, Wissenschaftliche Theorien können als Aussagenmengen betrachtet werden. Diese Aussagen enthalten verschiedene außerlogische Begriffe, einschließlich Eigentumsbedingungen, Beziehungsbegriffe, und so weiter. Diesen Begriffen können alle Prädikatssymbole zugeordnet werden. Daher, Alle Aussagen einer Theorie können in einer Sprache erster Ordnung ausgedrückt werden, unter Verwendung standardmäßiger symbolischer Vorstellungen. Zum Beispiel, „… ist Säure“ kann zu „A(X)”, „… ist kleiner als ____“ kann zu „S“ werden(X, und)”, und so weiter. Goodman behauptet dann, dass wir die Einfachheit des von der Theorie verwendeten Prädikatensystems anhand ihrer logischen Eigenschaften messen können, wie zum Beispiel ihre Arität, Reflexivität, Transitivität, Symmetrie, und so weiter. Die Details sind sehr technisch, aber, sehr grob, Goodmans Vorschlag ist, dass ein System von Prädikaten, mit dem man mehr ausdrücken kann, komplexer ist als ein System von Prädikaten, mit dem man weniger ausdrücken kann. Zum Beispiel, Eines der Axiome von Goodmans Vorschlag ist, dass jeder Satz von Prädikaten einer relevanten Art ist, K, ist immer durch eine Menge von Prädikaten anderer Art ersetzbar, L, dann ist K nicht komplexer als L.

Ein Teil von Goodmans Projekt bestand darin, das Problem der Sprachvarianz zu vermeiden. Goodmans Maß ist ein sprachliches Maß, da es darum geht, die Einfachheit der Prädikatsbasis einer Theorie in einer Sprache erster Ordnung zu messen. Aber, es ist kein rein syntaktisches Maß, denn es geht nicht nur darum, sprachliche Elemente zu zählen, wie zum Beispiel die Anzahl außerlogischer Prädikate. Eher, es kann als Versuch angesehen werden, den Reichtum eines konzeptionellen Schemas zu messen: Konzeptuelle Schemata, mit denen man mehr sagen kann, sind komplexer als konzeptionelle Schemata, mit denen man weniger sagen kann. Daher, Eine Theorie kann als einfacher angesehen werden, wenn sie ein weniger ausdrucksstarkes Begriffssystem erfordert.

Goodman entwickelte sein axiomatisches Maß der Einfachheit sehr detailliert. Aber, Goodman selbst betrachtete es immer nur als Maß für eine bestimmte Art von Einfachheit, da es nur um die logischen Eigenschaften der von der Theorie verwendeten Prädikate geht. Es tut nicht, Zum Beispiel, Berücksichtigen Sie die Anzahl der Entitäten, die eine Theorie postuliert. Darüber hinaus, Goodman hat nie gezeigt, wie das Maß auf echte wissenschaftliche Theorien angewendet werden könnte. Es wurde eingewandt, dass selbst wenn Goodmans Maßnahme angewendet werden könnte, Es würde tatsächlich nicht zwischen vielen Theorien unterscheiden, die sich intuitiv in ihrer Einfachheit unterscheiden, in der Art von Einfachheit als Systematisierung, die Goodman messen möchte. Zum Beispiel, Es ist plausibel, dass das Konzeptsystem, das zur Darstellung der kopernikanischen Theorie der Planetenbewegung verwendet wird, ebenso ausdrucksstark ist wie das Konzeptsystem, das zur Darstellung der ptolemäischen Theorie verwendet wird, Dennoch gilt Ersteres weithin als wesentlich einfacher als Letzteres, Dies liegt zum Teil daran, dass die Daten intuitiv systematischer dargestellt werden (zur Diskussion der Einzelheiten von Goodmans Vorschlag und der damit verbundenen Einwände, siehe Schwer, 1955; Suppen, 1956; Cyborg, 1961; Hessen, 1967).

c. Einfachheit als Testbarkeit

Es wurde oft argumentiert, dass einfachere Theorien mehr über die Welt aussagen und daher leichter zu testen sind als komplexere. C. S. Peirce (1931), Zum Beispiel, behauptete, dass die einfachsten Theorien diejenigen sind, deren empirische Konsequenzen am leichtesten abzuleiten und mit Beobachtungen zu vergleichen sind, damit sie leichter beseitigt werden können, wenn sie falsch sind. Komplexe Theorien, andererseits, neigen dazu, weniger präzise zu sein und mehr Spielraum bei der Berücksichtigung der Daten zu lassen. Dieser offensichtliche Zusammenhang zwischen Einfachheit und Testbarkeit hat einige Philosophen dazu veranlasst, zu versuchen, Einfachheitsmaße anhand der relativen Testbarkeit von Theorien zu formulieren.

Karl Popper (1959) hat bekanntlich ein solches Testbarkeitsmaß für Einfachheit vorgeschlagen. Popper verband Einfachheit mit empirischem Inhalt: Einfachere Theorien sagen mehr über die Welt aus als komplexere Theorien und, auf diese Weise, die Art und Weise, wie die Welt sein kann, stärker einschränken. Laut Popper, der empirische Gehalt von Theorien, und daher ihre Einfachheit, können anhand ihrer Falsifizierbarkeit gemessen werden. Die Falsifizierbarkeit einer Theorie betrifft die Leichtigkeit, mit der sich die Theorie als falsch erweisen kann, wenn die Theorie tatsächlich falsch ist. Popper argumentierte, dass dies anhand der Datenmenge gemessen werden könne, die man benötigen würde, um die Theorie zu falsifizieren. Zum Beispiel, nach Poppers Maß, die Hypothese, dass x und y linear zusammenhängen, gemäß einer Gleichung der Form, y = a + bx, Es stellt sich heraus, dass sie einen größeren empirischen Inhalt und daher eine größere Einfachheit haben als die Hypothesen, dass sie gemäß einer Parabel der Form zusammenhängen, y = a + bx + cx2. Dies liegt daran, dass man nur drei Datenpunkte benötigt, um die lineare Hypothese zu falsifizieren, aber man braucht mindestens vier Datenpunkte, um die parabolische Hypothese zu falsifizieren. Damit argumentierte Popper, dass empirischer Inhalt, Widerlegbarkeit, und daher Einfachheit, könnte als gleichbedeutend mit dem Mangel an einstellbaren Parametern angesehen werden. John Kemeny (1955) schlug ein ähnliches Testbarkeitsmaß vor, Demnach sind Theorien komplexer, wenn sie sich in einem Universum mit n Mitgliedern auf vielfältigere Weise als wahr erweisen können, Dabei ist n die Anzahl der Individuen, die das Universum enthält.

Poppers Gleichung von Einfachheit und Falsifizierbarkeit weist einige schwerwiegende Einwände auf. Erste, es kann nicht auf Vergleiche zwischen Theorien angewendet werden, die gleichermaßen präzise Aussagen machen, wie zum Beispiel ein Vergleich zwischen einer spezifischen parabolischen Hypothese und einer spezifischen linearen Hypothese, Beide geben genaue Werte für ihre Parameter an und können durch nur einen Datenpunkt verfälscht werden. Es kann auch nicht angewendet werden, wenn wir Theorien vergleichen, die probabilistische Aussagen über die Welt machen, da probabilistische Aussagen nicht streng falsifizierbar sind. Dies ist besonders problematisch, wenn es darum geht, die Rolle der Einfachheit bei der Kurvenanpassung zu berücksichtigen, da man normalerweise mit der Möglichkeit eines Fehlers in den Daten rechnen muss. Infolge, Normalerweise wird den betrachteten Hypothesen eine Fehlerverteilung hinzugefügt, so dass man sie so versteht, dass sie den Daten bestimmte Wahrscheinlichkeiten verleihen, anstatt deduktive Beobachtungskonsequenzen zu haben. Außerdem, Die meisten Wissenschaftsphilosophen neigen heute dazu, zu glauben, dass Falsifizierbarkeit nicht wirklich eine intrinsische Eigenschaft von Theorien selbst ist, sondern eher ein Merkmal dessen, wie sich Wissenschaftler gegenüber ihren Theorien verhalten. Selbst deterministische Theorien ziehen normalerweise keine besonderen Beobachtungskonsequenzen nach sich, es sei denn, sie werden mit bestimmten Hilfsannahmen verbunden, Normalerweise bleibt dem Wissenschaftler die Möglichkeit, die Theorie vor der Widerlegung zu bewahren, indem er an ihren Hilfsannahmen herumbastelt – ein Punkt, den Pierre Duhem bekanntermaßen betont hat (1954). Dies macht es äußerst schwierig zu behaupten, dass einfachere Theorien grundsätzlich falsifizierbarer sind als weniger einfache. Guter Mann (1961, S. 150-151) argumentierte auch, dass die Gleichsetzung von Einfachheit mit Falsifizierbarkeit zu kontraintuitiven Konsequenzen führe. Die Hypothese, „Alle Ahornbäume sind Laubbäume“, ist intuitiv einfacher als die Hypothese, „Alle Ahornbäume überhaupt, und alle Sassafrasbäume in Eagleville, sind laubabwerfend“, noch, Laut Goodman, Die letztere Hypothese ist eindeutig die am einfachsten zu falsifizierende von beiden. Kemenys Maßnahme übernimmt viele der gleichen Einwände.

Sowohl Popper als auch Kemeny versuchten im Wesentlichen, die Einfachheit einer Theorie mit dem Grad zu verknüpfen, in dem sie potenzielle zukünftige Daten berücksichtigen kann: Einfachere Theorien sind weniger anpassungsfähig als komplexere. Ein interessanter neuerer Versuch, diesen Begriff der Akkommodation zu verstehen, geht auf Harman und Kulkarni zurück (2007). Harman und Kulkarni analysieren die Akkommodation anhand eines Konzepts, das aus der statistischen Lerntheorie stammt und als Vapnik-Chervonenkis bekannt ist (VC) Abmessungen. Die VC-Dimension einer Hypothese kann grob als Maß für den „Reichtum“ der Klasse von Hypothesen verstanden werden, aus der sie stammt, Dabei ist eine Klasse umfangreicher, wenn es schwieriger ist, Daten zu finden, die mit einem Mitglied der Klasse inkonsistent sind. So, Eine Hypothese, die aus einer Klasse stammt, die zu jedem möglichen Datensatz passt, hat eine unendliche VC-Dimension. Allerdings weist die VC-Dimension einige wichtige Ähnlichkeiten mit Poppers Maß auf, es gibt wichtige Unterschiede. Im Gegensatz zu Poppers Maß, Dies impliziert, dass die Akkommodation nicht immer der Anzahl der einstellbaren Parameter entspricht. Wenn wir einstellbare Parameter zählen, Sinuskurven der Form y = a sin bx, erweisen sich als relativ unfreundlich, Jedoch, Solche Kurven haben eine unendliche VC-Dimension. Während Harman und Kulkarni nicht vorschlagen, die VC-Dimension als allgemeines Maß für Einfachheit zu betrachten (Tatsächlich, Sie betrachten es in einigen wissenschaftlichen Kontexten als Alternative zur Einfachheit), Ideen in dieser Richtung könnten möglicherweise in der Zukunft ein Versprechen für Testbarkeits-/Akkommodationsmaße der Einfachheit darstellen. Ähnliche Vorstellungen von Akkommodation in Bezug auf „Dimension“ wurden verwendet, um den Begriff der Einfachheit eines statistischen Modells angesichts der Tatsache zu erläutern, dass die Anzahl der einstellbaren Parameter, die ein Modell enthält, eine Sprachvariante ist (zur Diskussion, siehe Forster, 1999; Nüchtern, 2007).

d. Nüchternes Maß

In seinem frühen Werk über Einfachheit, Elliott nüchtern (1975) schlug vor, die Einfachheit von Theorien anhand ihrer fragebezogenen Aussagekraft zu messen. Laut Sober, Eine Theorie ist aussagekräftiger, wenn sie weniger zusätzliche Informationen von uns erfordert, damit wir sie nutzen können, um die Antwort auf die speziellen Fragen zu finden, die uns interessieren. Zum Beispiel, die Hypothese, y = 4x, ist informativer und daher einfacher als y = 2z + 2x in Bezug auf die Frage, „Was ist der Wert von y?“?„Das liegt daran, dass man, um den Wert von y herauszufinden, nur einen Wert für x unter der ersten Hypothese bestimmen muss, wohingegen man bei der zweiten Hypothese auch einen Wert für z bestimmen muss. Ähnlich, Sobers Vorschlag kann verwendet werden, um die Intuition zu erfassen, dass Theorien, die besagen, dass eine bestimmte Klasse von Dingen in ihren Eigenschaften einheitlich ist, einfacher sind als Theorien, die besagen, dass die Klasse uneinheitlich ist, weil sie in Bezug auf bestimmte Fragen zu den Eigenschaften der Klasse informativer sind. Zum Beispiel, Die Hypothese, dass „alle Raben schwarz sind“, ist in Bezug auf die Frage aussagekräftiger und daher einfacher als „70 % der Raben sind schwarz“., „Welche Farbe wird der nächste beobachtete Rabe haben??„ Dies liegt daran, dass man nach der ersten Hypothese keine zusätzlichen Informationen benötigt, um diese Frage zu beantworten, wohingegen man die letztere Hypothese durch beträchtliche zusätzliche Informationen ergänzen muss, um eine eindeutige Antwort zu generieren.

Indem man die Vorstellung von der Inhaltsfülle von Theorien auf die Frage relativiert, die einen interessiert, Sobers Maßnahme vermeidet das Problem, mit dem die Vorschläge von Popper und Kemeny konfrontiert waren, nämlich die willkürlichsten spezifischen Theorien, oder Theorien, die aus einer Reihe irrelevanter Behauptungskonjunktionen bestehen, erwies sich als das einfachste. Darüber hinaus, nach Sobers Vorschlag, Der Inhalt der Theorie muss für die Beantwortung der Frage relevant sein, damit er zur Einfachheit der Theorie beiträgt. Daraus ergibt sich das markanteste Element von Sobers Vorschlag: Abhängig von der gestellten Frage werden unterschiedliche Einfachheitsreihenfolgen von Theorien erstellt. Zum Beispiel, wenn wir wissen wollen, welche Beziehung zwischen den Werten von z und den gegebenen Werten von y und x besteht, dann ist y = 2z + 2x aussagekräftiger, und damit einfacher, als y = 4x. So, Eine Theorie kann im Verhältnis zu einigen Fragen einfach und im Verhältnis zu anderen komplex sein.

Kritiker haben argumentiert, dass Sobers Maßnahme eine Reihe kontraintuitiver Ergebnisse liefert. zuerst, Das Maß kann nicht erklären, warum Menschen dazu neigen, eine Gleichung wie y = 3x + 4 zu beurteilen×2 – 50 als komplexer als eine Gleichung wie y = 2x, relativ zur Frage, „Was ist der Wert von y?“?" In beiden Fällen, Man braucht nur einen Wert von x, um einen Wert für y zu ermitteln. Ähnlich, Sobers Maßnahme geht nicht auf Goodmans oben zitiertes Gegenbeispiel zu der Idee ein, dass Einfachheit gleichbedeutend mit Testbarkeit ist, da es zu dem kontraintuitiven Ergebnis führt, dass es keinen Unterschied in der Einfachheit zwischen „allen Ahornbäumen überhaupt“ gibt, und alle Sassafrasbäume in Eagleville, sind Laubbäume“ und „Alle Ahornbäume sind Laubbäume“ in Bezug auf Fragen, ob Ahornbäume Laubbäume sind. Die Interessenrelativität von Sobers Maß hat auch Kritik von jenen hervorgerufen, die Einfachheit lieber als eine Eigenschaft betrachten, die nur davon abhängt, womit eine bestimmte Theorie verglichen wird, nicht mit der Frage, die man gerade stellt.

e. Thagards Maß

Paul Thagard (1988) schlug vor, dass Einfachheit als Verhältnis der Anzahl der durch eine Theorie erklärten Fakten zur Anzahl der Hilfsannahmen, die die Theorie erfordert, verstanden werden sollte. Thagard definiert eine Hilfsannahme als Aussage, nicht Teil der ursprünglichen Theorie, was vorausgesetzt wird, damit die Theorie einen oder mehrere der zu erklärenden Sachverhalte erklären kann. Einfachheit wird dann wie folgt gemessen:

Einfachheit von T = (Fakten erklärt durch T – Hilfsannahmen von T) / Fakten erklärt von T

Der Wert 0 wird einer maximal komplexen Theorie zugewiesen, die ebenso viele Hilfsannahmen wie Fakten erfordert, die sie erklärt, und 1 einer maximal einfachen Theorie, die überhaupt keine Hilfsannahmen zur Erklärung erfordert. So, desto höher ist das Verhältnis der erklärten Fakten zu den Hilfsannahmen, desto einfacher die Theorie. Der Kern von Thagards Vorschlag besteht darin, dass wir so viel wie möglich erklären wollen, und gleichzeitig die wenigsten Annahmen über die Art und Weise treffen, wie die Welt ist. Indem es den Mangel an Hilfsannahmen gegen die Erklärungskraft abwägt, verhindert es die unglückliche Konsequenz, dass sich die einfachsten Theorien als die kraftlosesten erweisen.

Eine wesentliche Schwierigkeit bei Thargards Vorschlag besteht darin, zu bestimmen, was die Hilfsannahmen von Theorien tatsächlich sind und wie sie zu zählen sind. Man könnte argumentieren, dass das Problem der Zählung von Hilfsannahmen genauso schwierig zu werden droht wie das ursprüngliche Problem der Messung der Einfachheit. Was eine Theorie über die Welt annehmen muss, um die Beweise zu erklären, ist häufig äußerst unklar und noch schwieriger zu quantifizieren. Außerdem, Einige Hilfsannahmen sind umfassender und belastender als andere, und es ist nicht klar, ob ihnen die gleiche Gewichtung gegeben werden sollte, wie sie in Thagards Maß sind. Ein weiterer Einwand besteht darin, dass es Thagards Vorschlag schwerfällt, Dinge wie ontologische Sparsamkeit zu verstehen – die Idee, dass Theorien einfacher sind, weil sie weniger Dinge postulieren –, da nicht klar ist, dass Sparsamkeit per se einen besonderen Einfluss auf die Anzahl der erforderlichen Hilfsannahmen haben würde. Zur Verteidigung hiervon, Thagard hat argumentiert, dass ontologische Sparsamkeit für praktizierende Wissenschaftler tatsächlich weniger wichtig ist, als oft angenommen wird.

f. Informationstheoretische Maßnahmen

In den letzten Jahrzehnten, In der mathematischen Informationstheorie wurden eine Reihe formaler Maße für Einfachheit und Komplexität entwickelt. Allerdings sind viele dieser Maßnahmen darauf ausgelegt, konkrete praktische Probleme anzugehen, Es wurde behauptet, dass die zentralen Ideen dahinter von Bedeutung für die Lösung des philosophischen Problems der Messung der Einfachheit wissenschaftlicher Theorien seien.

Eines der prominentesten informationstheoretischen Einfachheitsmaße in der aktuellen Literatur ist die Kolmogorov-Komplexität, Dies ist ein formales Maß für den quantitativen Informationsgehalt (siehe Li und Vitányi, 1997). Die Kolmogorov-Komplexität K(X) eines Objekts x ist die Länge in Bits des kürzesten Binärprogramms, das eine völlig getreue Beschreibung von x in einer universellen Programmiersprache ausgeben kann, wie Java, C++, oder LISP. Dieses Maß wurde ursprünglich formuliert, um die Zufälligkeit in Datenzeichenfolgen zu messen (wie zum Beispiel Zahlenfolgen), und basiert auf der Erkenntnis, dass nicht zufällige Datenzeichenfolgen „komprimiert“ werden können, indem die darin vorhandenen Muster gefunden werden. Wenn es Muster in einer Datenzeichenfolge gibt, Es ist möglich, eine völlig genaue Beschreibung bereitzustellen, die kürzer als die Zeichenfolge selbst ist, in Bezug auf die Anzahl der in der Beschreibung verwendeten „Bits“ an Informationen, indem das Muster als Mnemonik verwendet wird, die redundante Informationen eliminiert, die nicht in der Beschreibung kodiert werden müssen. Zum Beispiel, wenn die Datenzeichenfolge eine geordnete Folge von Einsen und Nullen ist, wobei auf jede 1 eine 0 folgt, und jede 0 mal eine 1, dann kann eine sehr kurze Beschreibung gegeben werden, die das Muster spezifiziert, der Wert des ersten Datenpunkts und die Anzahl der Datenpunkte. Alle weiteren Angaben sind überflüssig. Völlig zufällige Datensätze, Jedoch, enthalten keine Muster, keine Redundanz, und sind daher nicht komprimierbar.

Es wurde argumentiert, dass die Kolmogorov-Komplexität als allgemeines Maß für die Einfachheit wissenschaftlicher Theorien verwendet werden kann. Man kann sich Theorien so vorstellen, dass sie die Muster spezifizieren, die in den Datensätzen vorhanden sind, die sie erklären sollen. Infolge, Wir können uns Theorien auch als Komprimierung der Daten vorstellen. Entsprechend, desto mehr komprimiert eine Theorie T die Daten, desto niedriger ist der Wert von K für die Daten, die T verwenden, und desto größer ist seine Einfachheit. Ein wichtiges Merkmal der Kolmogorov-Komplexität besteht darin, dass sie in einer universellen Programmiersprache gemessen wird und gezeigt werden kann, dass der Unterschied in der Codelänge zwischen der kürzesten Codelänge für x in einer universellen Programmiersprache und der kürzesten Codelänge für x in einer anderen Programmiersprache ist ist nicht mehr als eine Konstante c, Das hängt von den gewählten Sprachen ab, statt x. Es wurde angenommen, dass dies eine Lösung für das Problem der Sprachvarianz bietet: Die Kolmogorov-Komplexität kann als Maß für „objektiven“ oder „inhärenten“ Informationsgehalt bis hin zu einer additiven Konstante angesehen werden. Deswegen, Einige Enthusiasten sind sogar so weit gegangen zu behaupten, dass die Kolmogorov-Komplexität das Problem der Definition und Messung von Einfachheit löst.

Gegen diese Anwendung der Kolmogorov-Komplexität wurden zahlreiche Einwände erhoben. Erste, K finden(X) ist ein nicht berechenbares Problem: Es gibt keinen Algorithmus, um es zu berechnen. Dies sei eine schwerwiegende praktische Einschränkung der Maßnahme. Ein weiterer Einwand besteht darin, dass die Komplexität von Kolmogorov zu einigen kontraintuitiven Ergebnissen führt. Zum Beispiel, Theorien, die eher probabilistische als deterministische Vorhersagen über die Daten treffen, müssen eine maximale Kolmogorov-Komplexität aufweisen. Zum Beispiel, eine Theorie, die besagt, dass eine Folge von Münzwürfen dem Wahrscheinlichkeitsgesetz entspricht, Pr(Köpfe) = ½, Man kann nicht sagen, dass es die Daten komprimiert, da man dieses Gesetz nicht verwenden kann, um die genaue Reihenfolge von Kopf und Zahl zu rekonstruieren, obwohl es eine intuitiv einfache Erklärung dessen bietet, was wir beobachten.

Weitere informationstheoretische Einfachheitsmaße, wie zum Beispiel die Mindestnachrichtenlänge (MML) und Mindestbeschreibungslänge (MDL) Maßnahmen, Vermeiden Sie einige der praktischen Probleme, mit denen Kolmogorov aufgrund seiner Komplexität konfrontiert ist. Allerdings gibt es im Detail dieser Maßnahmen erhebliche Unterschiede (siehe Wallace und Dowe, 1999), Sie alle verfolgen die gleiche Grundidee, dass die Einfachheit einer empirischen Hypothese daran gemessen werden kann, inwieweit sie eine kompakte Kodierung der Daten ermöglicht.

Ein allgemeiner Einwand gegen alle derartigen Einfachheitsmaßnahmen besteht darin, dass wissenschaftliche Theorien im Allgemeinen darauf abzielen, mehr zu tun, als nur Muster in den Daten zu spezifizieren. Sie zielen auch darauf ab, zu erklären, warum es diese Muster gibt, und in Bezug auf die Art und Weise, wie Theorien die Muster in unseren Beobachtungen erklären, wurden Theorien oft als einfach oder komplex angesehen. Daher, Es kann argumentiert werden, dass eine bloße Datenkomprimierung dies nicht kann, von selbst, genügen als Erklärung der Einfachheit in Bezug auf wissenschaftliche Theorien. Ein weiterer Einwand gegen den Datenkomprimierungsansatz besteht darin, dass Theorien als Komprimierung von Datensätzen auf sehr viele verschiedene Arten betrachtet werden können, Viele davon halten wir nicht für einen angemessenen Beitrag zur Einfachheit. Das durch Goodmans neues Induktionsrätsel aufgeworfene Problem kann als das Problem der Entscheidung angesehen werden, welche Regelmäßigkeiten gemessen werden sollen: Zum Beispiel, Farbregelmäßigkeiten oder Grolor-Regelmäßigkeiten? Formale informationstheoretische Maßnahmen unterscheiden nicht zwischen verschiedenen Arten der Musterfindung. Daher, Eine solche Maßnahme kann nur angewendet werden, wenn wir die Arten von Mustern und Regelmäßigkeiten festlegen, die berücksichtigt werden sollen.

g. Ist Einfachheit ein einheitliches Konzept??

In der philosophischen Literatur herrscht allgemeiner Konsens darüber, dass das Projekt, ein präzises allgemeines Maß für die theoretische Einfachheit zu formulieren, vor großen Herausforderungen steht. Natürlich, Dies hat praktizierende Wissenschaftler jedoch nicht davon abgehalten, in ihrer Arbeit Vorstellungen von Einfachheit zu nutzen, und bestimmte Konzepte der Einfachheit – wie etwa die Einfachheit eines statistischen Modells, Begriffe, die als Mangel an einstellbaren Parametern oder Modelldimensionen verstanden werden, sind in mehreren Bereichen der Wissenschaft fest verankert. Angesichts dessen, Eine mögliche Antwort auf die Schwierigkeiten, auf die Philosophen und andere in diesem Bereich gestoßen sind – insbesondere angesichts der offensichtlichen Vielfalt und der Möglichkeiten für Konflikte zwischen intuitiven Erklärungen der Einfachheit – besteht darin, die Frage aufzuwerfen, ob theoretische Einfachheit tatsächlich ein einheitliches Konzept ist überhaupt. Vielleicht gibt es keinen einheitlichen Begriff von Einfachheit (oder sollte sein) von Wissenschaftlern beschäftigt, sondern eher eine Ansammlung verschiedener, manchmal verwandt, aber auch manchmal widersprüchliche Vorstellungen von Einfachheit, die Wissenschaftler in bestimmten Kontexten in unterschiedlichem Maße für nützlich halten. Dies könnte durch die Beobachtung belegt werden, dass Wissenschaftler bei ihren Urteilen zur Einfachheit häufig Kompromisse zwischen verschiedenen Vorstellungen von Einfachheit eingehen. Keplers Vorliebe für eine astronomische Theorie, die vollkommen kreisförmige Bewegungen zugunsten der Planeten aufgibt, die aber eine einheitliche Erklärung der astronomischen Beobachtungen anhand von drei Grundgesetzen bieten könnte, über eine Theorie, die die perfekte Kreisbewegung beibehielt, konnte aber keine ähnlich einheitliche Erklärung anbieten, scheint ein klares Beispiel dafür zu sein.

Als Ergebnis von Gedanken in diese Richtung, Einige Philosophen haben argumentiert, dass es hier eigentlich überhaupt keinen einzigen theoretischen Wert gibt, sondern eher eine Ansammlung von ihnen (Zum Beispiel, Bunge, 1961). Es lohnt sich auch, die Möglichkeit in Betracht zu ziehen, welchem ​​Cluster ein größeres Gewicht zukommt als den anderen, und wie jeder von ihnen in der Praxis verstanden wird, können je nach Disziplin und Forschungsgebiet sehr unterschiedlich sein. So, Worauf es bei der Bewertung der vergleichenden „Einfachheit“ von Theorien wirklich ankommt, könnte für Biologen ganz anders sein als für Physiker, Zum Beispiel, und vielleicht ist das, was einem Teilchenphysiker wichtig ist, etwas anderes als das, was einem Astrophysiker wichtig ist. Wenn es in der Wissenschaft tatsächlich kein einheitliches Konzept der Einfachheit gibt, könnte das auch darauf hindeuten, dass es keine einheitliche Rechtfertigung für die Wahl zwischen konkurrierenden Theorien aus Gründen der Einfachheit gibt. Ein wichtiger Hinweis, zu dem diese Möglichkeit geführt hat, ist, dass die Rolle der Einfachheit in der Wissenschaft nicht aus einer globalen Perspektive verstanden werden kann, kann aber nur lokal verstanden werden. Wie Einfachheit gemessen werden sollte und warum sie wichtig ist, kann eine besonders domänenspezifische Erklärung haben.

4. Begründung der Präferenzen für einfachere Theorien

Aufgrund der offensichtlichen zentralen Bedeutung von Einfachheitsüberlegungen für wissenschaftliche Methoden und der Verbindung zwischen ihnen und zahlreichen anderen wichtigen philosophischen Fragen, Das Problem der Rechtfertigung von Präferenzen für einfachere Theorien wird als ein Hauptproblem der Wissenschaftsphilosophie angesehen. Es gilt auch als eines der hartnäckigsten. Es wurden jedoch äußerst unterschiedliche Begründungen vorgeschlagen – etwa bei der Debatte darüber, wie Einfachheit richtig definiert und gemessen werden kann, Einige wichtige neuere Beiträge haben ihren Ursprung in der wissenschaftlichen Literatur zur Statistik, Informationstheorie, und andere verwandte Bereiche – sie alle sind auf erhebliche Einwände gestoßen. Unter Philosophen besteht derzeit keine Einigkeit darüber, welcher Weg der erfolgversprechendste ist. Auch herrscht in manchen Kreisen Skepsis, ob eine ausreichende Begründung überhaupt möglich ist.

Allgemein gesprochen, Begründungsvorschläge können in drei Typen eingeteilt werden: 1) Berichte, die zeigen wollen, dass Einfachheit ein Indikator für Wahrheit ist (das ist, dass es einfachere Theorien gibt, Im Algemeinen, eher wahr, oder werden durch die empirischen Daten irgendwie besser bestätigt als ihre komplexeren Konkurrenten); 2) Berichte, die Einfachheit nicht als direkten Indikator für die Wahrheit betrachten, die jedoch versuchen, eine alternative methodische Rechtfertigung für die Bevorzugung einfacherer Theorien hervorzuheben; 3) deflationäre Ansätze, die tatsächlich die Idee ablehnen, dass es eine allgemeine Rechtfertigung dafür gibt, einfachere Theorien per se zu bevorzugen, sondern die versuchen, bestimmte Appelle an die Einfachheit in der Wissenschaft im Hinblick auf andere zu analysieren, weniger problematisch, theoretische Tugenden.

An. Einfachheit als Indikator für Wahrheit
Ich. Die Natur ist einfach

Historisch, Die vorherrschende Ansicht darüber, warum wir einfachere Theorien komplexeren vorziehen sollten, basiert auf einer allgemeinen metaphysischen These der Einfachheit der Natur. Denn die Natur selbst ist einfach, Die relative Einfachheit von Theorien kann daher als direkter Beweis für ihre Wahrheit angesehen werden. Eine solche Ansicht wurde von vielen großen Wissenschaftlern der Vergangenheit ausdrücklich vertreten, einschließlich Aristoteles, Kopernikus, Galileo, Kepler, Newton, Maxwell, und Einstein. Natürlich aber, Es stellt sich die Frage, was die These rechtfertigt, dass die Natur einfach sei? Allgemein gesprochen, Für diese These wurden zwei verschiedene Arten von Argumenten angeführt: Ich) dass ein gütiger Gott ein einfaches und elegantes Universum geschaffen haben muss; Ii) dass die bisherige Erfolgsgeschichte relativ einfacher Theorien uns zu der Schlussfolgerung berechtigt, dass die Natur einfach ist. Die theologische Begründung war in der frühen Neuzeit unter Wissenschaftlern und Philosophen am weitesten verbreitet. Einstein, andererseits, berief sich auf eine meta-induktive Rechtfertigung, Er behauptet, die Geschichte der Physik rechtfertige uns zu der Annahme, dass die Natur die Verwirklichung der einfachsten denkbaren mathematischen Ideen sei.

Trotz der historischen Popularität und des Einflusses dieser Ansicht, Neuere Philosophen und Wissenschaftler waren äußerst resistent gegen die Vorstellung, dass wir zu Recht glauben könnten, dass die Natur einfach sei. Für den Anfang, Es erscheint schwierig, die These, die Natur sei einfach, so zu formulieren, dass sie nicht auch offensichtlich falsch ist, oder zu vage, um von Nutzen zu sein. Es scheint viele Gegenbeispiele zu der Behauptung zu geben, dass wir in einem einfachen Universum leben. In Betracht ziehen, Zum Beispiel, das Bild des Atomkerns, mit dem Physiker zu Beginn des 20. Jahrhunderts arbeiteten: Man ging davon aus, dass Materie nur aus Protonen und Elektronen bestehe; Es gab keine Neutronen oder Neutrinos und keine schwachen oder starken Kernkräfte, die erklärt werden könnten, nur Elektromagnetismus. Spätere Entdeckungen haben wohl zu einem viel komplexeren Bild der Natur geführt und es mussten viel komplexere Theorien entwickelt werden, um dies zu erklären. In Beantwortung, Man könnte behaupten, dass die Natur zwar in mancher oberflächlichen Hinsicht komplex zu sein scheint, Tatsächlich liegt der grundlegenden Struktur der Natur eine tiefe Einfachheit zugrunde. Man könnte auch behaupten, dass die Aspekte, in denen die Natur komplex erscheint, notwendige Konsequenzen ihrer zugrunde liegenden Einfachheit sind. Aber das dient nur dazu, die Unbestimmtheit der Behauptung hervorzuheben, dass die Natur einfach sei – worauf genau diese These hinausläuft, und welche Beweise könnten wir dafür haben?

Wie auch immer, die These ist formuliert, Es scheint äußerst schwierig zu sein, es angemessen zu verteidigen, sei es aus theologischen oder meta-induktiven Gründen. Der Versuch, die Behauptung, die Natur sei einfach, theologisch zu rechtfertigen, leidet an einer inhärenten Unattraktivität für moderne Philosophen und Wissenschaftler, die die Legitimität wissenschaftlicher Methoden nicht in der Theologie begründen wollen. In jedem Fall, Viele Theologen lehnen den angeblichen Zusammenhang zwischen Gottes Güte und der Einfachheit der Schöpfung ab. In Bezug auf eine meta-induktive Begründung, selbst wenn die Wissenschaftsgeschichte den überdurchschnittlichen Erfolg einfacherer Theorien belegen würde, Wir könnten uns immer noch große Sorgen darüber machen, inwieweit dies der Behauptung, die Natur sei einfach, ausreichend Glaubwürdigkeit verleihen könnte. Erste, es geht davon aus, dass empirischer Erfolg als verlässlicher Indikator für die Wahrheit angesehen werden kann (oder zumindest ungefähre Wahrheit), und daher, wie die Natur wirklich ist. Obwohl dies eine Standardannahme vieler wissenschaftlicher Realisten ist – die Behauptung, dass der Erfolg „wunderbar“ wäre, wenn die betreffende Theorie radikal falsch wäre –, ist sie höchst umstritten, denn viele Anti-Realisten sind der Meinung, dass die Geschichte der Wissenschaft zeigt, dass alle Theorien, sogar überaus erfolgreiche Theorien, erweisen sich in der Regel als völlig falsch. Auch wenn man einen Zusammenhang zwischen Erfolg und Wahrheit akzeptiert, Unsere bisherigen Erfolge bieten möglicherweise immer noch kein repräsentatives Beispiel für die Natur: Vielleicht haben wir uns nur mit den Problemen befasst, die am einfachsten gelöst werden können, und die tatsächliche zugrunde liegende Komplexität der Natur ist unserer Aufmerksamkeit entgangen. Wir können uns auch fragen, inwieweit wir einen mutmaßlichen Zusammenhang zwischen Einfachheit und Wahrheit in einem Bereich der Natur auf die Natur als Ganzes übertragen können. Darüber hinaus, soweit Einfachheitsüberlegungen ganz allgemein als grundlegend für induktive Schlussfolgerungen angesehen werden, Ein solcher Rechtfertigungsversuch birgt die Gefahr des Vorwurfs der Zirkularität.

Ii. Metainduktive Vorschläge

Es gibt eine andere Möglichkeit, sich auf vergangene Erfolge zu berufen, um eine Verbindung zwischen Einfachheit und Wahrheit zu rechtfertigen. Anstatt zu versuchen, eine völlig allgemeine Behauptung über die Einfachheit der Natur zu rechtfertigen, Dieser Vorschlag legt lediglich nahe, dass wir beispielsweise auf einen Zusammenhang zwischen Erfolg und ganz bestimmten Einfachheitsmerkmalen in bestimmten Forschungsfeldern schließen können, eine besondere Art von Symmetrie in bestimmten Bereichen der theoretischen Physik. Wenn Erfolg als Indikator für zumindest annähernde Wahrheit angesehen werden kann, Daraus können wir schließen, dass Theorien, die im relevanten Sinne einfacher sind, in Bereichen, in denen die Korrelation mit Erfolg besteht, mit größerer Wahrscheinlichkeit wahr sind.

Zu den jüngsten Beispielen dieser Art von Vorschlägen gehört McAllister (1996) und Kuipers (2002). In dem Bemühen, den Wahrheitsgehalt ästhetischer Überlegungen in der Wissenschaft zu erklären, inklusive Einfachheit, Theo Kuipers (2002) behauptet, dass Wissenschaftler dazu neigen, sich von Theorien angezogen zu fühlen, die bestimmte ästhetische Merkmale mit erfolgreichen Theorien gemeinsam haben, mit denen sie zuvor in Berührung gekommen sind. Mit anderen Worten, Wir können die besonderen ästhetischen Vorlieben von Wissenschaftlern mit Begriffen erklären, die einem gut dokumentierten psychologischen Effekt ähneln, der als „Mere-Exposure-Effekt“ bekannt ist., Dies tritt auf, wenn Personen nach wiederholtem Kontakt mit etwas Gefallen finden. Wenn, in einem bestimmten Forschungsgebiet, Besonders erfolgreiche Theorien weisen eine besondere Art von Einfachheit auf (Dies ist jedoch selbstverständlich), und daher wurden solche Theorien den auf diesem Gebiet tätigen Wissenschaftlern während ihrer Ausbildung immer wieder präsentiert, Der bloße Expositionseffekt wird dann dazu führen, dass diese Wissenschaftler von anderen Theorien angezogen werden, die ebenfalls die gleiche Art von Einfachheit aufweisen. Dieser Prozess kann dann genutzt werden, um eine ästhetische Induktion zu einem Zusammenhang zwischen Einfachheit im jeweiligen Sinne und Erfolg zu unterstützen. Man kann dann argumentieren, dass diese Art von Einfachheit durchaus als Indikator für eine zumindest annähernde Wahrheit angesehen werden kann.

Auch wenn diese Art von meta-induktivem Vorschlag nicht versucht zu zeigen, dass die Natur im Allgemeinen einfach ist, Viele der gleichen Einwände können dagegen erhoben werden wie gegen den Versuch, diese metaphysische These durch Berufung auf den Erfolg einfacher Theorien in der Vergangenheit zu rechtfertigen. Noch einmal, Es besteht das Problem, die Behauptung zu rechtfertigen, dass empirischer Erfolg ein verlässlicher Leitfaden sei (ungefähr) Wahrheit. Kuipers‘ eigene Argumente für diese Behauptung beruhen auf einer etwas eigenwilligen Darstellung der Wahrheitsannäherung. Außerdem, um legitim darauf schließen zu können, dass ein echter Zusammenhang zwischen Einfachheit und Erfolg besteht, man kann nicht nur auf erfolgreiche Theorien schauen; Man muss sich auch erfolglose Theorien ansehen. Auch wenn alle erfolgreichen Theorien in einem Bereich das relevante Einfachheitsmerkmal aufweisen, es könnte immer noch so sein, dass die meisten Theorien mit diesem Merkmal dies getan haben (oder wäre es gewesen) höchst erfolglos. In der Tat, wenn man eine erfolgreiche Theorie möglicherweise auf unendlich viele Arten modifizieren kann und dabei das relevante Einfachheitsmerkmal beibehält, Man könnte tatsächlich garantieren können, dass die Mehrheit der möglichen Theorien mit dem Merkmal erfolglose Theorien wären, Dadurch wird der Zusammenhang zwischen Einfachheit und Erfolg aufgehoben. Dies könnte als Hinweis darauf verstanden werden, dass man irgendein Gewicht tragen muss, Erfolgsargumente müssen auch eine Erklärung dafür liefern, warum Einfachheit zum Erfolg beiträgt. Darüber hinaus, obwohl der bloße Belichtungseffekt gut dokumentiert ist, Kuipers liefert keine direkten empirischen Beweise dafür, dass Wissenschaftler ihre ästhetischen Vorlieben tatsächlich durch den von ihm vorgeschlagenen Prozess erwerben.

iii. Bayesianische Vorschläge

Nach Standardvarianten des Bayesianismus, Wir sollten wissenschaftliche Theorien nach ihrer Wahrscheinlichkeit bewerten, abhängig von den Beweisen (hintere Wahrscheinlichkeit). Diese Wahrscheinlichkeit, Pr(T | E), ist eine Funktion von drei Größen:

Pr(T | E) = Pr(E | T) Pr(T) / Pr(E)

Pr(E | T), ist die Wahrscheinlichkeit, dass die Theorie, T, verleiht den Beweis, E, was als Wahrscheinlichkeit von T bezeichnet wird. Pr(T) ist die A-priori-Wahrscheinlichkeit von T, und Pr(E) ist die Wahrscheinlichkeit von E. Es wird dann davon ausgegangen, dass T eine höhere A-posteriori-Wahrscheinlichkeit hat als eine konkurrierende Theorie, T*, dann und nur dann, wenn:

Pr(E | T) Pr(T) > Pr(E | T*) Pr(T*)

Ein Bayesianischer Standardvorschlag zum Verständnis der Rolle der Einfachheit bei der Theoriewahl ist, dass Einfachheit einer der Schlüsselfaktoren von Pr. ist(T): unter sonst gleichen Bedingungen, Es wird angenommen, dass einfachere Theorien und Hypothesen eine höhere Wahrscheinlichkeit haben, wahr zu sein als komplexere. So, wenn zwei konkurrierende Theorien den Daten die gleiche oder nahezu gleiche Wahrscheinlichkeit verleihen, unterscheiden sich aber in der relativen Einfachheit, unter sonst gleichen Bedingungen, die einfachere Theorie wird tendenziell eine höhere A-Posteriori-Wahrscheinlichkeit haben. Diese Idee, was Harold Jeffreys „das Einfachheitspostulat“ nannte, wurde von Philosophen auf unterschiedliche Weise ausgearbeitet, Statistiker, und Informationstheoretiker, Verwendung verschiedener Einfachheitsmaßnahmen (Zum Beispiel, Carnap, 1950; Jeffreys, 1957, 1961; Solomonoff, 1964; Li, M. und Vitányi, 1997).

Als Antwort auf diesen Vorschlag, Karl Popper (1959) argumentierte das, in manchen Fällen, Einer einfacheren Theorie eine höhere A-priori-Wahrscheinlichkeit zuzuordnen, verstößt tatsächlich gegen die Wahrscheinlichkeitsaxiome. Zum Beispiel, Jeffreys schlug vor, die Einfachheit durch Zählen einstellbarer Parameter zu messen. Auf dieser Maßnahme, Die Behauptung, dass sich die Planeten auf Kreisbahnen bewegen, ist einfacher als die Behauptung, dass sich die Planeten auf elliptischen Bahnen bewegen, da die Gleichung für eine Ellipse einen zusätzlichen einstellbaren Parameter enthält. Aber, Kreise können auch als Sonderfälle von Ellipsen betrachtet werden, wobei der zusätzliche Parameter auf Null gesetzt ist. Daher, Die Behauptung, dass sich Planeten auf kreisförmigen Bahnen bewegen, kann auch als Sonderfall der Behauptung angesehen werden, dass sich die Planeten auf elliptischen Bahnen bewegen. Wenn das stimmt, Dann kann die erstere Behauptung nicht wahrscheinlicher sein als die letztere Behauptung, da die Wahrheit der ersteren die Wahrheit der letzteren mit sich bringt und die Wahrscheinlichkeit die Folgerung respektiert. Als Antwort auf Popper, Es wurde argumentiert, dass diese frühere probabilistische Tendenz hin zu einfacheren Theorien nur für Vergleiche zwischen inkonsistenten Theorien gelten sollte, wenn z. B. kein Konsequenzverhältnis zwischen ihnen besteht, zwischen der Behauptung, dass sich die Planeten auf kreisförmigen Bahnen bewegen, und der Behauptung, dass sie sich auf elliptischen, aber nicht kreisförmigen Bahnen bewegen.

Der Haupteinwand gegen den Bayes'schen Vorschlag, dass Einfachheit ein Faktor für die A-priori-Wahrscheinlichkeit ist, besteht darin, dass die Wahrscheinlichkeitstheorie offenbar keine Ressourcen zur Erklärung bietet, warum einfacheren Theorien eine höhere A-priori-Wahrscheinlichkeit zuerkannt werden sollte. Rudolf Carnap (1950) dachte, dass A-priori-Wahrscheinlichkeiten jeder in einer formalen Sprache formulierten Hypothese zugeordnet werden könnten, auf der Grundlage einer logischen Analyse der Struktur der Sprache und Annahmen über die Gleichwahrscheinlichkeit aller möglichen Sachverhalte. Aber, Carnaps Ansatz gilt allgemein als undurchführbar. Wenn einfacheren Theorien aufgrund rein logischer oder mathematischer Überlegungen höhere A-priori-Wahrscheinlichkeiten nicht zugeordnet werden können, Dann scheint es, dass die Bayesianer über den Bayesianischen Rahmen selbst hinausschauen müssen, um das Postulat der Einfachheit zu rechtfertigen.

Einige Bayesianer haben einen alternativen Weg eingeschlagen, Sie behaupten, dass ein direkter mathematischer Zusammenhang zwischen der Einfachheit von Theorien und ihrer Wahrscheinlichkeit hergestellt werden kann – das heißt, der Wert von Pr(E | T) ( siehe Rosenkrantz, 1983; Ameisengewalt, 2003; Weiß, 2005). Dieser Vorschlag basiert auf der Annahme, dass einfachere Theorien weniger einstellbare Parameter haben, und stimmen daher mit einem engeren Bereich potenzieller Daten überein. Angenommen, wir sammeln eine Reihe empirischer Daten, E, Das kann durch zwei Theorien erklärt werden, die sich hinsichtlich dieser Art der Einfachheit unterscheiden: eine einfache Theorie, S, und eine komplexe Theorie, C. S hat keine einstellbaren Parameter und beinhaltet immer nur E, während C einen einstellbaren Parameter hat, ich, die einen Wertebereich annehmen kann, ist. Wenn θ auf einen bestimmten Wert eingestellt ist, Ich, es beinhaltet E, aber auf anderen Werten von θ, C beinhaltet unterschiedliche und inkompatible Beobachtungen. Es wird dann argumentiert, dass S E eine höhere Wahrscheinlichkeit verleiht. Dies liegt daran, dass C zulässt, dass anstelle von E viele andere mögliche Beobachtungen hätten gemacht werden können (auf verschiedenen möglichen Einstellungen für θ). Daher, Die Wahrheit von C würde unsere Aufzeichnung dieser besonderen Beobachtungen weniger wahrscheinlich machen als die Wahrheit von S. Hier, Die Wahrscheinlichkeit von C wird als Durchschnitt der Wahrscheinlichkeiten jeder der n Versionen von C berechnet, definiert durch eine eindeutige Einstellung von θ. So, Mit zunehmender Komplexität einer Theorie – gemessen an der Anzahl der darin enthaltenen einstellbaren Parameter – nimmt die Anzahl der Versionen der Theorie zu, die E eine geringe Wahrscheinlichkeit verleihen, und der Gesamtwert von Pr(E | T) Wird untergehen.

Ein Einspruch gegen diesen Vorschlag (Kelly, 2004, 2010) Das bedeutet für uns, dass wir zeigen können, dass S eine höhere A-Posteriori-Wahrscheinlichkeit hat als C, weil es eine höhere Wahrscheinlichkeit hat, Es muss davon ausgegangen werden, dass die A-priori-Wahrscheinlichkeit von C nicht wesentlich größer ist als die a-priori-Wahrscheinlichkeit von S. Aufgrund der Art und Weise, wie Einfachheit in diesem Argument definiert wird, ist dies eine wesentliche Annahme. Wir können uns C in verschiedenen Versionen vorstellen, Jeder davon wird durch einen anderen Wert ausgewählt, der θ gegeben wird. Wenn wir dann annehmen, dass S und C ungefähr die gleiche A-priori-Wahrscheinlichkeit haben, müssen wir das tun, implizit, Gehen Sie davon aus, dass jede Version von C im Vergleich zu S eine sehr geringe A-priori-Wahrscheinlichkeit aufweist, da die A-priori-Wahrscheinlichkeit jeder Version von C Pr wäre(C) / N (unter der Annahme, dass die Theorie nicht besagt, dass eine bestimmte Parametereinstellung wahrscheinlicher ist als alle anderen). Dies würde effektiv zu einer sehr starken Voreingenommenheit zugunsten von S gegenüber jeder Version von C führen. Vorausgesetzt, dass jede Version von C unabhängig betrachtet werden könnte – das heißt, Die komplexe Theorie könnte einfacher gestaltet werden, eine engere Formulierung – dies würde ein zusätzliches unterstützendes Argument erfordern. Der Einwand besteht somit darin, dass der Vorschlag lediglich die Frage aufwirft, indem er auf einer probabilistischen Voreingenommenheit zugunsten einfacherer Theorien beruht. Ein weiterer Einwand besteht darin, dass der Vorschlag unter der Einschränkung leidet, dass er nur auf Vergleiche zwischen Theorien angewendet werden kann, bei denen die einfachere Theorie aus der komplexeren abgeleitet werden kann, indem bestimmte ihrer Parameter festgelegt werden. Bestenfalls, Dies stellt einen kleinen Bruchteil der Fälle dar, in denen Einfachheit eine Rolle gespielt hat.

iv. Einfachheit als grundlegendes A-priori-Prinzip

Angesichts des wahrgenommenen Versagens von Philosophen, die Behauptung zu rechtfertigen, dass einfachere Theorien eher wahr sind, Richard Swinburne (2001) hat argumentiert, dass dieser Anspruch als grundlegendes apriorisches Prinzip angesehen werden muss. Swinburne argumentiert, dass es einfach offensichtlich sei, dass die Kriterien zur Theoriebewertung, die Wissenschaftler verwenden, sie zuverlässig dazu verleiten, korrekte Urteile darüber zu fällen, welche Theorien mit größerer Wahrscheinlichkeit wahr sind. Seit, Swinburne argumentiert, Eine davon ist, dass es einfachere Theorien gibt, unter sonst gleichen Bedingungen, eher wahr, Wir müssen einfach akzeptieren, dass Einfachheit tatsächlich ein Indikator für wahrscheinliche Wahrheit ist. Aber, Swinburne glaubt nicht, dass dieser Zusammenhang zwischen Einfachheit und Wahrheit empirisch nachgewiesen werden kann, Er glaubt auch nicht, dass gezeigt werden kann, dass es sich um ein offensichtlicheres apriorisches Prinzip handelt. Daher, Wir haben keine andere Wahl, als es als ein grundlegendes apriorisches Prinzip zu betrachten – ein Prinzip, das durch nichts Grundlegenderes gerechtfertigt werden kann.

Als Antwort auf Swinburne, Man kann argumentieren, dass dies diejenigen Wissenschaftler und Philosophen kaum überzeugen wird, für die es überhaupt nicht offensichtlich ist, dass die einfacheren Theorien eher wahr sind.

b. Alternative Begründungen
Ich. Widerlegbarkeit

Berühmt, Karl Popper (1959) lehnte die Idee ab, dass Theorien jemals durch Beweise bestätigt werden und dass wir jemals das Recht haben, eine Theorie als wahr zu betrachten, oder wahrscheinlich wahr. Daher, Popper glaubte nicht, dass Einfachheit berechtigterweise als Indikator für Wahrheit angesehen werden könne. Eher, Er argumentierte, dass einfachere Theorien geschätzt werden sollten, weil sie falsifizierbarer seien. In der Tat, Popper glaubte, dass die Einfachheit von Theorien an ihrer Falsifizierbarkeit gemessen werden könne, da intuitiv einfachere Theorien einen größeren empirischen Inhalt haben, die Art und Weise, wie die Welt sein kann, stärker einzuschränken, Dies führt zu einer verringerten Fähigkeit, sich auf jede Zukunft einzulassen, die wir entdecken könnten. Laut Popper, Der wissenschaftliche Fortschritt besteht nicht in der Erlangung wahrer Theorien, sondern in der Eliminierung falscher. So, Der Grund, warum wir falsifizierbarere Theorien bevorzugen sollten, liegt darin, dass solche Theorien schneller eliminiert werden, wenn sie tatsächlich falsch sind. Daher, Die Praxis, zunächst die einfachste, mit den Daten übereinstimmende Theorie zu berücksichtigen, ermöglicht einen schnelleren Weg zum wissenschaftlichen Fortschritt. Wichtig, für Popper, Das bedeutete, dass wir einfachere Theorien bevorzugen sollten, da die Wahrscheinlichkeit, dass sie wahr sind, geringer ist, seit, für jeden Datensatz, Es ist wahrscheinlicher, dass es sich um eine komplexe Theorie handelt (im Sinne Poppers) wird in der Lage sein, es unterzubringen als eine einfachere Theorie.

Poppers Gleichung von Einfachheit und Falsifizierbarkeit leidet unter einigen bekannten Einwänden und Gegenbeispielen, und diese stellen seinen Begründungsvorschlag vor erhebliche Probleme (Abschnitt 3c). Ein weiteres erhebliches Problem besteht darin, dass der Grad der Falsifizierbarkeit als Kriterium für die Theoriewahl zu absurden Konsequenzen zu führen scheint, denn es ermutigt uns, absurd spezifische wissenschaftliche Theorien solchen mit allgemeinerem Inhalt vorzuziehen. Zum Beispiel, die Hypothese, „Alle Smaragde sind bis heute 23 Uhr grün, dann werden sie blau“ sollte als besser beurteilt werden als „Alle Smaragde sind grün“, da es einfacher zu fälschen ist. Es erscheint daher zutiefst unglaubwürdig zu sagen, dass die Auswahl und Prüfung solcher Hypothesen zunächst den schnellsten Weg zum wissenschaftlichen Fortschritt darstellt.

Ii. Einfachheit als erklärende Tugend

Eine Reihe von Philosophen haben versucht, die Gründe für den Vorzug einfacherer Theorien gegenüber komplexeren in erklärenden Begriffen zu erläutern (Zum Beispiel, Friedmann, 1974; Nüchtern, 1975; Walsh, 1979; Thagard, 1988; Kitchener, 1989; Bäcker, 2003). Diese Vorschläge wurden typischerweise auf der Grundlage von Berichten über wissenschaftliche Erklärungen gemacht, die Vorstellungen von Erklärbarkeit und Erklärungskraft im Sinne einer Vereinheitlichung erläutern, Es wird davon ausgegangen, dass es eng mit Vorstellungen von Einfachheit verbunden ist. Nach Einigungskonten der Erklärung, Eine Theorie ist erklärend, wenn sie zeigt, wie verschiedene Phänomene unter bestimmten systematisierenden theoretischen Prinzipien miteinander in Beziehung stehen, und einer Theorie wird eine größere Erklärungskraft zugeschrieben als ihren Konkurrenten, wenn sie mehr Phänomene systematisiert. Für Michael Friedman (1974), Zum Beispiel, Die Erklärungskraft ist eine Funktion der Anzahl unabhängiger Phänomene, die wir als ultimativ akzeptieren müssen: desto kleiner ist die Zahl der unabhängigen Phänomene, die von der Theorie als ultimativ angesehen werden, desto erklärender ist die Theorie. Ähnlich, für Philip Kitchener (1989), Je kleiner die Anzahl der Argumentationsmuster ist, desto größer ist die Erklärungskraft, oder „Problemlösungsschemata“, die nötig sind, um die Fakten über die Welt zu liefern, die wir akzeptieren. So, auf solchen Konten, Erklärungskraft wird als struktureller Zusammenhang zwischen der Spärlichkeit einer Erklärung – dem Mangel an Hypothesen oder Argumentationsmustern – und der Fülle der erklärten Fakten angesehen. Es gab verschiedene Versuche, Vorstellungen von Einfachheit anhand dieser Art von Merkmalen zu erklären. Ein Standardargument, das dann verwendet wird, ist, dass wir nicht nur wollen, dass unsere Theorien wahr sind, sondern auch erklärend. Wenn die Wahrheit unser einziges Ziel wäre, Es gäbe keinen Grund, eine echte wissenschaftliche Theorie einer Sammlung zufälliger Tatsachenaussagen vorzuziehen, die alle zufällig wahr sind. Daher, Die Erklärung ist ein Ultimatum, und kein rein instrumentelles Ziel wissenschaftlicher Forschung. So, Wir können unsere Präferenzen für einfachere Theorien rechtfertigen, wenn wir erkennen, dass ein grundlegender Zusammenhang zwischen Einfachheit und Erklärbarkeit besteht und dass Erklärung ein zentrales Ziel wissenschaftlicher Forschung ist, neben der Wahrheit.

Es gibt einige bekannte Einwände gegen Vereinheitlichungserklärungstheorien, Die meisten von ihnen beziehen sich jedoch auf die Behauptung, dass die Vereinheitlichung die einzige Erklärung sei – eine Behauptung, von der der aktuelle Vorschlag nicht abhängt. Aber, selbst wenn wir eine Vereinheitlichungstheorie der Erklärung akzeptieren und akzeptieren, dass Erklärung ein ultimatives Ziel wissenschaftlicher Forschung ist, Man kann einwenden, dass die Wahl zwischen einer einfachen Theorie und einem komplexeren Rivalen normalerweise keine Wahl zwischen einer Theorie ist, die wirklich erklärend ist, in diesem Sinne, und ein bloßer Tatsachenbericht. Die komplexe Theorie kann normalerweise als eine Vereinigung verschiedener Phänomene unter systematisierenden Prinzipien angesehen werden, zumindest bis zu einem gewissen Grad. Daher, Die rechtfertigende Frage hier ist nicht, warum wir Theorien, die die Daten erklären, Theorien vorziehen sollten, die dies nicht tun, Aber warum sollten wir Theorien mit größerer Erklärungskraft in dem gerade beschriebenen Sinne Theorien vorziehen, die vergleichsweise weniger erklärend sind?. Es besteht sicherlich eine kohärente Möglichkeit, dass sich die Wahrheit als relativ uneinheitlich und unsystematisch erweisen könnte. Angesichts dessen, Es erscheint angebracht zu fragen, warum wir berechtigt sind, Theorien auszuwählen, weil sie einheitlicher sind. Es scheint nicht ausreichend zu sein, nur zu sagen, dass Erklärungen das ultimative Ziel wissenschaftlicher Forschung sind.

iii. Vorhersagegenauigkeit

In den letzten Jahrzehnten, Die Behandlung der Einfachheit als expliziter Teil der statistischen Methodik ist immer ausgefeilter geworden. Eine Folge davon ist, dass einige Wissenschaftsphilosophen begonnen haben, in der Statistikliteratur nachzuschlagen, um zu erhellen, wie man über die philosophischen Probleme im Zusammenhang mit der Einfachheit nachdenkt. Laut Malcolm Forster und Elliott Sober (Forster und Sober, 1994; Förster, 2001; Nüchtern, 2007), die Arbeit des Statistikers, Hirotugu Akaike (1973), Bietet einen präzisen theoretischen Rahmen zum Verständnis der Begründung für die Rolle der Einfachheit bei der Kurvenanpassung und Modellauswahl.

Standardansätze zur Kurvenanpassung bewirken einen Kompromiss zwischen der Anpassung an eine Datenstichprobe und der Einfachheit der Art der mathematischen Beziehung, die zwischen den Variablen bestehen soll – das heißt, die Einfachheit des postulierten Modells für die zugrunde liegende Beziehung, wird typischerweise anhand der Anzahl der darin enthaltenen einstellbaren Parameter gemessen. Das bedeutet oft, Zum Beispiel, dass eine lineare Hypothese, die weniger gut zu einer Datenstichprobe passt, einer parabolischen Hypothese vorgezogen werden kann, die besser zu den Daten passt. Laut Forster und Sober, Akaike entwickelte eine Erklärung dafür, warum es rational ist, einfachere Modelle zu bevorzugen, unter bestimmten Umständen. Der Vorschlag baut auf der praktischen Erkenntnis auf, dass die Datenstichprobe ein bestimmtes Maß an Fehlern oder Rauschen aufweist, Komplexere Modelle neigen eher dazu, diese falschen Daten in der Stichprobe zu „überanzupassen“ und führen daher zu weniger genauen Vorhersagen für zusätzliche Stichproben (Zum Beispiel, Zukunft) Daten, insbesondere bei kleinen Stichprobengrößen. (Gauch [2003, 2006] nennt dies „Ockhams Hügel“: links vom Gipfel des Hügels, Eine Erhöhung der Komplexität eines Modells verbessert seine Genauigkeit in Bezug auf Daten außerhalb der Stichprobe; nach dem Höhepunkt, Mit zunehmender Komplexität verringert sich tatsächlich die Vorhersagegenauigkeit. Auf dem Gipfel des Ockham-Hügels gibt es daher einen optimalen Kompromiss zwischen Einfachheit und Anpassung an die Datenstichprobe, wenn es darum geht, genaue Vorhersagen zu ermöglichen). Laut Forster und Sober, Was Akaike tat, war, einen Satz zu beweisen, was das zeigt, unter Berücksichtigung standardmäßiger statistischer Annahmen, Wir können abschätzen, inwieweit die Einschränkung der Modellkomplexität bei der Anpassung einer Kurve an eine Datenstichprobe zu genaueren Vorhersagen von Daten außerhalb der Stichprobe führt. Im Anschluss an den Vortrag von Forster und Sober (1994, S. 9-10), Der Satz von Akaike lässt sich wie folgt formulieren:

Geschätzt[Ein(M)] = (1/N)[Log-Wahrscheinlichkeit(L(M)) – k],

wo ein(M) ist die Vorhersagegenauigkeit des Modells, M, in Bezug auf Extra-Sample-Daten, N ist die Anzahl der Datenpunkte in der Stichprobe, Die Log-Likelihood ist ein Maß für die Güte der Anpassung an die Stichprobe (Je höher der Log-Likelihood-Score, desto näher ist die Anpassung an die Daten), L(M) ist das am besten passende Mitglied von M, und k ist die Anzahl der einstellbaren Parameter, die M enthält. Der Satz von Akaike soll einen unvoreingenommenen Schätzer für die Vorhersagegenauigkeit spezifizieren, Das bedeutet, dass sich die Verteilung der Schätzungen von A um den wahren Wert von A dreht (für Beweise und weitere Details zu den Annahmen hinter dem Satz von Akaike, siehe Sakamoto und andere, 1986). Daraus ergibt sich ein Modellauswahlverfahren, Akaikes Informationskriterium (AIC), Das besagt, dass wir das Modell wählen sollten, das die höchste geschätzte Vorhersagegenauigkeit aufweist, angesichts der vorliegenden Daten. In der Praxis, AIC impliziert, dass die am besten passende Parabel besser zur Datenprobe passt als die am besten passende gerade Linie, aber nicht so viel besser, dass dies die größere Komplexität überwiegt (k), Die gerade Linie sollte für Vorhersagen verwendet werden. Wichtig, Je größer die Datenstichprobe ist, desto geringer ist der Einfluss der auf die Komplexität auferlegten Strafe auf die Modellauswahl, Dies bedeutet, dass Einfachheit für die Vorhersagegenauigkeit beim Umgang mit kleineren Stichproben wichtiger ist.

Forster und Sober argumentieren, dass der Satz von Akaike erklärt, warum Einfachheit einen quantifizierbaren positiven Effekt auf die Vorhersagegenauigkeit hat, indem er das Risiko einer Überanpassung an verrauschte Daten bekämpft. Daher, wenn man zum Beispiel daran interessiert ist, genaue Vorhersagen zu treffen, von zukünftigen Daten – man hat klare Gründe dafür, einfachere Modelle zu bevorzugen. Forster und Sober weisen ausdrücklich darauf hin, dass dieser Vorschlag nur für wissenschaftliche Kontexte gelten soll, die innerhalb eines Modellauswahlrahmens verstanden werden können, wobei die Vorhersagegenauigkeit das zentrale Ziel der Untersuchung ist und die Daten ein gewisses Maß an Fehlern oder Rauschen aufweisen. Daher, Sie sehen in Akaikes Arbeit keine vollständige Lösung für das Problem der Rechtfertigung von Präferenzen für einfachere Theorien. Aber, Sie haben argumentiert, dass eine sehr bedeutende Anzahl wissenschaftlicher Schlussfolgerungsprobleme aus einer Akaikian-Perspektive verstanden werden kann.

Gegen Forsters und Sobers philosophische Verwendung von Akaikes Werk wurden mehrere Einwände erhoben. Ein Einwand besteht darin, dass das von AIC verwendete Maß an Einfachheit nicht sprachinvariant ist, da die Anzahl der einstellbaren Parameter, die ein Modell enthält, davon abhängt, wie das Modell beschrieben wird. Aber, Forster und Sober argumentieren jedoch, für praktische Zwecke, Die Quantität, k, wird normalerweise als Anzahl der einstellbaren Parameter angegeben, Tatsächlich lässt es sich genauer durch den Begriff der Dimension einer Funktionsfamilie erklären, Das ist sprachinvariant. Ein weiterer Einwand ist, dass der AIC statistisch nicht konsistent ist. Forster und Sober erwidern, dass dieser Vorwurf auf einer Verwirrung darüber beruht, was AIC schätzen soll: Zum Beispiel, fälschlicherweise wird angenommen, dass AIC als Schätzer für den wahren Wert von k gedacht ist (die Größe des einfachsten Modells, das die wahre Hypothese enthält), und nicht ein Schätzer der Vorhersagegenauigkeit eines bestimmten Modells. Eine weitere Sorge besteht darin, dass Überlegungen zur Überanpassung dazu führen, dass ein idealisiertes falsches Modell häufig genauere Vorhersagen liefert als ein realistischeres Modell, Daher ist die Begründung lediglich instrumentalistischer Natur und rechtfertigt nicht die Verwendung der Einfachheit als Kriterium für die Akzeptanz von Hypothesen, wenn Hypothesen realistisch ausgelegt werden, und nicht nur als Vorhersagewerkzeuge. Ihrerseits, Forster und Sober akzeptieren diese instrumentalistische Interpretation der Rolle der Einfachheit bei der Kurvenanpassung und Modellauswahl durchaus gerne: in diesem Kontext, Einfachheit ist kein Wegweiser zur Wahrheit, aber zur Vorhersagegenauigkeit. Endlich, Es gibt verschiedene Einwände gegen die Art und Gültigkeit der Annahmen hinter dem Akaikie-Theorem und gegen die Frage, ob AIC auf einige wichtige Klassen von Modellauswahlproblemen anwendbar ist (zur Diskussion, siehe Kieseppä, 1997; Förster, 1999, 2001; Howson und Urbach, 2006; Dowe und andere, 2007; Nüchtern, 2007; Kelly, 2010).

iv. Effizienz bei der Wahrheitsfindung

Ein wichtiger aktueller Vorschlag zur Rechtfertigung von Präferenzen für einfachere Theorien stammt aus der Arbeit im interdisziplinären Bereich, der als formale Lerntheorie bekannt ist (Schulte, 1999; Kelly, 2004, 2007, 2010). Es wurde vorgeschlagen, dass wir nicht wissen, ob die Welt einfach oder komplex ist, Es kann gezeigt werden, dass Inferenzregeln, die auf einfache Hypothesen ausgerichtet sind, effizienter zur Wahrheit konvergieren als alternative Inferenzregeln. Nach diesem Vorschlag, Man sagt, dass eine Inferenzregel effizient zur Wahrheit konvergiert, wenn, relativ zu anderen möglichen konvergenten Inferenzregeln, Es minimiert die maximale Anzahl von Kehrtwendungen oder „Rückzügen“ der Meinung, die von der Fragestellerin verlangt werden könnten, während sie die Regel als Leitfaden für ihre Entscheidungen darüber verwendet, was sie angesichts der Daten glauben soll. Solche Verfahren sollen direkter und stabiler zur Wahrheit konvergieren, da sie unterwegs weniger Meinungsänderungen erfordern. Der Vorschlag ist, dass wir selbst dann nicht wissen, ob die Wahrheit einfach oder komplex ist, Es kann a priori gezeigt werden, dass wissenschaftliche Inferenzverfahren, die auf Einfachheit ausgerichtet sind, in diesem Sinne optimal effizient sind, auf die direkteste und stabilste Art und Weise zur Wahrheit zu gelangen.

Um die grundlegende Logik hinter diesem Vorschlag zu veranschaulichen, Betrachten Sie das folgende Beispiel von Oliver Schulte (1999). Angenommen, wir untersuchen die Existenz eines hypothetischen Teilchens, Oh. Wenn Ω existiert, Wir werden es mit einem geeigneten Messgerät feststellen können. Aber, bis jetzt, es wurde nicht erkannt. Welche Haltung sollten wir zur Existenz Ω einnehmen?? Nehmen wir an, Ockhams Rasiermesser legt nahe, dass wir die Existenz von Ω leugnen, bis es entdeckt wird (wenn jemals). Alternativ, Wir könnten behaupten, dass Ω existiert, bis sich eine endliche Anzahl von Versuchen, Ω zu entdecken, als erfolglos erwiesen hat, sagen wir zehntausend, in welchem ​​Fall, Wir behaupten, dass Ω nicht existiert; oder, Wir könnten die Beurteilung zurückhalten, bis Ω erkannt wird, oder es gab zehntausend erfolglose Versuche, es zu entdecken. Denn wir gehen davon aus, dass vorhandene Teilchen nicht ewig unentdeckt bleiben, Wenn wir uns an eine dieser drei Schlussfolgerungsregeln halten, können wir uns der Wahrheit im Grenzwert annähern, ob Ω existiert oder nicht. Aber, Schulte argumentiert, dass Ockhams Rasiermesser der effizienteste Weg zur Wahrheit sei. Dies liegt daran, dass die Befolgung von Ockhams „Razor“ maximal nur einen Meinungsrückzug nach sich zieht: Zurückziehen einer Behauptung der Nichtexistenz auf eine Behauptung der Existenz, wenn Ω erkannt wird. Im Gegensatz, Die alternativen Inferenzregeln erfordern jeweils maximal zwei Rückzüge, da Ω zehntausendmal unentdeckt bleiben könnte, wird dann aber beim zehntausendsten Mal erkannt. Daher, Die Effizienz der Wahrheitsfindung erfordert, dass man Ockhams Rasiermesser übernimmt und annimmt, dass Ω nicht existiert, bis es entdeckt wird.

Kevin Kelly hat dieses Kehrtwende-Argument ausführlich weiterentwickelt. Kelly argumentiert das, mit passenden Verfeinerungen, Es kann auf eine äußerst große Vielfalt realer wissenschaftlicher Inferenzprobleme ausgeweitet werden. Wichtig, Kelly hat das argumentiert, zu diesem Vorschlag, Einfachheit sollte nicht als rein pragmatische Überlegung bei der Theoriewahl angesehen werden. Obwohl Einfachheit nicht als direkter Indikator für die Wahrheit angesehen werden kann, Dennoch haben wir Grund zu der Annahme, dass die Bevorzugung einfacherer Theorien eine wahrheitsfördernde Strategie ist, da es die schnelle und stabile Verwirklichung wahrer Überzeugungen fördert. Daher, Einfachheit sollte als eine wirklich epistemische Überlegung bei der Theoriewahl angesehen werden.

Eine Sorge bezüglich des Vorschlags zur Effizienz der Wahrheitsfindung betrifft die allgemeine Anwendbarkeit dieser Ergebnisse auf wissenschaftliche Kontexte, in denen Einfachheit eine Rolle spielen könnte. Das oben beschriebene U-Turn-Argument für Ockhams Rasiermesser scheint auf der Beweisasymmetrie zwischen der Feststellung, dass Ω existiert, und der Feststellung, dass Ω nicht existiert, abzuhängen: Ein Nachweis von Ω reicht aus, um die Existenz von Ω festzustellen, wohingegen wiederholte Fehlerkennungen nicht ausreichen, um das Nichtvorhandensein festzustellen. Das Argument mag funktionieren, wenn die Erkennungsverfahren relativ eindeutig sind – zum Beispiel wenn es relativ eindeutige Instrumentenablesungen gibt, die als „Erkennungen“ gelten – aber was ist mit Entitäten, die nur sehr schwer direkt zu erkennen sind und bei denen leicht Fehler hinsichtlich ihrer Existenz gemacht werden können? sowie Nichtexistenz? Ähnlich, Ein aktueller Stolperstein besteht darin, dass das U-Turn-Argument nicht als Rechtfertigung für die Verwendung von Einfachheitsverzerrungen bei statistischen Schlussfolgerungen herangezogen werden kann, wenn die betrachteten Hypothesen keine deduktiven Beobachtungskonsequenzen haben. Kelly ist, Jedoch, optimistisch, das U-Turn-Argument auf statistische Schlussfolgerungen auszudehnen. Ein weiterer Einwand betrifft die Art der hier vorgebrachten Begründung. Was das Kehrtwende-Argument zu zeigen scheint, ist, dass die Strategie, die einfachste, mit den Daten übereinstimmende Theorie zu bevorzugen, dabei helfen kann, die Wahrheit mit weniger Umkehrungen auf dem Weg zu finden. Es legt nicht fest, dass einfachere Theorien selbst in irgendeiner Weise als „besser“ angesehen werden sollten als ihre komplexeren Konkurrenten. Daher, Es bestehen Zweifel daran, inwieweit dieser Vorschlag tatsächlich Standardbeispiele für Einfachheitspräferenzen in der Geschichte und aktuellen Praxis der Wissenschaft verstehen kann, Dabei scheint die Leitannahme zu sein, dass einfachere Theorien nicht nur aus strategischen Gründen bevorzugt werden sollten, sondern weil es bessere Theorien sind.

c. Deflationäre Ansätze

Verschiedene Philosophen haben versucht, weitgehend deflationäre Darstellungen der Einfachheit zu verteidigen. Solche Darstellungen weichen von allen bisher besprochenen Rechtfertigungsdarstellungen ab, indem sie die Vorstellung ablehnen, dass Einfachheit tatsächlich als eigenständige theoretische Tugend und Kriterium für die Theoriewahl betrachtet werden sollte. Eher, nach deflationären Rechnungen, wenn Einfachheit ein treibender Faktor bei der Theoriebewertung zu sein scheint, etwas anderes erledigt die eigentliche Arbeit.

Richard Boyd (1990), Zum Beispiel, hat argumentiert, dass die Einfachheitsurteile von Wissenschaftlern typischerweise am besten als verdeckte Urteile theoretischer Plausibilität verstanden werden können. Wenn ein Wissenschaftler behauptet, eine Theorie sei „einfacher“ als eine andere, ist dies oft nur eine andere Art zu sagen, dass die Theorie eine plausiblere Darstellung der Daten liefert. Für Boyd, Solche verdeckten Urteile über die theoretische Plausibilität werden durch die Hintergrundtheorien des Wissenschaftlers bestimmt. Daher, Es sind die relevanten Hintergrundtheorien, die die eigentliche Motivation für die Bevorzugung der „einfacheren“ Theorie liefern, nicht die Einfachheit der Theorie an sich. John Norton (2003) hat im Rahmen seiner „Materialtheorie“ der Induktion eine ähnliche Ansicht vertreten, wonach induktive Schlussfolgerungen nicht durch universelle induktive Regeln oder Schlussfolgerungsschemata lizenziert werden, sondern eher durch lokale sachliche Annahmen über den Untersuchungsbereich. Norton argumentiert, dass die offensichtliche Verwendung der Einfachheit bei der Induktion lediglich wesentliche Annahmen über die Natur des untersuchten Bereichs widerspiegelt. Zum Beispiel, Wenn wir versuchen, Kurven an Daten anzupassen, wählen wir die Variablen und Funktionen aus, die unserer Meinung nach für die physikalische Realität, die wir erreichen möchten, angemessen sind. Daher, Aufgrund der Fakten, von denen wir glauben, dass sie in diesem Bereich vorherrschen, bevorzugen wir eine „einfache“ lineare Funktion gegenüber einer quadratischen, wenn eine solche Kurve ausreichend gut zu den Daten passt. In einer anderen Domäne, wo wir glauben, dass unterschiedliche Fakten vorherrschen, Unsere Entscheidung darüber, welche Hypothesen „einfach“ oder „komplex“ sind, fällt wahrscheinlich sehr unterschiedlich aus.

Elliott nüchtern (1988, 1994) hat diese Art der deflationären Analyse verschiedener Appelle an Einfachheit und Sparsamkeit in der Evolutionsbiologie verteidigt. Zum Beispiel, Sober argumentiert, dass die allgemeine Behauptung, dass Gruppenselektionshypothesen „weniger sparsam“ seien und daher als Erklärungen für biologische Anpassungen weniger ernst genommen werden sollten, als individuelle Selektionshypothesen, beruht auf substanziellen Annahmen über die vergleichsweise Seltenheit der Bedingungen, die für das Auftreten einer Gruppenauswahl erforderlich sind. Daher, Der Appell an Ockham’s Razor ist in diesem Zusammenhang lediglich ein verdeckter Appell an lokales Hintergrundwissen. Andere Versuche, deflationäre Analysen bestimmter Appelle an die Einfachheit in der Wissenschaft anzubieten, umfassen Plutynski (2005), der sich auf die Fisher-Wright-Debatte in der Evolutionsbiologie konzentriert, und Fitzpatrick (2009), der sich auf Appelle zur Einfachheit in Debatten über die kognitiven Fähigkeiten nichtmenschlicher Primaten konzentriert.

Wenn sich solche deflationären Analysen der mutmaßlichen Rolle der Einfachheit in bestimmten wissenschaftlichen Kontexten als plausibel erweisen, Dann können Probleme hinsichtlich der Messung der Einfachheit und der Bereitstellung einer allgemeinen Begründung für die Bevorzugung einfacherer Theorien vermieden werden, da gezeigt werden kann, dass Einfachheit an sich keine wesentliche Wirkung auf die relevanten Schlussfolgerungen hat. Aber, Viele Philosophen sind skeptisch, ob solche deflationären Analysen für viele Kontexte möglich sind, in denen Einfachheitserwägungen eine wichtige Rolle spielen. Kelly (2010), Zum Beispiel, hat argumentiert, dass Einfachheit typischerweise dann ins Spiel kommt, wenn unser Hintergrundwissen die Wahl der Theorie nicht ausreichend bestimmt. Sober selbst scheint eine gemischte Ansicht zu vertreten: Einige Appelle an die Einfachheit in der Wissenschaft lassen sich am besten in deflationären Begriffen verstehen, andere lassen sich anhand der Akaikschen Modellauswahltheorie besser verstehen.

5. Abschluss

Die mutmaßliche Rolle von Einfachheitserwägungen in der Geschichte und gegenwärtigen Praxis der Wissenschaft wirft eine Reihe philosophischer Probleme auf, einschließlich des Problems der präzisen Definition und Messung theoretischer Einfachheit, und das Problem der Rechtfertigung von Präferenzen für einfachere Theorien. Wie dieser Überblick über die Literatur zur Einfachheit in der Wissenschaftsphilosophie zeigt, Diese Probleme erwiesen sich als überraschend lösungsresistent, und es gibt weiterhin eine lebhafte Debatte unter Wissenschaftsphilosophen darüber, wie man mit ihnen umgeht. Andererseits, Es lässt sich nicht bestreiten, dass praktizierende Wissenschaftler es nach wie vor für nützlich halten, sich in ihrer Arbeit auf verschiedene Vorstellungen von Einfachheit zu berufen. So, auf viele Arten, Die Debatte über Einfachheit ähnelt anderen langjährigen Debatten in der Philosophiewissenschaft, wie zum Beispiel das über die Begründung der Induktion (welche, es stellt sich heraus, hängt eng mit dem Problem der Rechtfertigung von Präferenzen für einfachere Theorien zusammen). Allerdings besteht in der wissenschaftlichen Gemeinschaft wohl mehr Skepsis gegenüber der Legitimität der Wahl zwischen konkurrierenden Theorien aus Gründen der Einfachheit als gegenüber der Legitimität induktiver Schlussfolgerungen – letztere sind für praktizierende Wissenschaftler überhaupt kein Thema – wie es bei der Induktion der Fall ist, Sehr viele Wissenschaftler wenden weiterhin Praktiken und Methoden an, die Vorstellungen von Einfachheit mit großer wissenschaftlicher Wirkung nutzen, unter der Annahme, dass es tatsächlich geeignete Lösungen für die philosophischen Probleme gibt, die diese Praktiken mit sich bringen, auch wenn es den Philosophen bisher nicht gelungen ist, sie zu artikulieren. Aber, wie auch diese Umfrage gezeigt hat, Statistiker, Informations- und Lerntheoretiker, und andere Wissenschaftler haben zunehmend wichtige Beiträge zur Debatte über die philosophischen Grundlagen dieser Praktiken geleistet.

6. Referenzen und weiterführende Literatur
Ackermann, R. 1961. Induktive Einfachheit. Philosophie der Wissenschaft, 28, 162-171.
Argumentiert gegen die Behauptung, dass Überlegungen zur Einfachheit eine wichtige Rolle bei der induktiven Schlussfolgerung spielen. Kritisiert die von Jeffreys vorgeschlagenen Maße der Einfachheit, Schornstein, und Popper.
Akaike, H. 1973. Informationstheorie und die Erweiterung des Maximum-Likelihood-Prinzips. In B. Petrov und F. Nur (Hrsg.), Zweites Internationales Symposium zur Informationstheorie. Budapest: Akademien Kiado.
Legte den Grundstein für die Modellauswahltheorie. Beweist einen Satz, der besagt, dass die Einfachheit eines Modells für die Schätzung seiner zukünftigen Vorhersagegenauigkeit relevant ist. Hochtechnisch.
Bäcker, Ein. 2003. Quantitative Sparsamkeit und Erklärungskraft. Britisches Journal für Wissenschaftsphilosophie, 54, 245-259.
Baut auf Nolan auf (1997), argumentiert, dass quantitative Sparsamkeit mit Erklärungskraft verbunden ist.
Bäcker, Ein. 2007. Occams Rasiermesser in der Wissenschaft: eine Fallstudie aus der Biogeographie. Biologie und Philosophie, 22, 193-215.
Argumentiert für eine „naturalistische“ Rechtfertigung von Ockhams Rasiermesser und dafür, dass Präferenzen für ontologische Sparsamkeit eine bedeutende Rolle in der Debatte in der Biogeographie des späten 19. Jahrhunderts zwischen dispersalistischen und extensionistischen Theorien spielten.
Barnes, E.C. 2000. Ockhams Rasiermesser und das Anti-Überfluss-Prinzip. Erkenntnis, 53, 353-374.
Zeichnet eine nützliche Unterscheidung zwischen zwei unterschiedlichen Interpretationen von Ockhams Rasiermesser: das Anti-Überfluss-Prinzip und das Anti-Quantitäts-Prinzip. Erläutert eine beweiskräftige Begründung des Anti-Überfluss-Prinzips.
Boyd, R. 1990. Beobachtungen, Erklärungskraft, und Einfachheit: gegenüber einem nicht-humanen Konto. In R. Boyd, P. Gasper und J.D. Forelle (Hrsg.), Die Wissenschaftsphilosophie. Cambridge, MA: MIT Press.
Argumente, die sich auf die Einfachheit der Theoriebewertung berufen, lassen sich typischerweise am besten als verdeckte Urteile über die theoretische Plausibilität verstehen.
Bunge, M. 1961. Das Gewicht der Einfachheit bei der Konstruktion und Prüfung wissenschaftlicher Theorien. Philosophie der Wissenschaft, 28, 162-171.
Steht der Bedeutung und Berechtigung eines Einfachheitskriteriums bei der Theoriebewertung skeptisch gegenüber.
Carlson, E. 1966. Das Gen: Eine kritische Geschichte. Philadelphia: Saunders.
Argumentiert, dass Überlegungen zur Einfachheit in mehreren wichtigen Debatten in der Geschichte der Genetik eine wichtige Rolle gespielt haben.
Carnap, R. 1950. Logische Grundlagen der Wahrscheinlichkeit. Chicago: University of Chicago Press.
Geschwätz, N. 1999. Die Suche nach Einfachheit: ein grundlegendes kognitives Prinzip. Das vierteljährliche Journal of Experimental Psychology, 52A, 273-302.
Argumentiert, dass Einfachheit eine grundlegende Rolle im menschlichen Denken spielt, wobei die Einfachheit anhand der Kolmogorov-Komplexität definiert werden muss.
Cohen, I.B. 1985. Revolutionen in der Wissenschaft. Cambridge, MA: Harvard University Press.
Cohen, I.B. 1999. Ein Leitfaden zu Newtons Principia. Im I. Newton, Die Principia: Mathematische Prinzipien der Naturphilosophie; Eine neue Übersetzung von I. Bernard Cohen und Anne Whitman. Berkeley: University of California Press.
Verrenken, F. 1988. Was für eine verrückte Verfolgungsjagd: eine persönliche Sicht auf wissenschaftliche Entdeckungen. New York: Grundlegende Bücher.
Argumentiert, dass die Anwendung von Ockhams Rasiermesser auf die Biologie nicht ratsam ist.
Taub, D, Gardner, S., und Oppy, G. 2007. Bayes ist nicht Pleite! Warum Einfachheit für Bayesianer kein Problem ist. Britisches Journal für Wissenschaftsphilosophie, 58, 709-754.
Contra Forster und Sober (1994), argumentiert, dass Bayesianer die Rolle der Einfachheit bei der Kurvenanpassung verstehen können.
Duhem, P. 1954. Ziel und Struktur der physikalischen Theorie. Princeton: Princeton University Press.
Einstein, Ein. 1954. Ideen und Meinungen. New York: Krone.
Einsteins Ansichten über die Rolle der Einfachheit in der Physik.
Fitzpatrick, S. 2009. Die Kontroverse um das Gedankenlesen von Primaten: eine Fallstudie über Einfachheit und Methodik in der Tierpsychologie. In R. Lurz (ed.), Die Philosophie des Tiergeistes. New York: Cambridge University Press.
Befürwortet eine deflationäre Analyse der Appelle an die Einfachheit in Debatten über die kognitiven Fähigkeiten nichtmenschlicher Primaten.
Förster, M. 1995. Bayes und Büste: Einfachheit als Problem für den probabilistischen Bestätigungsansatz. Britisches Journal für Wissenschaftsphilosophie, 46, 399-424.
Argumentiert, dass der Bayes'sche Ansatz zum wissenschaftlichen Denken unzureichend ist, weil er die Rolle der Einfachheit bei der Theoriebewertung nicht verstehen kann.
Förster, M. 1999. Modellauswahl in der Wissenschaft: das Problem der Sprachvarianz. Britisches Journal für Wissenschaftsphilosophie, 50, 83-102.
Reagiert auf Kritik an Forster und Sober (1994). Argumentiert, dass AIC auf einem sprachinvarianten Maß für Einfachheit beruht.
Förster, M. 2001. Die neue Wissenschaft der Einfachheit. In einem. Zellner, H. Keuzenkamp und M. McAleer (Hrsg.), Einfachheit, Inferenz und Modellierung. Cambridge: Cambridge University Press.
Barrierefreie Einführung in die Modellauswahltheorie. Beschreibt, wie unterschiedliche Verfahren, einschließlich AIC, BIC, und MDL, Kompromiss zwischen Einfachheit und Anpassung an die Daten.
Förster, M. und nüchtern, E. 1994. So erkennen Sie, wann es einfacher ist, einheitlicher, oder weniger Ad-hoc-Theorien liefern genauere Vorhersagen. Britisches Journal für Wissenschaftsphilosophie, 45, 1-35.
Erläuterung der AIC-Statistiken und ihre Relevanz für das philosophische Problem der Rechtfertigung von Präferenzen für einfachere Theorien. Argumentiert gegen bayesianische Ansätze zur Einfachheit. Stellenweise technisch.
Fördern, M. und Martin, M. 1966. Wahrscheinlichkeit, Bestätigung, und Einfachheit: Lesungen zur Philosophie der induktiven Logik. New York: Die Odyssee-Presse.
Anthologie von Artikeln zur Diskussion der Rolle der Einfachheit bei der Induktion. Enthält wichtige Arbeiten von Ackermann, Barker, Bunge, Guter Mann, Schornstein, und Quine.
Friedmann, M. 1974. Erklärung und wissenschaftliches Verständnis. Zeitschrift für Philosophie, 71, 1-19.
Verteidigt einen Erklärungsansatz zur Vereinigung, verbindet Einfachheit mit Erklärbarkeit.
Galilei, G. 1962. Dialoge über die beiden wichtigsten Weltsysteme. Berkeley: University of California Press.
Klassische Verteidigung des Kopernikanismus mit erheblichem Schwerpunkt auf der größeren Einfachheit und Harmonie des kopernikanischen Systems. Behauptet, dass die Natur nichts umsonst tut.
Gauch, H. 2003. Wissenschaftliche Methode in der Praxis. Cambridge: Cambridge University Press.
Umfangreiche Diskussion der wissenschaftlichen Methode, geschrieben von einem Wissenschaftler für Wissenschaftler. Enthält ein Kapitel über die Bedeutung der Sparsamkeit in der Wissenschaft.
Gauch, H. 2006. Das Präzisionsspiel gewinnen. Amerikanischer Wissenschaftler, 94, März-April 2006, 134-141.
Nützliche informelle Darstellung des Konzepts des Ockham-Hügels und seiner Bedeutung für die wissenschaftliche Forschung in einer Reihe von Bereichen.
Gingerich, Ö. 1993. Das Auge des Himmels: Ptolemaios, Kopernikus, Kepler. New York: Amerikanisches Institut für Physik.
Glymour, C. 1980. Theorie und Beweise. Princeton: Princeton University Press.
Eine wichtige Kritik der bayesianischen Versuche, die Rolle der Einfachheit in der Wissenschaft zu verstehen. Verteidigt eine „knallharte“ Analyse der Einfachheitsargumente für den Kopernikanismus und Newtons Argument für die universelle Gravitation.
Guter Mann, N. 1943. Von der Einfachheit der Ideen. Zeitschrift für symbolische Logik, 8, 107-1.
Guter Mann, N. 1955. Axiomatische Messung der Einfachheit. Zeitschrift für Philosophie, 52, 709-722.
Guter Mann, N. 1958. Der Test der Einfachheit. Wissenschaft, 128, 31. Oktober 1958, 1064-1069.
Eine einigermaßen verständliche Einführung in Goodmans Versuche, ein Maß an logischer Einfachheit zu formulieren.
Guter Mann, N. 1959. Aktuelle Entwicklungen in der Theorie der Einfachheit. Philosophie und phänomenologische Forschung, 19, 429-446.
Antwort auf Kritik an Goodman (1955).
Guter Mann, N. 1961. Sicherheit, Stärke, Einfachheit. Philosophie der Wissenschaft, 28, 150-151.
Argumentiert, dass Einfachheit nicht mit Testbarkeit gleichgesetzt werden kann, empirischer Inhalt, oder Mangel an Annahmen.
Guter Mann, N. 1983. Tatsache, Fiktion und Prognose (4. Auflage). Cambridge, MA: Harvard University Press.
Harman, G. 1999. Einfachheit als pragmatisches Kriterium für die Entscheidung, welche Hypothesen ernst zu nehmen sind. In G. Harman, Argumentation, Bedeutung und Geist. Oxford: Oxford University Press.
Verteidigt die Behauptung, dass Einfachheit ein grundlegender Bestandteil der induktiven Schlussfolgerung ist und dass diese Rolle eine pragmatische Rechtfertigung hat.
Harman, G. und Kulkarni, S. 2007. Zuverlässiges Denken: Induktion und statistische Lerntheorie. Cambridge, MA: MIT Press.
Barrierefreie Einführung in die statistische Lerntheorie und die VC-Dimension.
Harper, W. 2002. Newtons Argument für die universelle Gravitation. In I.B. Cohen und G.E. Schmied (Hrsg.), Der Cambridge-Begleiter von Newton. Cambridge: Cambridge University Press.
Hessen, M. 1967. Einfachheit. In P. Edwards (ed.), Die Enzyklopädie der Philosophie, Bd. 7. New York: Macmillan.
Konzentriert sich auf Versuche von Jeffreys, Popper, Schornstein, und Goodman, um Maße der Einfachheit zu formulieren.
Hessen, M. 1974. Die Struktur wissenschaftlicher Schlussfolgerungen. London: Macmillan.
Verteidigt die Ansicht, dass Einfachheit eine Determinante der A-priori-Wahrscheinlichkeit ist. Nützliche Diskussion über die Rolle der Einfachheit in Einsteins Werk.
Holton, G. 1974. Thematische Ursprünge der modernen Wissenschaft: Kepler bis Einstein. Cambridge, MA: Harvard University Press.
Bespricht die Rolle ästhetischer Überlegungen, inklusive Einfachheit, in der Geschichte der Wissenschaft.
Hoffmann, R., Nerz, V., und Zimmermann, B. 1997. Ockhams Rasiermesser und Chemie. Heulen, 3, 3-28.
Diskussion von drei Chemikern über die Vorteile und Fallstricke der Anwendung von Ockhams Rasiermesser in der chemischen Forschung.
Howson, C. und Urbach, P. 2006. Wissenschaftliches Denken: Der Bayes'sche Ansatz (Dritte Edition). Chicago: Öffentlicher Sitzung.
Enthält einen nützlichen Überblick über bayesianische Versuche, die Rolle der Einfachheit bei der Theoriebewertung zu verstehen. Stellenweise technisch.
Jeffreys, H. 1957. Wissenschaftliche Schlussfolgerung (2. Auflage). Cambridge: Cambridge University Press.
Verteidigt das „Einfachheitspostulat“, dass einfachere Theorien eine höhere A-priori-Wahrscheinlichkeit haben.
Jeffreys, H. 1961. Wahrscheinlichkeitstheorie. Oxford: Clarendon Press.
Überblick und Verteidigung des Bayes'schen Ansatzes zur wissenschaftlichen Schlussfolgerung. Erörtert die Rolle der Einfachheit bei der Bestimmung von Prioritäten und Wahrscheinlichkeiten.
Kelly, K. 2004. Rechtfertigung als Wahrheitsfindungseffizienz: wie Ockhams Rasiermesser funktioniert. Köpfe und Maschinen, 14, 485-505.
Argumentiert, dass Ockhams Razor durch Überlegungen zur Effizienz der Wahrheitsfindung gerechtfertigt ist. Kritiken Bayesian, Akiakian, und andere traditionelle Versuche, Einfachheitspräferenzen zu rechtfertigen. Stellenweise technisch.
Kelly, K. 2007. Wie Einfachheit Ihnen hilft, die Wahrheit zu finden, ohne darauf hinzuweisen. In M. Freund, N. Goethe, und V. Harizanov (Hrsg.), Induktion, Algorithmische Lerntheorie, und Philosophie. Dordrecht: Springer.
Verfeinerung und Weiterentwicklung des bei Kelly gefundenen Arguments (2004) und Schulte (1999). Technisch.
Kelly, K. 2010. Einfachheit, Wahrheit und Wahrscheinlichkeit. In P. Bandyopadhyay und M. Förster (Hrsg.), Handbuch der Philosophie der Statistik. Dordrecht: Sonst.
Erweitert und entwickelt das Argument von Kelly weiter (2007). Ausführliche Kritik bayesianischer Darstellungen der Einfachheit. Technisch.
Kelly, K. und Glymour, C. 2004. Warum die Wahrscheinlichkeit die Logik der wissenschaftlichen Begründung nicht erfasst. In C. Hitchcock (ed.), Zeitgenössische Debatten in der Wissenschaftstheorie. Oxford: Blackwell.
Argumentiert, dass die Bayesianer Ockhams Rasiermesser nicht verstehen können.
Schornstein, J. 1955. Zwei Komplexitätsmaße. Zeitschrift für Philosophie, 52, S. 722-733.
Entwickelt einige von Goodmans Ideen zur Messung der logischen Einfachheit von Prädikaten und Prädikatensystemen. Schlägt ein Maß an Einfachheit vor, das dem von Popper ähnelt (1959) Falsifizierbarkeitsmaß.
Kieseppa, ICH. Ein. 1997. Akaike-Informationskriterium, Kurvenanpassung, und das philosophische Problem der Einfachheit. Britisches Journal für Wissenschaftsphilosophie, 48, S. 21-48.
Kritik an Forster und Sober (1994). Argumentiert, dass Akaikes Theorem für traditionelle philosophische Probleme rund um die Einfachheit wenig Relevanz hat. Hochtechnisch.
Kitchener, P. 1989. Erklärende Vereinheitlichung und die kausale Struktur der Welt. In P. Kitcher und W. Lachs, Minnesota-Studien zur Wissenschaftstheorie, Band 13: Wissenschaftliche Erklärung, Minneapolis: University of Minnesota Press.
Verteidigt eine Vereinheitlichungstheorie der Erklärung. Argumentiert, dass Einfachheit zur Erklärungskraft beiträgt.
Kuhn, T. 1957. Die kopernikanische Revolution. Cambridge, MA: Harvard University Press.
Einflussreiche Diskussion über die Rolle der Einfachheit in den Argumenten für den Kopernikanismus.
Kuhn, T. 1962. Die Struktur wissenschaftlicher Revolutionen. Chicago: University of Chicago Press.
Kuipers, T. 2002. Schönheit: ein Weg zur Wahrheit. Synthese, 131, 291-328.
Versuche zu zeigen, wie ästhetische Überlegungen auf die Wahrheit hinweisen könnten.
Cyborg, H. 1961. Ein bescheidener Vorschlag hinsichtlich der Einfachheit. Philosophische Rezension, 70, 390-395.
Wichtige Kritik an Goodman (1955). Argumentiert, dass Einfachheit mit der Anzahl der Quantoren in einer Theorie gleichgesetzt werden kann.
Schlosser, ICH. und Zahar, E. 1978. Warum ersetzte das Forschungsprogramm des Kopernikus das des Ptolemäus?? In J. Worrall und G. Curie (Hrsg.), Die Methodik wissenschaftlicher Forschungsprogramme: Philosophische Arbeiten von Imre Lakatos, Band 1. Cambridge: Cambridge University Press.
Argumentiert, dass Einfachheit in der kopernikanischen Revolution keine wirklich bedeutende Rolle gespielt habe.
Lewis, D. 1973. Kontrafaktische. Oxford: Basil Blackwell.
Argumentiert, dass quantitative Sparsamkeit in der wissenschaftlichen und philosophischen Theoriebildung weniger wichtig ist als qualitative Sparsamkeit.
Li, M. und Vitányi, P. 1997. Eine Einführung in die Kolmogorov-Komplexität und ihre Anwendungen (2. Auflage). New York: Springer.
Detaillierte Ausarbeitung der Kolmogorov-Komplexität als Maß für Einfachheit. Hochtechnisch.
Lipton, P. 2004. Rückschluss auf die beste Erklärung (2. Auflage). Oxford: Basil Blackwell.
Darstellung der Schlussfolgerung zur besten Erklärung als Schlussfolgerung zur „schönsten“ Erklärung. Verteidigt die Behauptung, dass Einfachheit zur erklärenden Schönheit beiträgt.
Lombrozo, T. 2007. Einfachheit und Wahrscheinlichkeit in der kausalen Erklärung. Kognitive Psychologie, 55, 232–257.
Argumentiert, dass Einfachheit als Leitfaden zur Beurteilung der Wahrscheinlichkeit kausaler Erklärungen verwendet wird.
Lu, H., An Yui, A., Liljeholm, M., Cheng, P. W., und Holyoak, K. J. 2006. Modellierung des kausalen Lernens unter Verwendung allgemeiner bayesianischer Prioritäten zu generativen und präventiven Kräften. In R. Sonne und N. Miyake (Hrsg.), Tagungsband der 28. Jahreskonferenz der Kognitionswissenschaftlichen Gesellschaft, 519–524. Mahwah, NJ: Erlbaum.
Argumentiert, dass Einfachheit eine wichtige Rolle beim kausalen Lernen spielt.
MacKay, D. 1992. Bayesianische Interpolation. Neuronale Berechnung, 4, 415-447.
Erste Präsentation des Konzepts von Ockham’s Hill.
Martens, R. 2009. Harmonie und Einfachheit: ästhetische Tugenden und der Aufstieg der Prüfbarkeit. Studium der Geschichte und Wissenschaftstheorie, 40, 258-266.
Diskussion der kopernikanischen Einfachheitsargumente und neuere Versuche, ihre Begründung zu rekonstruieren.
McAlleer, M. 2001. Einfachheit: Ansichten einiger Nobelpreisträger der Wirtschaftswissenschaften. In einem. Zellner, H. Keuzenkamp und M. McAleer (Hrsg.), Einfachheit, Inferenz und Modellierung. Cambridge: Cambridge University Press.
Interessanter Überblick über die Ansichten berühmter Ökonomen zum Stellenwert von Einfachheitsüberlegungen in ihrer Arbeit.
McAllister, J. W. 1996. Schönheit und Revolution in der Wissenschaft. Ithaka: Cornell University Press.
Schlägt vor, dass die Einfachheitspräferenzen von Wissenschaftlern das Produkt einer ästhetischen Induktion sind.
Mühle, J.S. 1867. Eine Untersuchung der Philosophie von Sir William Hamilton. London: Walter Scott.
Ameisengewalt, W. 2003. Eine bayesianische Darstellung der Tugend der Vereinigung. Philosophie der Wissenschaft, 70, 399-423.
Newton, ICH. 1999. Die Principia: Mathematische Prinzipien der Naturphilosophie; Eine neue Übersetzung von I. Bernard Cohen und Anne Whitman. Berkeley: University of California Press.
Enthält Newtons „Regeln für das Studium der Naturphilosophie“, das eine Version von Ockhams Rasiermesser enthält, im Hinblick auf die Einfachheit der Natur verteidigt. Diese Regeln spielen eine explizite Rolle in Newtons Argument für die universelle Gravitation.
Nolan, D. 1997. Quantitative Sparsamkeit. Britisches Journal für Wissenschaftsphilosophie, 48, 329-343.
Gegen Lewis (1973), argumentiert, dass quantitative Sparsamkeit in der Geschichte der Wissenschaft wichtig war.
Norton, J. 2000. „Die Natur ist die Verwirklichung der einfachsten denkbaren mathematischen Ideen“: Einstein und Kanon der mathematischen Einfachheit. Studien zur Geschichte und Philosophie der modernen Physik, 31, 135-170.
Bespricht die Entwicklung von Einsteins Denken über die Rolle der mathematischen Einfachheit bei der physikalischen Theoriebildung.
Norton, J. 2003. Eine materielle Theorie der Induktion. Philosophie der Wissenschaft, 70, S. 647-670.
Verteidigt eine „materielle“ Induktionstheorie. Argumente, die sich auf die Einfachheit der Induktion berufen, spiegeln sachliche Annahmen über den Untersuchungsbereich wider.
Oreskes, N., Shrader-Frechette, K., Belitz, K. 1994. Überprüfung, Validierung, und Bestätigung numerischer Modelle in den Geowissenschaften. Wissenschaft, 263, 641-646.
Palter, R. 1970. Eine Annäherung an die Geschichte der frühen Astronomie. Studium der Geschichte und Wissenschaftstheorie, 1, 93-133.
Pais, Ein. 1982. Subtil ist der Herr: Die Wissenschaft und das Leben von Albert Einstein. Oxford: Oxford University Press.
Peirce, C.S. 1931. Gesammelte Papiere von Charles Sanders Peirce, Band 6. C. Hartshorne, P. Weiss, und ein. Burks (Hrsg.). Cambridge, MA: Harvard University Press.
Plutynski, Ein. 2005. Sparsamkeit und die Fisher-Wright-Debatte. Biologie und Philosophie, 20, 697-713.
Befürwortet eine deflationäre Analyse der Appelle an Sparsamkeit in Debatten zwischen Wrightschen und Neo-Fisherschen Modellen der natürlichen Selektion.
Popper, K. 1959. Die Logik der wissenschaftlichen Entdeckung. London: Hutchinson.
Argumentiert, dass Einfachheit = empirischer Inhalt = Falsifizierbarkeit.
Priester, G. 1976. Gruselige Einfachheit. Philosophie der Wissenschaft, 43, 432-437.
Zeigt, dass Standardmaße der Einfachheit bei der Kurvenanpassung Sprachvarianten sind.
Raftery, A., Madigan, D., und Höting, J. 1997. Bayesianische Modellmittelung für lineare Regressionsmodelle. Zeitschrift der American Statistical Association, 92, 179-191.
Reichenbach, H. 1949. Zur Begründung der Induktion. In H. Feigl und W. Sellars (Hrsg.), Lesungen in der philosophischen Analyse. New York: Appleton-Century-Crofts.
Rosencrantz, R. 1983. Warum Glymour ein Bayesianer ist. In J. Earman (ed.), Wissenschaftliche Theorien testen. Minneapolis: University of Minnesota Press.
Reagiert auf Glymour (1980). Argumentiert, dass einfachere Theorien höhere Wahrscheinlichkeiten haben, mit Kopernikan vs. Beispiel der ptolemäischen Astronomie.
Rothwell, G. 2006. Hinweise für den gelegentlichen großen Fallmanager. FBI-Strafverfolgungsbulletin, 75, 20-24.
Betont die Bedeutung von Ockhams Rasiermesser für strafrechtliche Ermittlungen.
Sakamoto, Y., Ishiguro, M., und Kitagawa, G. 1986. Akaike-Informationskriterienstatistik. New York: Springer.
Schaffner, K. 1974. Einstein gegen Lorentz: Forschungsprogramme und die Logik der vergleichenden Theoriebewertung. Britisches Journal für Wissenschaftsphilosophie, 25, 45-78.
Argumentiert, dass Einfachheit eine bedeutende Rolle bei der Entwicklung und frühen Akzeptanz der speziellen Relativitätstheorie gespielt hat.
Schulte, Ö. 1999. Mittel-Zweck-Erkenntnistheorie. Britisches Journal für Wissenschaftsphilosophie, 50, 1-31.
Erste Aussage der Behauptung, dass Ockhams Rasiermesser im Hinblick auf die Effizienz der Wahrheitsfindung gerechtfertigt werden kann.
Simon, H. 1962. Die Architektur der Komplexität. Verfahren der American Philosophical Society, 106, 467-482.
Wichtige Diskussion eines Nobelpreisträgers über gemeinsame Merkmale komplexer Systeme in der Natur.
Nüchtern, E. 1975. Einfachheit. Oxford: Oxford University Press.
Argumentiert, dass Einfachheit anhand der fragebezogenen Aussagekraft definiert werden kann. Stellenweise technisch.
Nüchtern, E. 1981. Das Prinzip der Sparsamkeit. Britisches Journal für Wissenschaftsphilosophie, 32, 145-156.
Unterscheidet zwischen „agnostischen“ und „atheistischen“ Versionen von Ockhams Rasiermesser. Argumentiert, dass das atheistische Rasiermesser eine induktive Rechtfertigung hat.
Nüchtern, E. 1988. Rekonstruktion der Vergangenheit: Sparsamkeit, Evolution und Schlussfolgerung. Cambridge, MA: MIT Press.
Verteidigt eine deflationäre Darstellung der Einfachheit im Zusammenhang mit der Verwendung sparsamer Methoden in der Evolutionsbiologie.
Nüchtern, E. 1994. Lasst uns Ockham's Razor rasieren. In E. Nüchtern, Aus biologischer Sicht, Cambridge: Cambridge University Press.
Argumentiert, dass die Verwendung von Ockhams Rasiermesser auf lokalen Hintergrundannahmen beruht.
Nüchtern, E. 2001a. Was ist das Problem der Einfachheit?? In H. Auswahllager, M. McAlleer, und ein. Zellner (Hrsg.), Einfachheit, Inferenz und Modellierung. Cambridge: Cambridge University Press.
Nüchtern, E. 2001b. Einfachheit. In W.H. Newton-Smith (ed.), Ein Begleiter der Wissenschaftsphilosophie, Oxford: Blackwell.
Nüchtern, E. 2007. Beweise und Evolution. New York: Cambridge University Press.
Solomonoff, R.J. 1964. Eine formale Theorie der induktiven Folgerung, Teil 1 und Teil 2. Information und Kontrolle, 7, 1-22, 224-254.
Suppen, P. 1956. Nelson Goodman über das Konzept der logischen Einfachheit. Philosophie der Wissenschaft, 23, 153-159.
Swinburne, R. 2001. Epistemische Rechtfertigung. Oxford: Oxford University Press.
Argumentiert, dass das Prinzip, dass einfachere Theorien wahrscheinlicher wahr sind, ein grundlegendes A-priori-Prinzip ist.
Thagard, P. 1988. Computergestützte Wissenschaftsphilosophie. Cambridge, MA: MIT Press.
Einfachheit ist ein entscheidender Faktor für die Güte einer Erklärung und kann anhand des Mangels an Hilfsannahmen im Verhältnis zur Anzahl der erklärten Fakten gemessen werden.
Thorburn, W. 1918. Der Mythos von Occams Rasiermesser. Geist, 23, 345-353.
Argumentiert, dass Wilhelm von Ockham viele der ihm zugeschriebenen Prinzipien nicht befürwortet hätte.
van Fraassen, B. 1989. Gesetze und Symmetrie. Oxford: Oxford University Press.
Wallace, C. S. und Dowe, D. L. 1999. Minimale Nachrichtenlänge und Kolmogorov-Komplexität. Computerjournal, 42(4), 270–83.
Walsh, D. 1979. Ockhams Rasiermesser: Ein Prinzip der intellektuellen Eleganz. American Philosophical Quarterly, 16, 241-244.
Weinberg, S. 1993. Träume einer endgültigen Theorie. New York: Jahrgang.
Argumentiert, dass Physiker Einfachheit physikalischer Prinzipien fordern, bevor sie ernst genommen werden können.
Weiß, R. 2005. Warum Einfachheit bevorzugen?? Analyse, 65, 205-210.
Versucht, Präferenzen für einfachere Theorien damit zu rechtfertigen, dass solche Theorien höhere Wahrscheinlichkeiten haben.
Zellner, Ein, Auswahllager, H., und McAleer, M. 2001. Einfachheit, Inferenz und Modellierung. Cambridge: Cambridge University Press.
Sammlungspapiere von Statistikern, Philosophen, und Ökonomen über die Rolle der Einfachheit bei wissenschaftlichen Schlussfolgerungen und Modellen.
Informationen zum Autor

Simon Fitzpatrick
E-Mail: [email protected]
John-Carroll-Universität
U. S. Ein.

(1 Mal besucht, 1 Besuche heute)