1

Julian Schröter

Intentionalistische, erklärende, kognitive und geisttheoretische als naturalistische Hermeneutik:

Konsolidierung oder Kontroverse?

Luigi Cataldi Madonna (Hg.), Naturalistische Hermeneutik. Ein neues Paradigma des Verstehens und Interpretierens. Würzburg: Königshausen & Neumann 2013. 304 S. [Preis: EUR 44,00]. ISBN: 978-3-8260-4857-9.

Die Festschrift zum 65. Geburtstag des Philosophen Axel Bühler, der die intentionalistische ›Neohermeneutik‹ in den vergangenen Jahrzehnten mit vorangetrieben und ihre historische Kontinuität gegenüber den methodologisch orientierten Aufklärungshermeneutiken aufgezeigt hat, soll nach Bekunden des Herausgebers Luigi Cataldi Madonna die Entfaltung des bereits entworfenen Programms einer szientifischen, sog. naturalistischen Hermeneutik fortsetzen. Seiner Darstellung nach haben Hans Albert, bekannt für seinen wissenschaftstheoretisch an Popper anschließenden Kritischen Rationalismus, und Dagfinn Føllesdal, bekannt für seine Integration phänomenologischer in die analytische Philosophie, das Programm begründet. Der Herausgeber verzichtet leider darauf, auf die einschlägigen Publikationen hinzuweisen. Wie im Band aber deutlich wird, ist insbesondere Hans Alberts Kritik der reinen Hermeneutik von 1994 gemeint. Von Dagfinn Føllesdal liegt bislang nur ein Aufsatz zur Methodologie aus dem Jahr 1979 mit dem Titel »Hermeneutik und die hypothetisch-deduktive Methode« vor, der aber umso einschlägiger ist und für Axel Bühlers Sammelband Hermeneutik 2003 ins Deutsche übersetzt wurde. An diesen vom Jubilar herausgegebenen Band versucht die vorliegende Festschrift nach zehn Jahren in vielerlei Hinsicht anzuschließen.[1] Die in Naturalistische Hermeneutik versammelten Beiträger, so der Herausgeber, haben das mit dem Titel benannte Projekt mit einschlägigen Beiträgen und zum Teil umfangreichen Großentwürfen in den vergangenen Jahren sowie insb. im vorliegenden Band fortgeführt.[2] Charakterisiert wird das Projekt als eine erklärende, kognitive und intentionalistische Hermeneutik; eine Charakterisierung, die von außen betrachtet zunächst aber nur besagt, dass der Band Autoren zusammenführt, deren bisherige Projekte unter den angeführten Attributen firmieren: So gehört der Großteil der Autoren der eigens manifestierten Gruppe Erklärende Hermeneutik an, deren Forschungen in einem online-Forum namens Mythos-Magazin debattiert und zum Teil veröffentlicht werden. Kognitive Hermeneutik heißt der Großentwurf von Peter Tepe, an dem unter anderem Bühler maßgeblich mitgewirkt hat. Der Intentionalismus schließlich ist nicht nur eine Hommage an Bühler, sondern Bestandteil der Positionen aller Beiträger.[3]

Die vorliegende Rezension stellt im Wesentlichen drei Fragen, die sich aus der Anlage des Bandes ergeben. Erstens die Frage, ob und wie der Band Vertretern interpretierender Disziplinen das mit dem Titel angekündigte Programm klar und umfassend präsentiert. Eine Festschrift muss zwar durchaus nicht die Absicht einer Einführung verfolgen; gerade für Literaturwissenschaftler dürfte diese Frage dennoch die erste sein. Zweitens wird ein der Anordnung im Band folgender Durchgang die einzelnen Beiträge daraufhin befragen, inwiefern sie daran mitwirken, eine zusammenhängende naturalistische Hermeneutik voranzubringen. Da dies, wie sich zeigen wird, nicht der Fall ist, gilt es drittens zu klären, inwiefern die jeweiligen Beiträge zu allgemeinen und insbesondere literaturwissenschaftlichen Problemen der Hermeneutik einen relevanten Forschungsbeitrag leisten und neue Perspektiven für die auch dort unter dem Titel Intentionalismus oder Neohermeneutik geführten Diskussionen eröffnen. Dass alle Beiträger an einem dezidiert naturalistischen Projekt arbeiten, ist – obwohl das Vorwort den Eindruck erweckt – gerade nicht der Fall. Zwar stimmen sämtliche Beiträge des Bandes zumindest implizit darin überein, dass die philosophische Hermeneutik Heideggers und Gadamers zu überwinden bzw. bereits überwunden sei, aber bereits bei der naturalistischen Zurückweisung geisteswissenschaftlicher Autonomieansprüche scheiden sich die Geister.

1. Wie und wem der Band sein Programm präsentiert

Die Untergliederung des Bandes in drei Sektionen zu je 4 bis 6 Beiträgen nach historischen, metaphysischen und methodologischen Perspektiven, denen eine Literaturliste von Bühlers Arbeiten zur Hermeneutik folgt und eine sog. »Einleitung« von Hans Albert vorangestellt ist, lässt erwarten, dass Albert die zentralen Aspekte dieser Hermeneutik explizit macht, und dass die theoretischen Grundlagen dieser Hermeneutik in der zweiten Sektion zu den metaphysischen Perspektiven zu finden sei. Beides ist nur bedingt der Fall. Albert rekapituliert die vor allem in seiner Kritik der reinen Hermeneutik entfaltete Zurückweisung von Positionen, die die Autonomie der Geisteswissenschaften zu behaupten trachten. Dies sind nicht nur die nach Alberts Erkenntnis theologisch imprägnierte ›Philosophische Hermeneutik‹ Heideggers und insb. Gadamers (13–16), sondern bemerkenswerterweise auch die Arbeiten der Normalsprachanalytiker Wittgenstein und Austin sowie soziologischer Wittgenstein-Adepten wie Peter Winch (24). Aus dieser Kritik entwickelt Albert das plausible wissenschaftsethische Argument, dass Kooperation zwischen den Wissenschaften fruchtbarer und deshalb besser sei als Separatismus, zumal dann, wenn der Separatismus schlecht begründet ist. In der anschließenden Wiederholung seines naturalistischen Programms setzt er die genauere Kenntnis der Diskussionslagen, insb. des methodologischen Konzepts der einheitswissenschaftlichen hypothetisch-deduktiven Methode, sowie die Kenntnis seiner eigenen Texte, einiger idiosynkratischer Ausdrücke wie den des »methodologischen Historismus« (14) und der von ihm früher diskutierten Problembestände voraus. Alberts Aufsatz ist jedenfalls keine Einleitung, sondern ein Kondensat seiner Position und seiner Schriften. Cataldi Madonnas zweiseitiges Vorwort ist bei weitem zu kurz, um über die Nennung der oben erwähnten Schlagworte und eine Wiederholung der Beitragstitel hinauszukommen. Aber es gibt einen Aufsatz im letzten Teil des Bandes, der sich die Mühe macht, ein breites und auch ein Naturalismus-feindliches Wissenschaftspublikum anzusprechen und zu klären, was unter naturalistischer Hermeneutik zu verstehen sei: Jan Böhms Beitrag »Prinzipien des Verstehens und ihre Fehlbarkeit – Plädoyer für eine naturalistische Hermeneutik«. Dieses Plädoyer entspricht inhaltlich einem zusammen mit Bühler publizierten Aufsatz im Mythos-Magazin, in dem die naturalistische Hermeneutik gegen Wolfgang Detels Ansatz einer geisttheoretischen Hermeneutik verteidigt wird.[4] Dass zwischen den Beiträgern des Bandes kontroverse Auffassungen vertreten werden, wird erst bei Böhm explizit gemacht. Einsteigern in die naturalistische Hermeneutik sei deshalb als Vor- oder Begleitlektüre zu H. Alberts Einleitung Böhms Aufsatz ans Herz gelegt, der das Programm in einer klar verständlichen und strukturierten Weise darstellt.

Hilfreich ist die Unterscheidung von drei Aspekten, hinsichtlich derer man Naturalist sein kann. Böhm, und noch klarer Böhm und Bühler in ihrem gemeinsamen Aufsatz, unterscheiden den stark reduktionistischen und besonders verpönten ontologischen von einem erkenntnistheoretischen und einem methodologischen Naturalismus. Auf die starke ontologische Reduktion, der zufolge es auf der Welt nur physische Gegenstände gebe und die das Problem des Geistigen häufig über die sog. Typen-Identitäts-These zu fassen versucht, sei die naturalistische Hermeneutik aber, so Böhm, keineswegs festgelegt.[5] Naturalistisch sei die besagte Hermeneutik mithin nur in epistemologischer und methodologischer Hinsicht – wie auch Cataldi Madonna im Vorwort, jedoch ohne Erläuterung, ankündigt.

Für Literatur- aber auch andere Sozial-, Geistes- und Kulturwissenschaftler interessant und zunächst erstaunlich ist das dezidierte Interesse an der Ausbildung professioneller Interpretationsmethoden, ein Interesse, das der Ausdruck ›Naturalismus‹ nicht erwarten lässt. Seine prägnanteste Formulierung findet das Anliegen nicht im aktuellen, sondern in Bühlers Band von 2003, und zwar im Abstract zu Alberts damaliger Einleitung:

Hermeneutik kann als Technologie für die Herstellung von Verstehen betrachtet werden, die ihrerseits auf einer theoretischen Analyse des Verstehens und auf Versuchen beruht, Verstehensprozesse innerhalb empirischer Wissenschaften zu erklären. Eine solche naturalistische Auffassung der Geistes- und Sozialwissenschaften betont weiterhin die wichtige Rolle, die nomologische Aussagen in geistes- und sozialwissenschaftlichen Erklärungen spielen.[6]

Wenn man dieses Anliegen kennt, erweist sich auch Hans Alberts »Einleitung« zu diesem Band als der Versuch, eine Interpretationstechnologie in eine empirisch fundierte Theorie des Verstehens einzubetten. In dieser Hinsicht wird Albert wiederum weitaus aussagekräftiger als Böhm, wenn er zunächst Verstehen als natürlichen Prozess skizziert, indem er Karl Bühler als Gewährsmann eines naturalismus-kompatiblen Grundlagenwissenschaftlers heranzieht, der die Zeichen- und damit auch die komplexe Textinterpretation als besondere Art der Wahrnehmung auffasst. Albert gleicht nicht nur Interpretieren an Wahrnehmen an, sondern er begreift umgekehrt auch jedes Wahrnehmen bereits als Form des Deutens, und sucht somit die zwei Komplexe von beiden Seiten her zu assimilieren. Leider – vermutlich aufgrund der gebotenen Kürze eines Einleitungsaufsatzes – lässt Albert ungeklärt, inwiefern das Deuten im Wahrnehmen dem Textinterpretieren entspricht und die intendierte Brückenfunktion zu erfüllen vermag. Doch solange dieser Zusammenhang nicht geklärt wird, bleibt m.E. auch unklar, inwiefern eine Rückführung des Interpretierens auf das Wahrnehmen etwas Charakteristisches über Verstehensprozesse, geschweige denn über Interpretationsakte zu besagen vermag.

Zum Projekt einer naturalistisch fundierten Interpretationstechnologie liefert Albert schließlich ein Modell der nomologischen Erklärung historischer Ereignisse. So sei die Annahme unplausibel, Historiker würden Schlüsse von Quellen auf historische Fakten ziehen, geschweige denn ›induzieren‹. Vielmehr setzen sie umgekehrt jeweils relevante Regularitäten oder Gesetzmäßigkeiten voraus, mit deren Hilfe erklärt wird, wie aus bestimmten hypothetisch angenommenen Ereignissen andere Ereignisse folgen; d.h. deduziert werden können. Die Erklärung einer historischen Faktenlage bestehe demnach darin, dass nomologisch erklärt wird, aus welchen hypothetisch angenommen Sachverhalten die faktisch bestehende Quellenlage möglichst wahrscheinlich resultiert (27–29). Albert versucht damit, ohne es auszusprechen, die von Dagfinn Føllesdal prominent in die hermeneutische Methodendiskussion eingeführte hypothetisch-deduktive Methode weiter auszubauen.

Böhm hingegen erläutert die naturalistische Konzeption Interpretationstechnologie am Negativbeispiel der tiefenpsychologischen Interpretation, die aber nicht per se unwissenschaftlich sei, sondern nur dann, wenn (bzw. weil) sie keine intersubjektiven Prüfkriterien für ihre Hypothesen ausbilde (178). Hier kann man aber durchaus einwenden, dass Böhm ganz ungeklärt lässt, wie die Psychoanalyse solche Kriterien entwickeln (oder erfinden) sollte. Sein eigener Beitrag weist die hermeneutische Rationalitätspräsumtion als konstitutives oder notwendiges Universalprinzip zurück und lässt sie stattdessen nur als fallible, in besonderen Situationen zur Anwendung kommende und immer an der Faktenlage zu prüfende Vorannahme gelten. Damit plädiert er für einen vom Naturalismus generell beanspruchten erkenntnistheoretischen Fallibilismus, der vor der zentralen Rationalitätspräsumtion und damit auch vor jeder interpretationstheoretischen Annahme nicht halt mache. Das Billigkeitsprinzip sei nicht normativ, nicht transzendental oder anderweitig apriorisch begründbar, sondern höchstens als Naturgesetz. Und als solches habe es sich empirisch zu bewähren. Böhms Fazit entspricht schließlich Alberts Ausgangslage, dass es keine guten Gründe für die Annahme einer Autonomie des Geistes gegenüber Naturgesetzlichkeiten gebe und keinen Grund für methodologischen Separatismus, weil jede Gesetzmäßigkeit innerhalb der Interpretationsmethode empirisch zu prüfen sei. Böhms Aufsatz versteht sich als Beitrag zur Ausarbeitung einer Interpretationsmethodologie. Dennoch zeigt sich, dass Böhm eher an einer Metaphysik und an einer Epistemologie der Methodologie arbeitet, als an der inhaltlichen Formulierung von Interpretationsregeln.

2. Die Einzelbeiträge und ihr Beitrag zur (naturalistischen) Hermeneutik

Den Anfang der ersten Sektion zu den »Historischen Perspektiven« macht der Herausgeber des Bands mit einem Aufsatz »Zur Kritik der Kantischen Auffassung einer reinen Hermeneutik«. Darin wirft Cataldi Madonna Kant vor, mit einer nicht-empirischen, sich rein aus Erkenntnissen der praktischen Vernunft speisenden religiösen Hermeneutik die fruchtbaren und wissenschaftstauglichen Aufklärungshermeneutiken untergraben und damit die Weiterentwicklung zu einer naturalistischen Hermeneutik um gut 150 Jahre verzögert zu haben. In seiner Analyse betrachtet der Verfasser nicht die jeweiligen Inhalte der Aufklärungshermeneutiken, sondern konzentriert sich auf eine Analyse von Kants mutmaßlicher Intention, die ihn im historischen Hermeneutik-Streit geleitet haben soll; er analysiert also ein Störungsereignis. Drei argumentative Probleme birgt der Beitrag aus meiner Sicht: Cataldi Madonna deklariert Kants Hermeneutik unter der Hand erstens von einer nicht-empirischen, weil bloß vernunftgeleiteten und nach Gewissheiten a priori operierenden, in eine irrationale, weil nicht-empirische Hermeneutik um (47). Zweitens unterstellt er Kant, der eigentlich nur eine Spezial-Religionshermeneutik entwirft, eine allgemeine Hermeneutik als Gegenprojekt zu den allgemeinen Aufklärungshermeneutiken aufgestellt zu haben; er wirft Kant sogar vor, dass die Religionsspezialhermeneutik nicht alltagstauglich sei (42). Diesen Vorwurf kann m.E. ein Intentionalist, der dezidiert nach Autorintentionen fragt, Kant nicht machen. Das dritte Problem ist systematisch gravierender: Der Verfasser unterscheidet für die Schlüsse, die er aus seiner Analyse zieht, nicht zwischen der von Kant intendierten Wirkung seiner Hermeneutik und der faktischen Rezeptionsgeschichte. So wendet Cataldi Madonna die mit Schleiermacher sich verstärkende Anti-Empirisierung der Hermeneutik gegen Kant und unterstellt ihm, eine wissenschaftsfeindliche Hermeneutik propagiert zu haben.

Denis Thouard rekonstruiert mit »Les deux modes de la compréhension du sens chez Simmel« eine Differenzierung zweier Verstehensbegriffe des frühen Soziologen, auf deren Relevanz für Max Weber und für seine Hermeneutik Hans Albert 1994 am Rande hingewiesen hat.[7] Es ist vielleicht kein Zufall, dass der nachfolgende Beitrag von Gert Albert »Erklärendes Verstehen bei Max Weber« zum Thema hat. Auf den ersten Blick scheint Simmels Unterscheidung zwischen sachlichem Verstehen und historischem Verstehen, so wie Thouard sie rekonstruiert, der zwischen Wörterbuch- oder konventioneller Wortfolgebedeutung (word sequence meaning) und dem vom jeweiligen Sprecher Gemeinten Sinn (uttererʼs meaning) gemäß der von Paul Grice entworfenen Bedeutungstheorie zu entsprechen.[8] Der entscheidende Unterschied, der Simmel attraktiv erscheinen lässt, besteht darin, dass Simmels Begriff des historischen Verstehens, des gemeinten Sinns also, den Bedingungen sozialer Faktoren Rechnung trägt und somit eine historisch-kontextsensitivere Interpretation ermöglicht. Mit der historisch ausgesprochen informierten und detaillierten Rekonstruktion Simmels im Kontext der zeitgenössischen Lebensphilosophie liefert Thouard eine Aufarbeitung von Simmels Unterscheidung zwischen der Dimension werkintrinsischer Eigenschaften und der Erklärung der historischen Genese, der Entstehungsbedingungen eines Werks, die intentionalistisch zu klären seien. Dies sei ein Kompromiss zwischen einem Erklärungsindividualismus, der Werke nur für sich betrachtet, und einem Kollektivismus, der sich nur für soziale Mechanismen interessiert. Bemerkenswert ist, dass die von Simmel beanspruchte Möglichkeit der Sinnobjektivität ganzer Artefakte später im Band von Oliver Scholz zurückgewiesen wird.

Gert Alberts innerhalb der historischen Sektion herausragende Analyse von Max Webers Beitrag zu einer erklärenden Hermeneutik ist in dreifacher Hinsicht wertvoll: Nicht nur gibt sie eine informative Rekonstruktion von Webers Verstehenstheorie, sondern bindet die Inhalte direkt an die Ideen einer naturalistischen Hermeneutik an. Hierzu wählt, demonstriert und reflektiert der Autor die Methode der ›rationalen Rekonstruktion‹, die maßgeblich von Axel Bühler ausgearbeitet wurde. Im Unterschied zur Direktinterpretation, so G. Albert, die eine Theorie in ihrer historisch intendierten Gestalt wiedergeben soll, verfolgt die rationale Rekonstruktion das Ziel, eine historische Theorie auf den gegenwärtigen wissenschaftssystematischen Stand zu bringen und möglichst konsistent zu interpretieren. Der Grad der historischen Entstellung des ursprünglichen Gehalts zugunsten der systematischen Qualität und Stimmigkeit der Theorie, ist dabei im Einzelfall zu reflektieren und abzuwägen. G. Albert demonstriert, wie Webers Interpretationstheorie im Lichte des gegenwärtigen Forschungs- und Reflexionsstands so reformuliert werden kann, dass sie ein systematisch brauchbares Modell für die nomologische Erklärung einzelner Handlungen liefert. Kurz gefasst stellt der Beitrag heraus, dass Webers Erklärungsmodell als praktischer Syllogismus rekonstruiert werden kann, der aber anders als von Wright und der späte Wittgenstein annehmen, nicht nur die Logik des Sprechens über Handlungen wiedergibt, sondern ein kausalistisches Erklärungsmodell liefert, in dem Handlungsgründe – gemäß Davidsons allerdings mehr als 50 Jahre alter Theorie – Ursachen von Handlungsereignissen sein können und sind. Ein solches Modell bedarf, damit die Erklärung funktionieren kann, der Integration von Handlungsgesetzen, die Weber zwar nicht explizit berücksichtigt, die sich aber aus seiner Idealtypenlehre heraus entwickeln lassen. G. Albert zeigt auf, dass Weber einen – aus heutiger Sicht problematischen, anti-realistischen sog. ›non-statement view‹ vertrete. Das soll heißen, dass Weber annehme, Idealtypen seien nicht wahrheitsfähig, sondern Erklärungsmodelle, mit denen sich wahre oder falsche deskriptive Einzelaussagen bilden lassen. Dieser Auffassung, nach der Modelle nicht wahr sein können, sei unhaltbar; doch – so schließt Albert – Webers Theorie sei ohne weiteres auch als ›statement-view‹ konsistent reformulierbar und somit problemlos weiterführbar. Albert macht vorbildlich transparent, wo er Weber nach seiner Ansicht im Detail entstellt bzw. entstellen muss. Ein wenig offen bleibt hingegen, wann welche gegenwärtigen Theorien hinreichend aktuell und brauchbar sind, um als Grundlage einer Adaption zu dienen. In seiner Bezugnahme insbesondere auf den Praktischen Syllogismus und Davidsons Kausalmodell zeigt Albert, dass er nicht auf besonders aktuelle, sondern auf kanonisierte und etablierte Modelle zurückgreift.

Die historischen Perspektiven beschließt Jan Schröder mit einer verdienstvollen historisch-biographischen Aufarbeitung der einzigen veröffentlichten theoretischen Arbeit der unbekannten Juristin Elisabeth Ephrussi, in der die Autorin klare Analysen zu Problemen der Analogie bei Gesetzeslücken im Kontext der Rechtstheorie und der damals bestehenden Schulen in der ersten Hälfte des 20 Jahrhunderts vorgelegt habe. Anders als die anderen Beiträger sucht Schröder nicht Anschluss an Inhalte einer naturalistischen Hermeneutik, sondern versucht zu zeigen, dass Ephrussi als Erste Schlegels, Schleiermachers und Savignys Theorien in die Rechtstheorie eingeführt habe. Nebenbei bemerkt handelt es sich um Hermeneutiker, die bei den naturalistischen Neo-Aufklärungshermeneutikern nicht hoch im Kurs stehen. Der Beitrag zielt im Kern darauf, einer unbekannten Juristin ein Denkmal zu setzen und einen Beitrag zur Geschichte der juristischen Hermeneutik zu liefern. Der inhaltliche Befund, dass Ephrussi für eine gegenstands- und situationssensitive Offenheit aller verwendbaren Techniken plädiere – eine Art methodologischen Pragmatismus –, lässt sich vielleicht als berechtigter Warnruf an die Literaturwissenschaften umdeuten und lesen, die in den vergangenen Jahrzehnten aus Vorlieben für vermeintliche ›Methoden‹, unglücklich verengte Zielbeschränkungen des literaturwissenschaftlichen Arbeitens abgeleitet haben.

Die Sektion zu den »metaphysischen Perspektiven« beginnt mit einem Beitrag, der mit hermeneutischen Problemen nicht ersichtlich etwas zu tun hat. Stattdessen nutzt Maurizio Ferraris mit »Reality as Unemendability« die Gelegenheit, sein neo-realistisches Manifest in Aufsatzform publik zu machen.[9] Da ich mich hier nur für Diskussionsbeiträge zu hermeneutischen Problemen interessiere, verzichte ich auf eine Besprechung und Kritik des Aufsatzes, zumal Ferraris vorschnellen Kritikern die Lektüre seiner Monographie zum neu-realistischen Manifest empfiehlt.

Dagfinn Føllesdal, wie bereits erwähnt mit seinem älteren Aufsatz zur hypothetisch-deduktiven Methode der Hauptbezugspunkt für methodologische Fragen innerhalb des Bands, stellt mit »Interpretation and Meaning« die Frage nach dem Zusammenhang zwischen den zwei Fragen: »What are we after when we interpret? And how do we get at it?«, die Frage also nach dem Zusammenhang von Erkenntnisziel und Interpretationsmethode. Sein Ausgangsproblem lässt sich wie folgt rekonstruieren: Wenn wir eine Person, ihre Handlung oder das Handlungsprodukt interpretieren, dann schließen wir auf einen sog. verborgenen Hintergrund (»hidden background«, 131), der aus den Überzeugungen, Wünschen, Wertvorstellungen etc. der interpretierten Person besteht. Verborgen ist dieser Hintergrund in einem trivialen Sinn zunächst, weil wir ihn nicht unmittelbar wahrnehmen, in einem nicht-trivialen Sinn ist er aber auch deshalb verborgen, weil Føllesdal Quines These von der Unbestimmtheit der Übersetzung für wahr hält. Demnach können wir nie genau wissen, dass die Übertragung eines Satzes in unsere eigene, d.h. persönliche Sprache korrekt ist. Der größte Teil des Aufsatzes widmet sich einer kritischen Rekonstruktion von Quines Übersetzungs- und Davidsons Interpretationstheorie, die zum Befund führt, dass wir eine intensionale – einmal heißt es m.E. irrtümlich »intentionale« (138) – Übersetzungstheorie brauchen. Mit knappen Bemerkungen schließt der Beitrag, dass wir trotz der Unbestimmtheit vernünftig interpretieren können, wenn wir gemäß der hypothetisch-deduktiven Methode nicht nur einzelne Überzeugungs-Präferenz-Paare für einzelne Handlungen erschließen, sondern in Rechnung stellen, dass wir von unserer Beobachtung von Personen und Handlungen immer auch Hypothesen über Werte, leibliche und andere Bedingtheiten der betreffenden Personen bilden. Auf zwei Aspekte scheint Føllesdal besonderes Augenmerk zu legen: Zum einen auf einen Holismus, der die ganze handelnde Person in den Blick nimmt. Hier bezieht sich der Autor implizit auf Husserls späten Begriff der ›Lebenswelt‹ und explizit auf den späten Heidegger (142). Zum anderen geht es Føllesdal um die hypothetisch deduktive Methode: Bei interpretativen Zuschreibungen handele es sich Hypothesen, die sich bei der Interpretation einzelner Handlungen bewähren müssen, um Handlungen erklären zu können, und die dort, wo sie sich nicht bewähren, revidiert werden müssen. Diesen Ansatz versteht Føllesdal als nomologische Formulierung des traditionellen Verständnisses des hermeneutischen Zirkels im Sinne eines wechselseitigen Revidierens von Interpretationsthesen über Einzelhandlung bzw. Werkelement einerseits und ganzer Person vor lebensweltlichem Hintergrund andererseits. Zu methodischen Fragen des Interpretierens gibt Føllesdal nur sehr grobe Hinweise; innerhalb der Sektion zu metaphysischen Perspektiven mag dies nicht unberechtigt sein. Die Kenntnis seiner früheren Arbeit zur hypothetisch-deduktiven Methode setzt der Autor dabei voraus. Den eigentlichen Kern seines Beitrags bildet das semantische Problem der Bestimmbarkeit dessen, was man interpretiert.

Oliver Scholz, der mit Verstehen und Rationalität 1999 einen maßgeblichen Beitrag zur Rolle der Rationalitätspräsumtion geliefert und eine Position vertreten hat, die im vorliegenden Band von Böhm kritisiert wird, weist in »On the Very Idea of a Textual Meaning« ontologische Reifikationen des Begriffs der »Textbedeutung« zurück. Kurz gefasst stützt sich das Argument auf die These eines mereologischen, also eines Teil-Ganzes-Fehlschlusses: Man sei geneigt das Verhältnis zwischen Wort- und Satzbedeutung auf dasjenige zwischen Satz und Text zu übertragen; doch während die Relation zwischen Wort- und Satzbedeutung, wenn auch nicht unproblematisch, so doch theoretisch erklärbar ist, lasse sich der Übergang von einer Satz- zur Textbedeutung nicht sinnvoll greifen. Nach meinem Verständnis besteht Scholzʼ Argument im ersten Teil des Aufsatzes darin, dass erstens die Begriffe von Wort- und Satzbedeutung explizierbar seien, dass Textbedeutung aber nicht mithilfe dieser zwei Begriffe erklärbar sei. Zweitens versucht Scholz zu plausibilisieren, dass ein Begriff der Textbedeutung auch nicht anderweitig explizierbar ist. Für die Literaturwissenschaft sei es nicht sinnvoll, so Scholz im zweiten interpretationstheoretischen Teil seines Beitrags, in den interpretationsmethodologischen Zielvereinbarungen die Entdeckung der einen Werkbedeutung festzulegen. Stattdessen, und hier schließt sich Scholz an Peter Tepes Programm einer kognitiven Hermeneutik an, verfolge eine möglichst gute Interpretation das Ziel, das Zustandekommen möglichst vieler Texteigenschaften zu erklären, d.h. zu erklären, warum der Text die Eigenschaften hat, die er faktisch hat. ›Richtig interpretieren‹ sei damit eine Frage der Menge an beantworteten ›Warum‹-Fragen, und nicht als Finden eines Gegenstands aufzufassen. Von literaturwissenschaftlicher Seite ist mir einmal der Einwand zu Ohren gekommen, dass Scholz den Begriff der Textbedeutung überhaupt nicht von literaturwissenschaftlichen Gebrauchskontexten her betrachtet, sondern nur nach einer Reduktion auf philosophisch grundlegende Begriffe fragt; möglicherweise sei, so der Einwand weiter, ein literaturwissenschaftlicher Begriff der Textbedeutung ganz anders, nämlich aus den etablierten Praktiken, durchaus sinnvoll zu fassen. Dagegen ließe sich Scholz insoweit verteidigen, als er aufzeigt, dass zumindest keine der streng explizierenden Theorien bislang aussichtsreich diesen Begriff habe erklären können, so dass das Bedürfnis nach einheitlicher Textbedeutung nicht gerechtfertigt und damit dogmatisch sei. Mit Blick auf das naturalistische Programm lässt sich festhalten, dass Scholz eine semantische Begriffsrevision liefert, die die Methodologie von Tepes erklärender kognitiver Hermeneutik stützt, insofern sie nicht mit ihr im Widerspruch steht.

Dass Wolfgang Detels Aufsatz »Information, representation and information – some remarks« als Zurückweisung einer bestimmten Form von ontologischem Naturalismus zu verstehen ist, machen – je nach Kenntnisstand und Subtilität des Lesers – weder Detel in seinem Beitrag noch Cataldi Madonna im Vorwort kenntlich. Jan Böhms nachfolgender Aufsatz aber legt eine solche Lesart nahe, obwohl auch er nicht auf den vorliegenden Beitrag Bezug nimmt. Detels Argument lässt sich etwa wie folgt rekonstruieren: Befunde insbesondere der kognitiven Ethologie sprechen dafür, dass auch jenseits menschlicher Kommunikation Verstehensprozesse und Interpretationsakte stattfinden. Es könnte deshalb verlockend sein, die basale Interaktion zwischen Molekülen innerhalb von Körperzellen, d.h. Informationsprozesse zwischen Molekülen, als Interpretation aufzufassen. Um dies plausibel zu machen, müsste geklärt werden, wie Gehalte repräsentiert werden. Denn Interpretieren ist für Detel Metarepräsentation, also das Repräsentieren von Repräsentationen. Da Repräsentation repräsentationale Gehalte voraussetzt, bedarf es der Möglichkeit von Fehlrepräsentation, d.h. der Möglichkeit, zu repräsentieren, dass p, obwohl p nicht der Fall ist. Weder die einfachste biomolekulare Information innerhalb von Zellen, noch die komplexere neurale Information in Nervensystemen bieten die Möglichkeit der Repräsentation. Repräsentation komme erst dann ins Spiel, wenn man mit einem teleo-semantischen Ansatz biologische Funktionen berücksichtigt. Organismen haben eine vererbte und biologisch etablierte – für sie günstige, weil im Lebensraum passende – Funktion, die eben auch versagen kann. Fehlfunktion macht dann auch Fehlrepräsentation erklärbar, und zwar wie folgt: Innerhalb von Nervensystemen kommen Wahrnehmungen und Überzeugungen solche Funktionen zu, nämlich bestimmte affektive Bewertungen auszulösen, die ihrerseits bestimmte Verhaltensreaktionen auslösen. Bemerkenswert ist Detels Ansicht, dass die Ausbildung von rein theoretischen Überzeugungen, die ihrerseits keine affektiven Funktionen mehr haben – bloßes und affektloses glauben oder wissen, dass p – ein später und abstrahierender Evolutionszustand des Menschen sei, keineswegs aber die evolutionäre Grundform repräsentationaler Gehalte. Detel schließt, dass es außersprachliche Kommunikation, auch in Übereinstimmung mit dem teleo-semantischen biologischen Ansatz z.B. bei anderen Primaten geben mag, dass Interpretation aber auf keinen Fall auf intermolekulare und auch nicht auf neurale Information rückführbar sei, und dass das, was innerhalb von Zellen und auch von Nervensystemen stattfindet, nicht als Interpretieren bezeichnet werden kann, zumindest nicht in dem Sinn, in dem menschliche oder nichtmenschliche Individuen miteinander kommunizieren.

Die Sektion zu den »methodologischen Perspektiven« ist mit sechs Beiträgen deutlich umfangreicher als die beiden vorhergehenden. Diese Gewichtung entspricht dem Anspruch der naturalistischen Hermeneutik auf eine Technologie der Interpretation. Der erste Beitrag Jan Böhms führt außer einer Darstellung des Programms und einer ihrerseits polemischen Zurückweisung von Detels anti-naturalistischer Polemik das bereits 2006 vorgebrachte Argument gegen Scholz und Detel fort, die behauptet haben, die hermeneutische Rationalitätspräsumtion sei nicht-naturalistisch, sondern normativ konstitutiv für Verstehen. Dagegen stellt Böhm einen konsequenten Fallibilismus, nach dem nicht nur die von der Präsumtion betroffenen Rationalitätsunterstellungen im Einzelfall, sondern die Präsumtion als Ganze sich empirisch zu bewähren haben. Wie oben begründet, liefert Böhm damit m.E. einen Beitrag nicht zum Regelbestand einer Methodenlehre, sondern zur Epistemologie der Methodologie.

Peter Tepe versucht 14 Argumente zu entkräften, die gegen die Konzeption der kognitiven Hermeneutik vorgebracht wurden. Er verweist darauf, dass alle der vorgestellten Einwände in Rezensionen auch im Mythos-Magazin zugänglich sind, verzichtet aber, da es ihm nur um die Sache gehe, auf die Nennung der Namen der jeweiligen Kritiker. Die zumindest zum Teil wortgetreue Wiedergabe der Kritiken schützt ihn vor der Gefahr, dass die Kritiker sich entstellt finden und nicht wiedererkennen. Der Verzicht auf Namensnennungen hat – der guten Absicht zum Trotz – aber den Nachteil, dass sich die unvermeidlich aus einem größeren Argumentationszusammenhang herausgelösten Thesen nicht ohne eigenen Rechercheaufwand kontextualisieren lassen. Zu den Stärken von Tepes Verteidigung gehört, dass er sehr klar, einfach, sachlich und, bis auf eine Ausnahme, unaufgeregt die Kritiken zu widerlegen versucht. Dass alle Kritiker nun Tepes Argumente annehmen, darf selbstredend bezweifelt werden. Insbesondere zu zwei Argumenten drängen sich mir Rückfragen auf. Tepe weist den m.W. von Tilmann Köppe vorgebrachten Einwand zurück, dass die Dichotomie zwischen Aneignung und kognitivem Textzugang schief sei und dass auch aneignende Interpretationen wissenschaftlich sein können. Tepe hält dem Einwand entgegen, dass dieser seinerseits auf einer unsachgemäßen Substitution von „kognitiv“ durch „wissenschaftlich“ beruhe. Nach meinem Eindruck behauptet Tepe aber sehr wohl, dass nur der kognitive Zugang wissenschaftsfähig sei. Köppe scheint mir Tepe für mein Verständnis richtig rekonstruiert zu haben. Hier besteht möglicherweise noch Klärungsbedarf.

Eine keineswegs intrinsische und unlösbare Schwäche der Konzeption zeigt sich in der ansonsten sehr berechtigten Zurückweisung, die kognitive Hermeneutik müsste als empirischer Ansatz eigentlich empirische Rezeptionsforschung betreiben. Dass die intentionalistische Frage „Warum hat der Autor dem Text diese und jene Eigenschaft verliehen?“ eine ganz andere Frage ist, als die nach konkreten faktischen Lese(r)-Reaktionen, ist einleuchtend. Folgt man den zwar nicht mehr ganz neuen, aber in der analytischen Ästhetik wirkmächtigen Konzeption von Tolhurst und seiner Variante eines hypothetischen Intentionalismus,[10] dann ist es doch sinnvoll, die Erwartungen der Autoren an Leser für die Zuschreibung von Autorintentionen zu berücksichtigen. Und dafür könnte empirische historische Rezeptionsforschung – mindestens als Heuristik – relevant sein, um zu sehen, welche Regularitäten des Rezipierens Autoren zu bestimmten Zeiten mit welchen Wahrscheinlichkeiten in Rechnung stellen konnten. Eine derartige Öffnung wäre nach meinem Grundverständnis der kritisch-rationalistischen Wissenschaftsethik ganz in Tepes Sinn.

Michael Forster lässt mit seinem Beitrag »Hypothesis in Interpretation and Natural Sciences« eine Fortführung von Føllesdals einschlägiger Arbeit zur hypothetisch-deduktiven Methode erwarten. Aber er schlägt einen ganz anderen Weg ein, nämlich den eines spätwittgensteineanisch inspirierten Versuchs, die hypothetisch-deduktive Methode nicht für relativ komplexe Interpretationsprozesse wie Überzeugungszuschreibungen, sondern für die grundlegenden sprachlich-grammatischen Prozesse wie das Wörter- und erste Sprachen-Lernen auszuarbeiten. Erstaunlich ist dieser Weg mit Blick auf den Band, insofern Wittgensteins Spätphilosophie sowie die der 50er-Jahre-Normalsprachenanalyitker wegen ihres Sozial- und Sprachregelseparatismus in Hans Alberts Naturalismus nicht höher im Kurs stehen als Heideggers Hermeneutik.[11] Forster ist sich dessen bewusst, dass er über das Problem der Bedeutung sprechen muss, wenn er über ›Wörter lernen‹ spricht. Hier setzt er nun Wittgensteins prominente, u.a. in den Philosophischen Untersuchungen und in Über Gewissheit enthaltene Auffassung voraus, dass die Bedeutung im Gebrauch der Wörter liege, und dieser Gebrauch auf Regeln beruhe, die ihrerseits implizit und nur im erlernten Befolgen dieser Regeln bestehen, dass Bedeutung also nicht propositional explizierbar sei. Da Forster keine weitere Begründung und Plausibilisierung für diese Auffassung liefert, sondern sie einfach für wahr hält, schmilzt sein Argument zu einem Konditional der Art: Wenn man die vorausgesetzte Bedeutungstheorie annimmt, dann ergeben sich für das Wörterlernen bestimmte Charakteristika. So seien hypothetisch-deduktives Wort-Bedeutung Erfassen, Grammatik Erlernen bis hin zu Genre-Erwartungen Ausbilden kein propositionales Hypothesen Aufstellen und Testen, sondern eher wie Fahrradfahren-Lernen oder ›einen Vogel sehen und überprüfen, ob es wirklich ein Vogel ist‹. Leider schließt Forster an die ausführlich erläuterten nicht-sprachlichen Fälle keine ausgeführten Beispiele für Wortbedeutung- und Grammatik-Lernen an, so dass ganz unklar bleibt, worin die Ähnlichkeit besteht. Forster nennt einfach das implizite Erlernen einer körperlichen Fertigkeit wie Radfahren als hypothetisch-deduktives Erlernen und erklärt es zur Basisform der hypothetisch-deduktiven Methode; und damit das explizite Aufstellen, Testen und Revidieren von Hypothesen zur elaborierten, aber sekundären Sonderform. Doch er liefert kein Argument dafür, dass man Radfahren-Lernen wirklich unter die hypothetisch-deduktive Methode fassen sollte, und welche sachliche Kontinuität sie zur Wissenschaftspraxis aufweist. Bei so vielen auf der Hand liegenden Unterschieden zwischen (a) dem Erlernen von Bewegungstechniken, (b) dem Erlernen von Sprache und (c) der sprachlichen Hypothesenbildung mitsamt der methodisch disziplinierten Testverfahren für die formulierten Hypothesen wäre eine explizite Plausibilisierung der beiden Thesen nützlich gewesen, dass Radfahren-Lernen (a) erstens einer impliziten hypothetisch-deduktiven Methode (c) folgt, und dass Wörter-Lernen (b) zweitens wie Radfahren-Lernen (a) funktioniert.

Gerhard Schurz versucht mit »Kognition und Implikatur: Verstehen konventioneller und nicht-konventioneller Sprachbedeutung«, wie der Titel erwarten lässt, das Grice-Programm mit kognitionswissenschaftlichen Erkenntnissen zu synthetisieren, um die präzise formulierte Frage zu beantworten, wie Interpreten unter Voraussetzung von Hempels induktiv-statistischem Erklärungsmodell singuläre Hypothesen über die Überzeugungen von Akteuren bzw. Autoren abduktiv ausbilden. Dies ist, ohne dass Schurz darauf hinweist, eine für die literaturwissenschaftliche Interpretationstheorie hochinteressante Frage, weil dort die Auffassung von Interpretationsakten als abduktiven Inferenzen Fuß gefasst hat,[12] die Frage nach interpretativen Methoden der Überprüfung, Revision und Korrektur solcher abduktiver Inferenzen theoretisch aber noch der Ausarbeitung bedarf. Dieser Frage nachzugehen heißt, kognitionswissenschaftliche Theorieimporte, die zunächst Prozesse des Verstehens betreffen, für die zumindest literaturwissenschaftlich interessante und von Böhm und H. Albert in Aussicht gestellte Grundlegung der Methodologie des Interpretierens zu nutzen. Schurzʼ Antwort geht jedoch meinem Verständnis nach nicht über den bisherigen Diskussionsstand hinaus. Sie lässt Jan Böhms These und Kritik an der früheren Auffassung von Oliver Scholz unberücksichtigt, dass die Rationalitätspräsumtion keineswegs konstitutiv, sondern fallibel sei, und läuft dementsprechend auf eine klassische holistische Sinnmaximierungskonzeption hinaus, bei der immer zusammenhängende Überzeugungssysteme des Sprechers unterstellt und Interpretationen bevorzugt werden, nach denen der Sprecher möglichst viele Konversationsmaximen möglichst gut berücksichtigt. Der Beitrag führt dementsprechend lediglich aus, was Sinnmaximierung in Griceʼschen Begriffen heißt.

Die Psychologen Fritz Strack und Rita Frizlen geben ein knappes Plädoyer dafür, dass die neurowissenschaftliche Lokalisierung von Denkprozessen in grob und nach traditionell psychologischen Kriterien unterteilte Gehirnregionen erstens psychologisch kaum relevant sei, und zweitens insgesamt wenig oder nichts zum Verständnis geistiger Phänomene beitrage. Vielmehr würden psychologische Erkenntnisse über geistige Prozesse den Neurowissenschaften helfen, das Gehirn besser zu verstehen. Zentral müsse immer die Frage nach dem »Wie und warum« (251) geistiger Phänomene bleiben, und zwar qua geistiger Phänomene, und nicht qua physisch-neuronaler Prozesse. Auf Fragen des Verstehens, Interpretierens, der Hermeneutik im weitesten Sinn also, geht das kurze Statement nicht ein.

Einen gelungenen Abschluss des Bandes bietet Volker Gadenne mit »Selbstwidersprüche, wohlwollende Interpretation und Humes Erkenntnistheorie«. Ausgangsproblem des Aufsatzes ist im Anschluss an Böhms These der Fallibilität der Rationalitätspräsumtion das einschlägige Dilemma, dass das Prinzip hermeneutischer Billigkeit zunächst präsumtiv, d.h. ungeachtet der Tatsachen, dazu auffordert, dem Autor wohlwollend Konsistenz zu unterstellen und nach einer Konsistenz stiftenden Interpretation zu forschen. Für empirische Tatsachenforscher ist aber zugleich klar, dass man eine Inkonsistenz zuzuschreiben hat, wenn dem Autor de facto eine Inkonsistenz unterlaufen ist. Die Frage ist nur, wie man diesen Übergang von der vorläufigen Konsistenzunterstellung zur letztendlichen Inkonsistenzzuschreibung methodologisch abbilden kann. Im Einklang mit Böhm nimmt Gadenne an, dass es Fälle geben kann, in denen wir von Vornherein die Irrationalität eines Sprechers annehmen, so dass man eher Anwendungskriterien für die Präsumtion ermitteln sollte. Er weist zudem darauf hin, dass die Zuschreibung von Inkonsistenzen weniger ein ethisches als ein logisches Problem ist, denn aus nur einer Widersprüchlichkeit folgen logisch alle möglichen Aussagen. Wenn ein Widerspruch entdeckt ist, wird also unklar, was der Autor eigentlich meinte.

Gadenne demonstriert das Problem anhand einer Aufarbeitung von Interpretationen zu Humes Enquiry Concerning Human Understanding. Darin wird Hume häufig der frappierende Selbstwiderspruch unterstellt, er vertrete im Zuge der Aufdeckung des Induktionsproblems auf der einen Seite die radikale Erkenntnisskepsis, dass empirische Verallgemeinerungen nicht rechtfertigbar seien, während er auf der anderen Seite im Verlaufe seiner Argumentation Anspruch auf die Möglichkeit allgemeiner gesetzesartiger Aussagen erhebt, indem er selbst allgemeine Aussagen trifft und diese für gültig hält – allem Anschein nach ein Widerspruch. Vier etablierte Interpretationsoptionen werden vorgestellt, die entweder die Inkonsistenzen zu heilen versuchen, oder den Text als inkonsistent beurteilen. Diese Interpretationen sehen Hume entweder als Skeptiker und Irrationalist, der Induktion ablehnt, sich dann aber in besagte Widersprüche verstrickt; oder als Naturalist, etwa als evolutionären empirischen Epistemologen, der behauptet, woran wir glauben, glauben wir zurecht, wenn es für unser Überleben nützlich ist; oder als kritischen Rationalist, der ein Akzeptanzprinzip für Hypothesen vertrete. Die beiden letztgenannten Interpretationsvarianten lösen die Inkonsistenzen. Gadenne hält letzteren Ansatz für den von Hume wahrscheinlich verfolgten, d.h. intendierten, schließt aber auch die naturalistische Deutung nicht aus. Für Gadenne löst sich die Widersprüchlichkeit, weil Hume zwischen Akzeptabilität von allg. Aussagen und letzter logischer Begründbarkeit unterscheidet. Wir dürfen immer solange an die jeweils relativ am besten begründeten Aussagen glauben, bis es für widersprechende Behauptungen bessere Gründe gibt. Das ist kritischer Rationalismus mit klassischem empirischem Fallibilismus. Dazu passe auch Humes Aussage, dass im Zuge von Begründungen auch relative Wahrscheinlichkeiten akzeptabel seien und nicht nur Demonstrationen im Sinne unbezweifelbarer Beweise. Der Aufsatz ist erstens ein exemplarisch-methodologischer, zweitens ein historischer und drittens ein systematisch-epistemologischer Beitrag zur Grundlegung der naturalistischen Hermeneutik, indem er Humes Theorie auf seine Gegenwartstauglichkeit für eine empiristische Auffassung gesetzesartiger Aussagen rational rekonstruiert. In dieser Hinsicht weist Gadennes Beitrag Parallelen zu Gert Alberts Rekonstruktion auf. Einzuwenden ist hinsichtlich des ersten Grundliegens freilich, dass das gewählte Beispiel auf den Nachweis einer Konsistenz hinausläuft. Deshalb kann der Aufsatz seine methodologische Ausgangsfrage nicht exemplarisch beantworten, wie man die Zuschreibung einer faktisch angenommenen Inkonsistenz interpretativ rechtfertigt.

Ein literaturwissenschaftliches und -theoretisches Fazit

Der Band – der Sache wie seiner Intention nach kein Hand-, kein Lehr- und kein Einführungsbuch, sondern die Zusammenstellung einer Expertenrunde – bietet mit einigen Niveauunterschieden zwischen den einzelnen Beiträgen nicht nur eine zwar voraussetzungsreiche, aber aufschlussreiche Darstellung des naturalistischen Programms (Böhm und H. Albert im Zusammenklang), auch nicht nur eine Reihe von Beiträgen, die im Detail dieses Programm differenziert und reflektiert ausarbeiten (neben den Genannten G. Albert, Føllesdal, und Gadenne), sondern auch zahlreiche Beiträge, die eher lose an das Programm anschließen und vom Naturalismus unabhängige Fragen der Hermeneutik zu beantworten suchen (Thouard, Schröder, Scholz und Schurz). Neben wenigen Beiträgen, deren Verhältnis zur Hermeneutik unklar bleibt (Ferraris und Strack/Frizlen), findet sich innerhalb des Bandes ein intrinsisches Potenzial für fruchtbare Kontroversen (Detel und evtl. Forster gegen die Naturalisten im engeren Sinn), die aber nicht zwischen den Beiträgen ausgetragen werden. Ein wenig schade, in Festschriften aber kaum vermeidbar ist die Tatsache, dass zwischen den Beiträgen außer dort, wo ohnehin enge Verbindungen bestehen, keine Kommunikation stattfindet, obwohl die einzelnen Beiträge einander offensichtlich viel zu sagen hätten. Die Festschriften überdies häufig nachgesagte Tendenz zur Wiederholung bereits vorgebrachter Argumente ist, wie die Besprechungen gezeigt haben, erkennbar. Die jeweiligen Wiederholungen sind aber jeweils explizit gemacht und argumentationsstrategisch jeweils plausibel (insb. bei Albert, Cataldi Madonna, Schurz, und Böhm; und selbstverständlich bei Tepe).

Anschluss an im engeren Sinn literatur-interpretationstheoretische Debatten findet man abgesehen von Tepes Verteidigung, die programmatisch aber nichts Neues liefert, nur schwerlich – was nur ein Befund und kein Vorwurf gegen einen Band sein kann, in dem hauptsächlich Philosophen und Soziologen zu Wort kommen. Schurz nimmt einen Anlauf zur Klärung abduktiver Schlussfolgerungsprozesse, geht aber über den in der Literaturtheorie erreichten Reflexionsstand nicht hinaus. Trotz der betonten Forcierung professioneller Interpretationsmethoden erschöpfen sich die Einzeldiskussionen in einem Plädoyer für die Fallibilität des hermeneutischen Billigkeitsprinzips und liefern gerade nicht die angekündigten Anwendungsbedingungen für die Präsumtion. Für die theoretische Beschreibung der Grundlagen literaturhistorischen Arbeitens interessant und im anti-naturalistischen Mainstream auch der Literaturwissenschaft sicher kontrovers zu diskutieren ist Hans Alberts Erklärungsmodell nach dem Vorbild nomologisch fundierter deduktiver Hypothesen, demzufolge faktische Quellenlagen als nomologisch erklärbare und mehr oder minder wahrscheinliche Konsequenzen aus vermuteten historischen Sachverhalten zu behandeln sind. Alles in allem ist es ein Band, der nicht ganz glücklich angelegt wurde, der aber viele ansprechende und für die theoretische Diskussion weiterführende Beiträge versammelt, auch wenn die in Aussicht gestellte Forcierung einer hermeneutischen Methodologie eher auf Diskussionen zur Epistemologie und Metaphysik der Methoden hinaus laufen.

Anmerkungen

[1] Vgl. Hans Albert, Kritik der reinen Hermeneutik. Der Antirealismus und das Problem des Verstehens, Tübingen 1994, Ders.: Der Naturalismus und das Problem des Verstehens, in: Bernulf Kanitscheider et al., Hermeneutik und Naturalismus, Tübingen 1998, 1–20, Dagfinn Føllesdal, Hermeneutik und die hypothetisch deduktive Methode, in: Axel Bühler, Hermeneutik. Basistexte zur Einführung in die wissenschaftstheoretischen Grundlagen von Verstehen und Interpretation [2003], Heidelberg ²2008, 157–176. [zurück]

[2] Allerdings kommt bzw. meldet sich Chrysostomos Mantzavinos nicht zu Wort, der mit Naturalistische Hermeneutik, Tübingen 2006 ein gleichnamiges Buch verfasst hat. [zurück]

[3] Neben dem Manifest und Diskussionen der Arbeiten der genannten Autoren sind auch Rezensionen zu diesen Arbeiten im Mythos-Magazin versammelt, www.mythos-magazin.de. Überdies finden sich dort auch Ausschnitte einzelner Beiträge des hier rezensierten Bandes. Vgl. u.a. Peter Tepe, Kognitive Hermeneutik. Textinterpretation ist als Erfahrungswissenschaft möglich, Würzburg 2007. [zurück]

[4] Vgl. Jan M. Böhm/Axel Bühler, Geisttheoretische Hermeneutik versus naturalistische Hermeneutik, Mythos-Magazin 10 (2012), http://www.mythos-magazin.de/erklaerendehermeneutik/forum-w.htm (19.01.14). [zurück]

[5] In ihrem gemeinsamen Aufsatz legen sich Böhm und Bühler auf die schwächere ontologische These fest, dass auch der menschliche Geist Teil der Natur sei, ebd., 5. [zurück]

[6] Abstract zu Hans Albert, Hermeneutik und Realwissenschaft, in: Axel Bühler, Hermeneutik (s. Anm. 1.), 23–58, hier 23. [zurück]

[7] Vgl. Albert, Kritik (Anm. 1), 106. [zurück]

[8] Der Vergleich mit Grice wird nicht von Thouard erbracht, sondern stammt von mir. Vgl. Herbert Paul Grice, Meaning, The Philosophical Review 64 (1957), 377–388. [zurück]

[9] Vgl. Maurizio Ferraris, Manifesto del nuovo realismo, Roma-Bari 2012, die englische Übersetzung Manifesto of New Realism, New York erscheint voraussichtlich im Dezember 2014. [zurück]

[10] Vgl. William E. Tolhurst, On what a Text is and how it Means, The British Journal of Aesthetics 19:1 (1979), 3–14. [zurück]

[11] In seinem Beitrag im vorliegenden Band merkt Albert die Kontinuität zwischen analytischem ›Ordinary-language-approach‹ und Heideggers Fundamentalhermeneutik nur beiläufig an (24). Genaueres dazu liefert Hans Albert u.A. in: Hermeneutik und Realwissenschaft (s. Anm. 6 und 1), hier 26f. [zurück]

[12] Vgl. u.A. Fotis Jannidis, Figur und Person, Berlin/New York 2004. [zurück]

2014-02-18

JLTonline ISSN 1862-8990

Copyright© by the author. All rights reserved.
This work may be copied for non-profit educational use if proper credit is given to the author and JLTonline.
For other permission, please contact JLTonline.

How to cite this item:

Julian Schröter, Intentionalistische, erklärende, kognitive und geisttheoretische als naturalistische Hermeneutik:

Konsolidierung oder Kontroverse? (Review of: Luigi Cataldi Madonna (Hg.), Naturalistische Hermeneutik. Ein neues Paradigma des Verstehens und Interpretierens. Würzburg: Königshausen & Neumann 2013.)

In: JLTonline (18.02.2014)

URL: http://www.jltonline.de/index.php/reviews/article/view/630/1471

A Persistent Identifier can be found in the PDF-Version of this article.