In seinem Buch "Das Elend des Historizismus" formulierte der österreichische Philosoph Karl Popper eine 130 Seiten starke Kampfansage. Ziel seines Angriffs war die Ansehung, man könne den Verlauf der Geschichte vorhersagen. In späteren Auflagen tat Popper dies mit Hilfe eines Beweises, der auf die Ergebnisoffenheit der Wissenschaft zurückgreift.
Weil die Wissenschaft die Geschichte beeinflusst und sich die Erkenntnisse der Wissenschaft nicht vorhersagen lassen, so das Argument, lasse sich auch die Geschichte nicht vorhersagen. "Wenn es so etwas wie ein wachsendes menschliches Wissen gibt, dann können wir nicht heute das vorwegnehmen, was wir morgen wissen werden", schreibt Popper.
So gesehen hat sich in die gegenwärtige Wissenschaft eine durchaus fragwürdige Praxis eingeschlichen. Wer heute einen Forschungsantrag stellt, sollte idealerweise auch die Ergebnisse des Projekts vorhersehen können, sonst sieht es schlecht aus mit der Bewilligung.
Prognosemodell für Karrieren
Die Hoffnung, zumindest quantitativ ein Stück weit in die Zukunft zu blicken, hat sich auch in anderen Bereichen verfestigt. Ein Team um den Netzwerkforscher Albert-Laszlo Barabasi veröffentlichte Anfang Oktober im Fachblatt "Science" ein Modell, das für die Beurteilung von Forscherkarrieren eingesetzt werden könnte. Die Beurteilungsgröße ist - wie so oft in diesem Metier - die Zahl der Zitate, die Publikationen auf sich ziehen.
Die Idee dahinter: Was oft zitiert wird, ist offenbar in der Fachgemeinde wichtig. Innerhalb statistischer Schwankungsbreiten kann das Modell von Barabasi tatsächlich die zukünftige Entwicklung antizipieren. Arbeiten, die innerhalb der ersten fünf Jahre oft von anderen Forschern erwähnt werden, haben gute Chancen, auch in Zukunft einen hohen "Impact" zu haben - also im Rampenlicht der Fachgemeinde zu stehen. Das entspricht durchaus den Erwartungen. Sie haben nun durch Barabasi eine mathematische Formulierung erhalten. Die Frage ist allerdings: Was ist der Nutzen solcher Prognosen?
James Evans von der University of Chicago schreibt in einem begleitenden Kommentar: "Die Vorhersage des zukünftigen Impacts ist für die Evaluation von Forschungsanträgen notwendig, sowie für die Vergabe von Forschungspreisen und die Festlegung von Gehältern."
"Selbsterfüllende Prophezeiung"
Im gleichen Text spricht der US-Soziologe allerdings auch eine Warnung aus. "Das Wissen, wie sich die Rezeption einer Studie entwickelt, kann sich auch in eine selbsterfüllende Prophezeiung verwandeln. Wissenschaftler und Geldgeber könnten sich dadurch veranlasst fühlen, jene Ideen vorschnell auszusortieren, die sich erst beim zweiten oder dritten Versuch als fruchtbar erweisen."
In diesem Fall würde das ohnehin Etablierte weiter etabliert - auf Kosten des Riskanten oder Neuen. Züchtet man auf diese Weise ein Heer von akademischen Opportunisten?
"Diese Gefahr besteht ohne Zweifel", meint Gerhard Fröhlich. Wenn Forscher nur nach kurzfristigen Erfolgen schielen würden, drohe die Wissenschaft im Belanglosen zu versanden. "95 Prozent aller publizierten Arbeiten sind langweilige Normalwissenschaft. Der Rest ist - vielleicht - Innovation", sagt der Linzer Wissenschaftsforscher.
Ein Modell wie jenes von Barabasi negiere das Phänomen der "sleeping beauties" - Arbeiten, die Jahrzehnte lang unbemerkt in den Archiven schlummern und dann plötzlich von allen zitiert werden, weil die Forschung ihren Wert erkennt.
Die Idee, Qualität objektivieren zu wollen, hat einen guten Grund: Die Wissenschaft ist ein kompetitives Unternehmen, Leistung gilt als Tugend. Und um Leistung festzustellen, bedarf es eben entsprechender Beurteilungen, seien sie nun prognostisch oder "nur" rückblickend orientiert. Das gilt für Institutionen ebenso wie für Forscher. Auch einzelne Arbeiten müssen nolens volens beurteilt werden, renommierte Fachjournale wie "Nature" und "Science" lehnen etwa bis zu 95 Prozent der eingereichten Manuskripte ab. Für die Publikation angenommen werden nur jene, die fachlich auf hohem Niveau und inhaltlich originell sind.
Nur scheint die Flut der Beurteilungen mittlerweile ein gewisses Eigenleben entwickelt zu haben. "Die Wissenschaft leidet an Evaluitis und Impactitis", lautet Fröhlichs Diagnose. Er ist nicht der einzige, der die akademische Überprüfungspraxis kritisch betrachtet. Der deutsche Indologe Axel Michaels vergleicht die regelmäßigen Evaluationen an Universitäten mit religiösen Ritualen.
Diese würden vor allem der Zementierung der Machtverhältnisse dienen, der Verbesserung der Forschung seien sie "allenfalls indirekt dienlich", schrieb Michaelis vor drei Jahren in einem Essay.
"Wissenschaft ist wie Tennis"
Stefan Bernhardt vom Forschungsfonds FWF hält dem entgegen: "Wir brauchen Evaluierungen durch Experten aus dem Ausland, um die österreichische Wissenschaft an internationalen Standards zu messen. Im Prinzip ist es so wie im Tennis: Es macht eben einen Unterschied, ob man an einer regionalen Meisterschaft teilnimmt oder an der ATP-Tour."
Ein durchaus passendes Bild: So wie ein Turniergewinn in Wimbledon und Flushing Meadows das größte Prestige verspricht, gelten auch Universitäten wie Cambridge und Harvard als Leuchttürme der Wissenschaft. Sich an exzellenten Vorbildern zu orientieren, ist Ausdruck des Leistungswillens. Die Frage ist nur, was man unter Exzellenz versteht - und wie man sie erreicht. Gibt es nur einen Weg dorthin oder viele? Sind Ideenreichtum und Originalität an Normen gebunden?
Die Evaluierungskultur, von der britischen Sozialanthropologin Marilyn Strathern "audit culture" genannt, legt nahe, dass es nur den einen, richtigen Weg gäbe.
Martin Heidegger hat in seiner Marburger Zeit fast ausschließlich an seinem Hauptwerk "Sein und Zeit" gearbeitet. An den aktuellen Publikationsstandards gemessen (die mittlerweile auch in der Philosophie gelten) wären die Zensuren für diese Phase wohl nicht so gut ausgefallen. "Heidegger hätte eine Evaluation kaum überstanden ", lautet das Urteil des Musikwissenschaftlers Laurenz Lütteken.
Dass Evaluierungen der Wissenschaft mitunter Normschablonen aufdrücken, gesteht auch Klaus Schuch ein. Den Verweis auf Heidegger lässt der Geschäftsführer der österreichischen Plattform Forschungs- und Technologieevaluierung allerdings nicht gelten. "Das ist Vernebelungstaktik. Heidegger würde wohl heute zu den gleichen Erkenntnissen gelangen, wenn er gezwungen wäre, Zwischenergebnisse seiner Arbeit zu publizieren."
"Früher gab es geschützte Werkstätten"
"Evaluierungen sind notwendig, um Dinge zu verbessern", sagt Schuch. Und sie seien auch dazu da, um den Steuerzahlern zu zeigen, was mit ihrem Geld passiert. "Früher gab es an den Universitäten geschützte Werkstätten - Professoren, die 30 Jahre nichts publiziert und sich auch in der Lehre nicht engagiert haben. Das ist heute nicht mehr möglich."
Evaluierungen sorgen für Transparenz. Aber sie erzeugen auch neue Probleme. Sie führen zur Bürokratisierung und fördern die Fetischbildung: Erst im Frühjahr dieses Jahres kritisierte Bruce Alberts, Herausgeber des Journals "Science", es werde ein "Missbrauch" mit Maßzahlen getrieben. Niemand schaue mehr auf den Inhalt von Veröffentlichungen, was zähle, sei die Zahl der Zitate, der sogenannte Impact einer Studie (oder eines Journals).
Diese Tendenz sei "hochgradig zerstörerisch": "Evaluationssysteme, die die Zahl von Publikationen erhöhen, führen dazu, dass niemand mehr riskante und potenziell bahnrechende Forschungen durchführen will."
Das sieht auch Klaus Schuch so. Er ist dafür, die Bewilligung von Forschungsgeldern bei exzellenten Forschern neu zu ordnen. "Anstatt Maßzahlen auf die dritte Dezimalstelle zu vergleichen, wäre es besser, von diesen Forschern gar keinen Projektantrag zu verlangen und die Entscheidung einer Jury mit wechselnder Besetzung zu überlassen."
Forschungsgelder durch Los verteilen?
Das erinnert ein wenig an eine Idee von Paul Feyerabend. Der österreichische Wissenschaftstheoretiker hatte einst gefordert, die Vergabe von Forschungsgeldern auch Laien zu überantworten - oder sogar per Zufall zu bestimmen. "Das wird hinter den Kulissen tatsächlich diskutiert", sagt Schuch. "Für die Elite unter den Forschern wären solche Verfahren durchaus denkbar. Allerdings müsste man zuvor klären: Wer oder was ist die Elite?"
Hier scheint sich die Katze in den Schwanz zu beißen. Wer oder was die Elite ist, hängt von den Ergebnissen der Evaluierung ab. "Separating the best from the rest", heißt es im Englischen. Der historische Ursprung der Idee liegt tatsächlich auf der Insel. "Der englische Eugeniker Francis Galton war der erste, der gute Wissenschaftler von schlechten unterscheiden wollte", sagt Gerhard Fröhlich.
Wenngleich die gegenwärtige Evaluationskultur auch andere historische Quellen hat - eine wahrlich bunte Mischung: Die Vermessung der Wissenschaft sei eine Erfindung der sowjetischen Planwirtschaft, so Fröhlich, die Rankingsysteme wiederum habe die US-Armee eingeführt.
Und natürlich sei die "audit culture" auch ein Kind des Neoliberalismus. "Thatcher hat die Evaluierung der Wissenschaft mit ihrer Finanzierung gekoppelt, Stichwort: 'Research Assessment Exercise'. Es geht nicht um bloßes Feedback, es geht ums Überleben von Instituten."
Karl Popper, der bis zu seinem Tod in London lebte, hat diese Phase miterlebt. Man sagt, die Premierministerin und der Philosoph hätten einander geschätzt. Freilich war Popper vom Thatcherismus in der englischen Forschungslandschaft nicht mehr betroffen. Er wurde 1969 emeritiert.
Robert Czepel, science.ORF.at
Mehr zu diesem Thema: