Qualitätsmessung: H. Schissler: Rezensionsartikel "What the Hell is Quality?"

Von
Hanna Schissler, Georg-Eckert-Institut für internationale Schulbuchforschung, Braunschweig

Rezensionsartikel zu Elisabeth Lack / Christoph Markschies (Hrsg.), What the Hell is Quality? Qualitätsstandards in den Geisteswissenschaften, Frankfurt am Main: Campus Verlag 2008. ISBN 978-3-593-38749-9; 295 S.; EUR 24,90.


Zum Inhaltsverzeichnis: http://www.hsozkult.de/daten/2009/inhaltsverzeichnis_lack_markschies_2008.pdf

Deutschland erlebt seit etwa 15 Jahren eine tiefgreifende Umstrukturierung seiner Wissenschaftsinstitutionen. Dieser Prozess folgt den Logiken eines bestimmten Verständnisses von Europäisierung und Globalisierung der Forschung und Lehre. Exzellenzcluster, Bologna-Prozess, leistungsbezogene Mittelvergabe und globaler Wettbewerb sind nur einige der Stichpunkte, an denen sich festmachen lässt, dass die bundesdeutsche Wissenschaftslandschaft neu kartiert wird. Wenn es um Mittelallokation und um die Entscheidung geht, welche Forschung gefördert werden soll (was impliziert, welche Forschung nicht gefördert wird), dann stellen sich etliche Fragen: Was ist Qualität? Wie und nach welchen Kriterien lässt sie sich bestimmen? Kann man sie messen? Wer entscheidet, was gute, mithin förderungswürdige Forschung ist und was nicht? Welche Auswirkungen haben die Wandlungsprozesse in der bundesrepublikanischen Forschungslandschaft auf Wissenschaftler, Studierende und die Prozesse von Forschung und Lehre? Ist die gegenwärtig zu beobachtende Entwicklung unausweichlich? Müssen sich die Geisteswissenschaften mit ihr arrangieren, sie gar befördern, und wenn ja, wie? Und schließlich: Was sagt diese Umstrukturierung der Wissenschaftsinstitutionen über die Gesellschaft aus, in der wir leben? Die folgenden Bemerkungen gehen von einem Buch aus und skizzieren seine Inhalte, beschränken sich jedoch bewusst nicht auf eine übliche Rezension, sondern nutzen das Buch als Anstoß für grundsätzlichere Überlegungen zum Thema. Dabei konzentriere ich mich auf den Forschungsprozess und seine Rahmenbedingungen, während die nicht minder brennenden Fragen der Qualität der Lehre hier ausgeklammert bleiben.[1]

1. Überblick
Der Sammelband „What the hell is quality?“ ist aus einem Symposion hervorgegangen, das im November 2007 – im „Jahr der Geisteswissenschaften“ – an der Humboldt-Universität in Berlin stattgefunden hat und sich mit den Kriterien für Qualität sowie deren Bewertung und Messung in den Geisteswissenschaften beschäftigte. Einen „Anforderungskatalog an die Kriterienbildung für Qualitätsmaßstäbe“ in den Geisteswissenschaften liefere dieser Band, so die Mitherausgeberin Elisabeth Lack in ihrer Einleitung (S. 13). Es sei an der Zeit, das „traditionell von den Geisteswissenschaften beanspruchte Deutungs- und Ordnungsvermögen“ in der gegenwärtigen Wissenschaftslandschaft zur Geltung zu bringen (S. 14) und in den „fehlenden Standards“ (oder besser: ihrer fehlenden Operationalisierung und Messung) nicht mehr länger einen „Genialitätsbeweis der Geisteswissenschaften“ zu vermuten (S. 15). Nun meint die Autorin mit dem „Deutungs- und Ordnungsvermögen der Geisteswissenschaften“ offenbar nicht die Fähigkeit zur gesellschaftlichen und politischen Einordnung und kritischen Bewertung der gegenwärtig beobachtbaren Tendenzen des deutschen Wissenschaftsbetriebs – der anscheinend unausweichlichen Tendenzen zum Messen, Wiegen und Zählen, denen gegenüber sich die Geisteswissenschaften traditionell eher widerständig verhalten. Sie schlägt vielmehr vor, dass diese Ordnungs- und Deutungsfähigkeiten für eine Entwicklung von Qualitätsstandards innerhalb der Geisteswissenschaften genutzt werden. Lack fordert eine Öffnung der Geisteswissenschaften gegenüber aktuellen Tendenzen der Wissenschaftskultur, in der es um Qualitätsindikatoren, Standards, Messbarkeit, „Benchmarking“, Profilbildung, Kernkompetenzen, Exzellenzinitiativen, Rankings, Leistungsmessung und Forschungs-„Impact“ geht. Außerdem gibt sie einen knappen und nützlichen Überblick zu den einzelnen Beiträgen, der dem Leser/der Leserin die Orientierung erleichtert.

In sechs Kapiteln werden folgende Themen erörtert:
(1) „Die Mühen der Ebene: Standards, Leistung und Hochschulreform“ sind der Gegenstand eines Gesprächs zwischen Ulrich Herbert, Historiker und langjähriges Mitglied des Wissenschaftsrats, und dem Wissenschaftsjournalisten Jürgen Kaube.
(2) Beiträge von Stefan Hornbostel, Claire Donovan und Georg Braungart behandeln das Thema „State of the Art der Qualitätsbeurteilung geisteswissenschaftlicher Forschung“ (das „Denglisch“ dieser Überschrift ist bei dem Thema kennzeichnend). Hornborstel ist Sozialwissenschaftler; er leitet das Institut für Forschungsinformation und Qualitätssicherung (IFQ). Donovan ist Philosophin und Vorsitzende einer Regierungskommission der australischen Regierung zur Bestimmung der besten Evaluationsmethoden der sozialen, ökonomischen, ökologischen und kulturellen Auswirkungen akademischer Forschung. Seit 2008 ist sie Mitglied des Expertengremiums „Coordination and Support Actions“ (CSA) des Europäischen Wissenschaftsrats. Braungart ist Literaturwissenschaftler.
(3) Die Theaterwissenschaftlerin Erika Fischer-Lichte, der Theologe und Präsident der Humboldt-Universität Christoph Markschies sowie der Kunsthistoriker Wolfgang Kemp befassen sich mit der Frage: „Haben uns Moden die Qualität verdorben?“
(4) Christine Färber, Margret Wintermantel und – im Vergleich mit den USA – Ute Frevert setzen sich mit der Berufungspraxis an deutschen Hochschulen auseinander. Christine Färber ist Politikwissenschaftlerin, Frauenbeauftragte der Freien Universität Berlin, Bundes- und Landessprecherin der Hochschulfrauenbeauftragten sowie Leiterin eines Projekts zur „Geschlechtergerechten Gestaltung von Berufungsverfahren“. Wintermantel ist Sozialpsychologin und Präsidentin der Hochschulrektorenkonferenz; Frevert ist Historikerin und Direktorin am Max-Planck-Institut für Bildungsforschung.
(5) Der Literaturwissenschaftler Bernd Stiegler und der Bibliothekswissenschaftler Stefan Gradmann befassen sich mit den „Publikationsgepflogenheiten und Diskursstile[n] in den Geisteswissenschaften“.
(6) Schließlich diskutieren Frank Suder, Vorstandsmitglied der Fritz-Thyssen-Stiftung, Manfred Nießen, Leiter der Fachgruppe Geistes- und Sozialwissenschaften der Deutschen Forschungsgemeinschaft, sowie Ulrike Felt, Professorin für Wissenschaftstheorie und Wissenschaftsforschung, Fragen der Mittel-Allokation und der sich in der gegenwärtigen Wissenschaftskultur herausbildenden Praktiken und Konsequenzen. Dieses Kapitel trägt den Titel „Nach welchen Kriterien vergeben wir Geld?“.

Die Autoren und Autorinnen nähern sich ihren Themen in unterschiedlicher Weise. Die meisten glauben, dass die Geisteswissenschaften mehr als bisher über die eigene Qualität nachdenken müssten und dass es gegenwärtig nicht möglich sei, sich stärker standardisierten Bewertungsverfahren der wissenschaftlichen Leistungen zu entziehen. Damit enden aber auch schon die Gemeinsamkeiten, und neben den zustimmenden kommen sehr differenzierte und kritische Positionen zu Wort.

2. Qualitätsmessung in den Geisteswissenschaften
Stefan Hornborstel und Claire Donovan geben einen Überblick der wichtigsten Ansätze zur Evaluation von Forschungsqualität, nämlich: Peer Review, Szientometrie, Bibliometrie, Ansehensindikatoren und Impact-Messungen. Hornborstel erläutert: „Die Grundidee von Wissenschaftsindikatoren besteht in einer quantitativen Abbildung der Qualitätsurteile der scientific community.“ (S. 58) Er vertritt die These, es könne „kaum ein Zweifel daran bestehen, dass aussagekräftige Indikatoren zur Forschungsbewertung in den Geisteswissenschaften und belastbare, langfristige Datenkollektionen zu verschiedenen Leistungsdimensionen nicht nur wünschenswert, sondern dringend notwendig sind“ (S. 69). Wenn an etwas „kaum ein Zweifel“ bestehen kann, hat sich die Aussage gegenüber möglichem Widerspruch immunisiert. Solche Immunisierungsstrategien, die auch aus anderen hegemonialen Diskurszusammenhängen wohlbekannt sind, zielen darauf ab, die eigene Position unangreifbar zu machen. Wenn „kein Zweifel“ erlaubt ist, dass Wissenschaftsindikatoren erhoben werden müssen, dann kann es in der Tat lediglich darum gehen, wie die Datenerhebung im Einzelnen geschehen soll und wie die Leistungsbewertung implementiert werden kann. Grundsätzlichere Fragen etwa nach den sozialen wie inhaltlichen Konsequenzen einer Übertragung marktwirtschaftlicher Messungs- und Steuerungssysteme auf den Wissenschaftsbetrieb geraten dann nicht mehr ins Blickfeld. Hornborstel konzediert zwar, dass „Qualitätsbewertungen nicht in einem neutralen Raum stattfinden, sondern immer auch ein normatives, steuerndes Element besitzen“ (S. 57), sagt aber nicht, was das im Einzelnen impliziert oder gar, was es bedeutet. Normativität (im Hinblick auf welche Normen?) und Steuerung (durch wen und mit welchem Ziel?) sind dann entweder explizit erwünscht, womit sich die Frage verbindet, zu wessen Agenten sich die Leistungsmesser machen. Oder sie werden sozusagen als Kollateralschaden in Kauf genommen – falls doch noch ein Bewusstsein davon besteht, dass wissenschaftliche Forschung zumal in den interpretierenden und deutenden Geisteswissenschaften nur in einer Atmosphäre der Freiheit, Unabhängigkeit und auch geistigen Widerständigkeit gedeihen kann.

Die Diskussion in diesem Band geht über einen rein instrumentell-technokratischen Ansatz der Leistungsmessung und Qualitätsbestimmung jedoch weit hinaus. Sie berührt fundamentale Fragen des Wissens in der modernen Gesellschaft sowie des gesellschaftlichen und politischen Ortes von Wissenschaft. Andere Autoren und Autorinnen in dem Sammelband sind – was die Wünschbarkeit der Normierung und Steuerung des Wissenschaftsbetriebes durch Wissenschaftsindikatoren angeht – vorsichtiger und auch kritischer als Hornborstel. Dass eine quantitative Abbildung von Qualität in den Geisteswissenschaften nicht ganz so einfach ist, erschließt sich schon durch die Definition der Geisteswissenschaften, wie Donovan sie anbietet: „Die Grundlagen (der Geisteswissenschaften) bilden Gelehrtentraditionen des kritischen Engagements sowie der Spekulation über menschliche Erfahrungen und die conditio humana über Zeiten und Kulturen hinweg.“ (S. 76) Wie jedoch lassen sich „kritisches Engagement“ und die Qualität von „Spekulation über menschliche Erfahrungen“ bewerten, gar quantifizieren? Und könnte es nicht sein, dass gerade die Merkmale des „kritischen Engagements“ und des Spekulativen im Prozess ihrer Messung auf der Strecke bleiben?

3. What the Hell is Quality? Auf dem Weg zur „Audit Society“
Wie Georg Braungart in Erinnerung ruft, habe bereits Hans Georg Gadamer schlüssig nachgewiesen, dass Verstehen „nicht methodisierbar“ sei. Auf hermeneutischen Verfahren, also auf Verstehen, beruhen jedoch ganz elementar die Leistungen der Geisteswissenschaften. Wie lässt sich Qualität dann aber quantitativ erfassen? Christoph Markschies betont, dass Geisteswissenschaftler in der Regel ein durchaus hohes Qualitätsbewusstsein haben, dass es ihnen aber schwerfalle, Qualität zu definieren. Er zitiert Augustinus: „Wenn mich niemand danach fragt, weiß ich es; will ich es einem Fragenden erklären, weiß ich es nicht.“ (S. 136) Was ist denn nun Qualität? Wolfgang Kemp zitiert die dürre, kaum verständliche Definition des Akkreditierungsrats, der „obersten Instanz der Qualitäten, die an bundesdeutschen Universitäten erbracht und abgeprüft werden sollen“ (S. 146): „Die Beurteilung von Qualität in Studium und Lehre folgt dem kombinierten fitness of- und fitness for purpose- Ansatz, somit der Überprüfung der Validität des Studienziels in Verbindung mit der Zielerfüllung.“ Kemp fährt fort: „Dieses magere Konzept scheint im Moment auszureichen, um auf seiner Basis einen großen Geschäftsbereich (das ganze Evaluierungs-, Akkreditierungs- und Qualitätsmanagement-Business) und einen von Ministerien, Agenturen, Planungsabteilungen etc. gestützten Qualitätsdiskurs aufzubauen, der im Grunde ein Unterthema der viel größeren Bewegung hin zu einer ‚Audit Society’ (Michael Power), einer Gesellschaft des controlling darstellt. Qualität ist, was sich abprüfen lässt [...].“ (ebd.)[2]

Ausgehend von der Feststellung, dass sich eine Disziplin, „die keine klaren Mittel und Wege zur Messung ihrer Forschungsergebnisse vorweisen“ könne, heutzutage in einer problematischen Situation befinde (S. 278), kommentiert Ulrike Felt: „Leistung wird heute zu einem Objekt gemacht, wobei es zentral ist zu verstehen, was wir genau sichtbar machen und was unsichtbar bleiben soll, was gemessen werden kann/soll und was nicht. Implizite Elemente von Qualität bleiben dabei unberücksichtigt, sie werden zwar nicht verleugnet, erhalten aber in einer Welt, die auf Messbarkeit setzt, eindeutig einen niedrigeren Stellenwert zugewiesen.“ (S. 279) Spätestens hier stellt sich die Frage, was der gegenwärtige Trend zur „Audit Society“ über die Gesellschaft aussagt, in der wir leben, und welche Implikationen er für die Art und Weise hat, in der wir Wissen erwerben und weitergeben.[3]

Der Beitrag von Erika Fischer-Lichte führt an dieser Stelle einen Schritt weiter: Den Vorwurf, die verschiedenen Theorie-Moden der linguistic, semiotic, performative, cultural, spatial, pictorial, emotional, memorative turns hätten in den letzten Jahrzehnten das Ansehen und die Bedeutung der Geisteswissenschaften unterminiert („Haben uns Moden die Qualität verdorben?“), kontert sie mit dem Hinweis auf das – um einen modischen Ausdruck zu verwenden – „Kerngeschäft“ der Geisteswissenschaften: die vielfältigen Versuche der Deutung einer sich grundlegend wandelnden Welt und der damit verknüpften Wahrnehmung von Welt, Selbst und Anderen (S. 126). Eine Pluralisierung der Methoden und Erklärungsansätze sei in den Geisteswissenschaften erwünscht, und die Konkurrenz der Deutungen sei ein ganz normaler Vorgang der Wissenschaften, der in keiner Weise die Denunziation als „Moden“ rechtfertige (S. 128). „Die neuen Theorieentwicklungen der letzten vierzig Jahre sind [...] rasanten gesellschaftlichen Veränderungen geschuldet, wie sie die 68er-Bewegung in Deutschland und Frankreich oder die Bürgerrechtsbewegung und Anti-Vietnam-Bewegung in den USA, die Frauenbewegung, die neuen Kommunikationstechnologien, Migration und Globalisierung bewirkt haben. Sie versuchen, Antworten auf Probleme zu geben, die durch die Veränderungen entstanden sind, oder diese Probleme überhaupt erst bewusst zu machen und in den wissenschaftlichen Diskurs einzuspeisen. Das erklärt auch, warum sie nicht disziplinspezifisch, sondern transdisziplinär sind.“ (S. 131)

Manfred Nießen sekundiert: In den Geisteswissenschaften gehe es nicht wie in den Naturwissenschaften um eine neue „Kartierung“ der Forschungslandschaft, sondern eher um die Entwicklung konkurrierender oder ergänzender Richtungen von Erklärungsansätzen. Mit dem Begriff der „Mode“ solle man in den Geisteswissenschaften vorsichtig sein. Ob sich naturwissenschaftliche Forschungen mit dem Begriff der „Kartierung“ angemessen bezeichnen lassen, ist noch einmal eine andere Frage, denn auch in den Naturwissenschaften geht es nicht lediglich um das Kartieren „weißer Gebiete“. Ulrike Felt widersetzt sich dieser „Idylle der Eindeutigkeit“ (S. 284), die auf der Annahme beruht, in den Naturwissenschaften könne man auf „quasi nicht mehr zu hinterfragende Fakten/Theorien zurückgreifen“, womit „stabile gemeinsame Ausgangspunkte geschaffen würden“ (S. 283). Noch deutlicher und mit einem Schuss Sarkasmus äußert sich Wolfgang Kemp zur Leitfrage des Kapitels: „Nicht die Moden, sondern die Mode, Qualität institutionell bestimmen und fördern zu wollen, haben uns die Qualität verdorben.“ (S. 147) Heutzutage, so Kemp, gelte Qualitätsmanagement mehr als Qualitätsproduktion.

4. Reputationssystem versus „Controlling“: Das Menschenbild der „Audit Society“
Um an dieser Stelle einem möglichen Missverständnis vorzubeugen: Ich vertrete keinesfalls die Position, dass Wissenschaft als l’art pour l’art betrieben werden sollte (oder, wie man früher sagte, im Elfenbeinturm) und dass sie einen Platz in der Gesellschaft beanspruchen könne, an dem sie niemandem Rechenschaft schuldig sei. Ein Nachdenken über die gesellschaftliche Relevanz von Wissenschaft ist ebenso wichtig wie ein verantwortungsvoller Umgang mit finanziellen Ressourcen und eine Diskussion der institutionellen Voraussetzungen von Forschung und Lehre. Auch möchte ich nicht den Eindruck erwecken, als sei früher in den Geisteswissenschaften alles zum Besten bestellt gewesen. Die akademische Kultur und das System des Forschens und Lehrens, in dem meine Alterskohorte in den 1970er- und 1980er-Jahren sozialisiert wurde, hatte gravierende Mängel und Einseitigkeiten. Was mich im Hinblick auf die gegenwärtig erkennbaren Tendenzen in der Wissenschaftslandschaft jedoch zutiefst irritiert und bedenklich stimmt, ist das Menschenbild, das sich hinter den Maßnahmen zur Qualitätsmessung und behaupteten Optimierung von Forschungsprozessen verbirgt. Nein, es verbirgt sich nicht, sondern es zeigt ganz offen und ungeniert seine wenig sympathischen Züge.

Qualität wurde in der Vergangenheit im Wesentlichen über ein Reputationssystem kontrolliert und gewährleistet, das auf qualitative, viel weniger auf quantitative Kriterien setzte. Diese Kriterien wurden von erfahrenen und angesehenen Mitgliedern der wissenschaftlichen Community über Gutachten und informelle Netzwerke durchgesetzt. Der Vorteil einer Qualitätssicherung und Ressourcenverteilung im Regelwerk des Reputationssystems ist, dass dieses – verglichen mit dem Marktsystem – in hohem Maße auf die intrinsische Motivation der Forscher und Forscherinnen vertraut. Der Nachteil des Reputationssystems ist hingegen seine hierarchische (und manchmal eben auch willkürliche) Struktur. Zudem hat es eine Tendenz zur Selbstrekrutierung solcher Nachwuchswissenschaftler, die dem eigenen Profil entsprechen (in Geschlecht, Klasse, Ethnizität, Bildungshintergrund etc.). Insbesondere sein gender bias ist nach wie vor wirkmächtig, wie der Beitrag von Christine Färber über die Berufungspraxis an deutschen Universitäten im vorliegenden Band eindrücklich zeigt. Die formalen Hürden, Altersgrenzen und vor allem das spezifisch deutsche Schwellenritual, die Habilitation, haben sich in Vergangenheit und Gegenwart nicht „neutral“ ausgewirkt. Sie haben – trotz des deutlich angewachsenen Bewusstseins in Fragen der Geschlechtergerechtigkeit – für Männer und Frauen ganz unterschiedliche, hier nicht weiter zu diskutierende Folgen (siehe dazu auch den Beitrag von Ute Frevert).[4]

Das marktwirtschaftliche Modell, dessen Auswirkungen Universitäten wie Forschungsinstitute gegenwärtig zu spüren bekommen, geht von einem Menschenbild aus, in dem der Forscher bzw. die Forscherin ständig kontrolliert und angetrieben werden muss. Anscheinend reicht die intrinsische Motivation nicht (mehr?) aus, den fest angestellten Wissenschaftler oder die Wissenschaftlerin davor zu bewahren, sich auf der Couch ein bequemes Leben zu machen.[5] Das marktwirtschaftliche Modell kann aber nicht funktionieren, da es in der Wissenschaft weder „Produzenten“ noch „Konsumenten“ im marktwirtschaftlichen Sinne gibt oder geben kann. Letztlich sind Staatsgelder nur bedingt den Gesetzen der Marktwirtschaft unterworfen, weil es zwar durchaus Schließungen einzelner Abteilungen, ja möglicherweise ganzer Universitäten geben kann (und auch gibt), aber die Angebots- und Nachfragemechanismen des Markts in der Wissenschaft aus immanenten Gründen nicht funktionieren können. Erkenntnis ist keine Ware, und Wissensvermittlung erschöpft sich nicht in ihrem Warencharakter – wie sich in der neueren Diskussion um „Bildung“ hinlänglich gezeigt hat. Erkenntnis muss es auch dann geben, wenn sie unbequem ist und (zunächst) niemand sie nachfragt. Wichtige Werke in der Wissenschaftsgeschichte wurden „am Markt vorbei“ geschrieben, erhielten zu ihrer Zeit keine oder nur geringe Aufmerksamkeit, wurden Jahrzehnte später aber zu Klassikern. Georg Simmel, Norbert Elias oder Eckhart Kehr sind beredte Beispiele. Forschungsergebnisse und -fragen gehen nicht im Trend auf, ja sie stemmen sich sogar nicht selten gegen das Glatte, Einfache, Modische. Wissenschaft muss auch sperrig sein dürfen und, wenn komplexe Zusammenhänge es erfordern, auch schwer zu verstehen. Sie sollte dem „Konsumenten“, sei es die Fach- oder die breitere Öffentlichkeit, durchaus einmal schwer im Magen liegen.[6]

Qualität von Forschung muss inhaltlich begründet werden. Forschungsqualität lässt sich nicht durch eine Messung des Output, das verbreitete „höher, schneller, weiter“ und eine Bestimmung des Forschungs-Impact bestimmen. Die Anzahl der Publikationen sagt nichts über ihre Qualität aus, und auch die Zitierhäufigkeit folgt eher einer spezifisch bestimmbaren „Ökonomie der Aufmerksamkeit“ und einem informellen Regelwerk, das außerordentlich willkürlich und einseitig ist. Zielvereinbarungen mit Wissenschaftlern (ein neuerdings beliebtes Steuerungsinstrument auch an Universitäten und Forschungsinstituten) können zwar den Produktionsdruck und den Rechtfertigungszwang erhöhen; sie steigern mit Sicherheit das Gefühl von Abhängigkeit und des Kontrolliert-Werdens, nicht jedoch die Qualität von Forschung.

5. „Impact“ der „Audit Society“: Die Veränderung der Wissenschaftslandschaft durch Drittmittel-getriebene Forschung
In die Bewertung von Forschungserfolg geht heute zunehmend die erfolgreiche Einwerbung von Drittmitteln ein. Der „szientifisch-administrative Komplex“[7] funktioniere als ein sich selbst bestätigendes und steigerndes System nach dem Prinzip „Der Teufel scheißt immer auf den größten Haufen“, schreibt Wolfgang Kemp im vorliegenden Sammelband mit einer gehörigen Portion Sarkasmus: „Drittmitteleinwerbung ist der Qualitätsbeweis, der zu weiteren Gratifikationen führt, die zu ... usw.“ Und: „Wir haben in den letzten 15 Jahren in Deutschland dieses System sich auf- und ausrichten sehen, es steht, bombenfest, vielfach verstrebt, aber wir täuschen uns, wenn wir glaubten, seinen impact, um ein Lieblingswort der Kontrolleure zu gebrauchen, bereits ermessen zu können.“ (S. 148) Die Frage sei vielmehr, ob hier nicht ein „Wissenschafts-Behemoth“ genährt werde, ein „Vielfraß“, der sich an den Megatrends mästen und „Qualität endgültig in messbare items überführen“ werde (ebd.).

Nun hat Drittmittel-getriebene Forschung ihre eigene Dynamik und ihre eigenen Zeithorizonte, die nachhaltiger Forschung nicht in jedem Fall zuträglich sind. Der Zwang, in relativ kurzen Zeiträumen Erfolge zu dokumentieren (oder zumindest zu behaupten), der Workshop- und Tagungszirkus sowie der Zwang zu kleinschrittigem Denken berühren den Kern dessen, was Forschung ist. Georg Braungart stellt fest, dass gerade die „großen“, langfristig wirksamen Werke der Geisteswissenschaften nicht in einer Drittmittelkultur mit ihren instrumentellen Schritten und endlosen Kooperationsbeziehungen entstanden seien, sondern fast immer die Forschungsleistungen einzelner Persönlichkeiten geblieben seien (S. 103). Lassen sich Hans Georg Gadamer, Niklas Luhmann und Hans Blumenberg etwa als erfolgreich agierende Einwerber von Drittmitteln vorstellen, oder, wie Jürgen Kaube fragt: Ist Hans Blumenberg als Sprecher eines Exzellenzclusters denkbar (S. 39)? Dieser Gedanke verweist auf Grundsätzliches, das anzusprechen einige der Beiträger sich durchaus nicht scheuen: Ulrike Felt konstatiert, dass in der zeitgenössischen Forschungslandschaft Drittmittel-Anträge über Erfolg oder Misserfolg von wissenschaftlichen Karrieren entscheiden. Beim Antragschreiben gehe es jedoch in erster Linie um „strategische Positionierung, um die Fähigkeit zur Durchsetzung“ (S. 286). Bei Licht besehen, ist ein positiv bewerteter Antrag zunächst einmal nur ein Indikator dafür, dass das Versprechen noch zu leistender guter Forschung den Gutachtern glaubwürdig erschienen ist; ob dieses Versprechen später tatsächlich eingelöst wird, ist hingegen eher nachrangig.

Ulrich Herbert warnt vor einer „forscherischen Schattenwirtschaft“. Damit meint er „Projektforschung als Oberfläche, als Pflichtübung, die die Forscher von der Beschäftigung mit dem eigenen, seit Jahren sorgfältig vorbereiteten Buchvorhaben abhält“ (S. 47). Ähnlich meint auch Georg Braungart: Eine Drittmittel-getriebene Wissenschaft, die ihre Mitglieder in einen Modus stetigen Legitimationsdrucks zwinge, habe ihre eigenen Auswirkungen – ihren besonderen Impact. „Heute schreibt man als Geisteswissenschaftler Bücher nur noch, wenn einem die Beschaffung oder – noch schlimmer und aufwendiger – das Ausgeben von Drittmitteln zwischendurch etwas Zeit lassen.“ (S. 101) Die gegenwärtigen Förderstrukturen produzieren ihre je eigenen Ergebnisse und befördern bestimmte Mentalitäten. Das Wellensurfen verleiht einen Kick, aber einen Ozean überquert man nicht auf einem Surfboard.

Auf die tiefgreifenden sozialen Konsequenzen der Drittmittel-Kultur verweist wiederum Ulrich Herbert: Zu den Resultaten einer Drittmittel-getriebenen Forschung gehöre die „unkontrollierte Produktion von Post-Doktoranden, also promovierten Mitarbeitern, die für ein Projekt an der Uni gehalten werden, ohne dass man ihnen eine halbwegs gesicherte Zukunft garantieren oder auch nur in Aussicht stellen kann“ (S. 47). Die soziale Lage des „wissenschaftlichen Nachwuchses“, der ja nicht selten stramm auf die 50 zugeht, wird durch die neue TV-L- und W-Besoldung zusätzlich prekär. Jedenfalls verdient ein Realschullehrer laut Herbert deutlich mehr als ein Nachwuchswissenschaftler (S. 48). Zudem befindet er sich in einer ganz anders sozial abgesicherten Position. An dieser Stelle stellt sich für mich die Frage: Wie kreativ und unabhängig kann ein Forscher sein, dessen Drittmittel-Vertrag nächstes Jahr ausläuft und der oder die in ständiger Sorge um seine oder ihre Existenzsicherung lebt? Das kreative Potenzial von Armut und anhaltender sozialer Unsicherheit ist begrenzt; es deformiert auch die derart in Abhängigkeit Gehaltenen (die künstlich und unzuträglich verlängerte Adoleszenz von Habilitanden ist dafür ein trauriges Beispiel). Ein Postdoc, der bis Mitte 30 an der Uni bleibt, habe, so Herbert, kaum noch eine Chance auf dem Arbeitsmarkt, weder innerhalb noch außerhalb der Universität (S. 47). In den Geisteswissenschaften müsse man mit einer 50-prozentigen Chance rechnen, „nach erfolgreicher Promotion, Habilitation und sechs bis zehn Jahren Lehrerfahrung keine Professur zu bekommen“. Dem beruflichen folge dann oft auch das soziale Scheitern (S. 48).

Die grundsätzlich bedeutsame Frage ist hier, was eine Gesellschaft zu bezahlen gewillt ist – für die Möglichkeit des Nachdenkens und Forschens über sich selber, über ihre Geschichte, ihre Sprache, ihre vielfältigen kulturellen Manifestationen sowie die Weitergabe von elementaren wie elaborierten Kulturtechniken (Zusammenhänge erkennen, eigenständig argumentieren usw.). Die Frage ist aber auch, wie etablierte Forscher mit der prekären Situation von Nachwuchswissenschaftlern verantwortlich umgehen können. Die „Audit-Kultur“ habe Auswirkungen auf die „Beziehungen zwischen Institutionen und Forschern“, „die durch neue Managementstrukturen an Universitäten hervorgebracht“ würden, stellt Ulrike Felt fest (S. 279). Herbert sieht in der sozialen Lage der Wissenschaftler, die sich durch schlechte Bezahlung, unsichere Arbeitsplätze und eine hohe Arbeitsbelastung auszeichne, einen veritablen Antiintellektualismus der Gesellschaft und der entscheidenden Stellen in der Politik am Werk.

Nicht weniger fragwürdig als die sozialen sind jedoch die inhaltlichen Konsequenzen einer Forschung, die sich ständig Evaluierungs-Prozessen und Qualitätskontrollen unterwerfen muss: Die „Audit-Kultur“ verweise auf die nachhaltige Veränderung unseres Denkens und unseres Blicks, betont Felt (S. 277). Die Einübung in diese neue Wissenschaftskultur erfolge über Projektstrukturen, „die oft unbemerkt auf das Denken übergreifen“ (S. 281). Der Trend zur kurzschrittigen Projektarbeit habe jedoch eine Parzellierung der Forschung zur Folge, „die dazu führt, dass immer mehr Kleingärten entstehen und Erkenntnisproduktion bisweilen in Größenordnungen stattfindet, die schon homöopathischen Dosen gleichkommen“ (S. 281). Braungart verweist darauf, dass die Frage der Qualitätsbestimmung und -messung erkenntnistheoretische Probleme aufwerfe, die etwas mit dem „Innen“ und „Außen“ der Wissenschaften zu tun habe, also mit den gesellschaftlichen Rahmenbedingungen von Forschung (S. 103). Die gesellschaftliche Akzeptanz der Geisteswissenschaften sei unter Beschuss, und die Forschungsinstitutionen beugten sich diesem Druck, indem sie dem Ansinnen politischer und gesellschaftlicher Stellen mehr oder weniger bereitwillig nachkämen.

Dabei ist der Aufwand erheblich, „halbwegs standardisierte und vergleichbare Daten“ zu produzieren. Dieser Druck wächst. „Spätestens wenn die Evaluationsforschung teurer wird als die evaluierte geisteswissenschaftliche Forschung selbst, wird sie obsolet.“ (Braungart, S. 109) Wenn etwa die Vorbereitung auf die Evaluation einer Forschungsinstitution die Mitarbeiter und Mitarbeiterinnen zwei Jahre lang damit beschäftigt, sich „fit“[8] für den großen Tag zu machen (mit allem, was dazu gehört, nämlich: Konzeptpapiere zu schreiben und wieder zu verwerfen, Poster zu erstellen, die Präsentationen komplexer Projekte in dreieinhalb Minuten vorzubereiten und einzuüben, den eigenen Präsentationsstil zu optimieren etc.), dann fragt sich, ob nicht der Zwang zur ständigen Selbstlegitimierung die Bedingungen ernstzunehmender Forschung zunichte macht. Das ist dann eine klassische „Catch-22“-Situation[9]: Ich kann Forschung nur betreiben, indem ich mich ständig legitimiere. Das ständige Legitimieren hält mich aber von der Forschung ab. Also muss ich legitimieren, warum ich durch das ständige Legitimieren nicht zur Forschung komme, usw.

Es sind mithin die institutionellen Bedingungen von Forschung in der Bundesrepublik, die soziale Situation der unsicher und nur kurzzeitig Beschäftigen, vor allem aber sind es die inhaltlichen Auswirkungen der gegenwärtigen Wissenschaftskultur für die Art unseres Denkens, auf die sich das „traditionell von den Geisteswissenschaften beanspruchte Deutungs- und Ordnungsvermögen“ doch, bitte schön, richten möge – und nicht auf eine Optimierung der Qualitätsmessung, wie sie Elisabeth Lack eingangs verlangt (S. 14)! Das jedoch erfordert die Bereitschaft zu einer Diskussion auf einer anderen Ebene – eine Diskussion, die viel zu selten geführt wird. Verbreitet ist inzwischen die Bereitschaft, sich den Gegebenheiten und bedrückenden Verhältnissen des allseits vorherrschenden „Exzellenzstalinismus“ anzupassen.[10] Kritische Distanz zu wahren und die Bedingungen des eigenen wissenschaftlichen Denkens (einschließlich seiner Reglementierungen) zu reflektieren, ist unter den Bedingungen der „Audit-Kultur“ nicht einfach. Hingegen ist der Boden fruchtbar für diejenigen, die im vorauseilenden Gehorsam dem „Megatrend“ dienen – in dem befriedigenden Gefühl, „einem neuen Paradigma auf die Welt zu helfen“ (Kemp, S. 147).

Die Ergebnisse der gegenwärtigen Förderstrukturen sind – so Ulrike Felt – aufs Ganze gesehen wenig erfreulich: Sie verhindern längerfristiges (und damit gründliches) Arbeiten. Sie besitzen auch weniger Innovationspotenzial als gemeinhin angenommen. Und die „vorauseilende Anpassung an Erwartungshaltungen“ der Förderinstitutionen beziehungsweise derjenigen Kollegen, von denen man vermutet, dass sie möglicherweise den eigenen Antrag begutachten werden, beeinträchtigt zumindest die Unabhängigkeit des Denkens, wenn nicht die eigene Kreativität (Felt, S. 286). Mit Qualität hat das dann in der Regel eher wenig zu tun, auch wenn der Drittmittel-Erfolg es allen Beteiligten suggeriert.

~~~~

Hanna Schissler ist seit 2006 Leiterin des Arbeitsbereichs „Schulische Bildungsmedien im Zeitalter der Globalisierung“ am Georg-Eckert-Insitut für internationale Schulbuchforschung in Braunschweig. Zuvor Tätigkeit an Universitäten in den USA, in Wien und Budapest. Ihre Arbeitsschwerpunkte sind deutsche Sozialgeschichte des 18. und 19. Jahrhunderts und der Bundesrepublik, europäische und nordamerikanische Geschlechtergeschichte und historische Epistemologie.

Anmerkungen:
[1] Siehe dazu pointiert Ulrich Herbert, Kontrollierte Verwahrlosung, in: ZEIT, 30.8.2007, S. 36, online unter <http://www.zeit.de/2007/36/B-Geisteswissenschaft> (23.04.2009).
[2] Michael Power, The Audit Society. Rituals of Verification, Oxford 1997, und Marilyn Strathern, Audit Cultures. Anthropological Studies in Accountability, Ethics and Academy, London 2000. Mit dem Begriff der „Audit Society“ beschreibt Power die Annahmen, dass mit neuen Formen der Qualitätsprüfung „eine Kompatibilität zwischen ökonomischen Kriterien und Regulierungszielen herstellbar“ sei. „Auditing“ werde „aufgrund ökonomischer Motive und Gründen der Informationsverarbeitung zu einem dominierenden Regulierungsstil“. Dabei konzentriere sich „Auditing“ stärker „auf Prozesse des Managementsystems als auf das substantielle Operieren einer Organisation“ (Abstract zu Michael Power, From Risk Society to Audit Society, in: Soziale Systeme 3 [1997] H. 1, S. 3-21, online unter <http://www.soziale-systeme.ch/hefte/1997_1_zus.htm> [23.04.2009]).
[3] Vgl. hierzu auch Hanna Schissler, Containing and Regulating Knowledge. Some Thoughts on Standards and Canonization as a Response to the Complex Demands of a Globalizing World, in: Linda Symcox / Arie Wilschut (Hrsg.), National History Standards. The Problem of the Canon and the Future of Teaching History, Charlotte 2009, S. 95-116.
[4] Vgl. zu diesem Themenfeld auch die Sammelrezension von Norbert Finzsch: <http://hsozkult.geschichte.hu-berlin.de/rezensionen/2008-4-198> (23.04.2009).
[5] In einer Zeit knapper Stellen schlägt der Faulheitsverdacht den Inhabern von Dauerstellen gerne und häufig in unterschiedlichen Formen entgegen – aus der Sicht derjenigen, die trotz immenser Anstrengungen und oft ausgezeichneter Leistungen keine Aussicht auf eine unbefristete Stelle haben (oder diese noch nicht erhalten haben), eine durchaus verständliche Reaktion. Persönlich kenne ich nur wenige couch potatoes, die sich auf Dauerstellen ein vergnügliches und weitgehend arbeitsfreies Leben machen. Solche Einzelfälle, die es wohl in jeder Berufsgruppe gibt, rechtfertigen keine weitreichenden Folgerungen für den Wissenschaftsbetrieb insgesamt.
[6] Ich danke Barbara Christophe für anregende Diskussionen über das Menschenbild, das dem gegenwärtig zu beobachtenden Qualitätsmanagement in den Geisteswissenschaften zugrunde liegt.
[7] Richard Münch, Die akademische Elite. Zur sozialen Konstruktion wissenschaftlicher Exzellenz, Frankfurt am Main 2007; ders., Globale Eliten, lokale Autoritäten. Bildung und Wissenschaft unter dem Regime von Pisa, McKinsey & Co., Frankfurt am Main 2009.
[8] Der Sprachgebrauch an sich ist schon kennzeichnend: „Fit-Machen“ der Mitarbeiter für die Evaluierung – das passt zum „höher, schneller, weiter“ und zum Wettlauf. Metaphern sind immer ebenso kennzeichnend wie verräterisch.
[9] So der Titel des berühmten Romans von Joseph Heller über absurde und paradoxe Situationen bei der US-Armee im Zweiten Weltkrieg (zuerst 1961 erschienen).
[10] Peter Weichhart, Humangeographie – quo vadis?, in: Robert Musil / Christian Staudacher (Hrsg.), Mensch. Raum. Umwelt. Die österreichische Geographie in Vergangenheit und Zukunft, Wien 2009, S. 79-93 (im Druck), Manuskript online unter <http://homepage.univie.ac.at/peter.weichhart/Homepage/P255OEGGHumggQVKAEnd.pdf>, dort S. 23 (23.04.2009). Ich danke Ute Wardenga für den Hinweis auf diesen vortrefflichen Begriff.

Zitation
Qualitätsmessung: H. Schissler: Rezensionsartikel "What the Hell is Quality?", in: H-Soz-Kult, 12.05.2009, <www.hsozkult.de/debate/id/diskussionen-1099>.
Redaktion
Veröffentlicht am
12.05.2009