Bereits 2006 in der Besprechung des ersten Bandes aus der Reihe des Zürcher Jahrbuchs für Wissensgeschichte kam der Rezensent Christian Simon auf den etwas sonderbar anmutenden Titel zu sprechen. Er hielt der Wendung „Nach Feierabend“ aber doch zugute, dass sie „der Abgrenzung vom innerdisziplinären ‚Tagewerk’ der Forschungspraxis“ diene und den Anspruch artikuliere, sich „über Disziplinengrenzen hinaus verständlich zu machen“.1 Gleiches lässt sich für Band 9 der Reihe festhalten: Auch in ihm bemühen sich die Herausgeber/innen um einen fächerübergreifenden Ansatz. Dieser tut auch Not angesichts der umfassenden Fragestellung, inwiefern der digitale Medienwandel die Geisteswissenschaften nicht nur im Wissenschaftsalltag nachhaltig prägt, sondern auch in ihren in Jahrhunderten gewachsenen epistemologischen Grundfesten erschüttert.
Der Band gliedert sich in drei Teile, wobei sich den Leser/innen die Abgrenzung zwischen dem Hauptteil unter dem Titel „Digital Humanities“ und den beiden Beiträgen unter der Rubrik „Essays“ nicht ohne Weiteres erschließt. Den Abschluss bilden angenehm ausführliche Rezensionen in der Rubrik „Lektüren“.
Im Editorial skizzieren Michael Hagner und Caspar Hirschi die Überlegungen, die für die Zusammenstellung der Beiträge im Jahrbuch erkenntnisleitend waren. Zunächst stellen sie klar, dass sie sich selber in „einer Phase der Manifeste, Forderungen und wechselseitigen Kampfansagen, in denen Befürworter und Gegner der digitalen Geisteswissenschaften ihre jeweiligen Standpunkte polemisch zuspitzen“ nicht zu jener Gemeinschaft zählen wollen, „die sich vom Digital Turn eine revolutionäre oder auch nur substanzielle Verbesserung der Geisteswissenschaften erwartet“(S. 8). Nach dieser doch einigermaßen deutlichen Absage an digitale Heilserwartungen folgt eine klare Positionierung hinsichtlich der Fragekomplexe, mit denen die Herausgeber einen Rahmen für die Beiträge ihrer Publikation abzustecken gedenken. Zum einen wollen sie wissen, ob „die Digital Humanities die herkömmlichen epistemischen Ideale der Geisteswissenschaften gegen jene der Natur- und Sozialwissenschaften“ eintauschen wollen und werden (S. 9). Zum anderen fragen sie nach den Effekten des digitalen Medienwandels auf das geisteswissenschaftliche Rollenverständnis. Wenn alles „open“ ist und kollaborativ, wird dann „Forschung in Einsamkeit und Freiheit [...] zu einem argwöhnisch betrachteten oder gar pathologischen Phänomen“ (S. 10)?
In diese Zweiteilung der Herausgeber lassen sich mehr oder weniger alle Beiträge einordnen. Zu den epistemologischen bzw. methodischen Fragen äußert sich vor allem der Beitrag von Tobias Hodel („Das kleine Digitale“ S. 103–122), der den vielfach rezipierten Datenauswertungsmöglichkeiten mittels des Google-Dienstes Ngram-Viewer, der Wortsuchen im gesamten digitalen Bücherbestand von Google Books ermöglicht, und den daraus abgeleiteten Ansprüchen einer Culturomics2 eher kritisch gegenüber steht und für spezifische Auswertungen kleiner digitaler Korpora plädiert.
Mehr an den Veränderungen der geisteswissenschaftlichen Publikationskultur interessiert sind die Ausführungen von Philippe Wampfler. Dort lesen wir durchaus anregende, aber nicht ganz neue Überlegungen dazu, wie das Web 2.0 die Publikationskultur der Wissenschaften transformieren wird („‚online first‘“ – Geisteswissenschaften als social media, S. 79–102). Wampfler lässt keinen Zweifel sowohl an der Sinnhaftigkeit wie an der Unausweichlichkeit dieses Wandels, was doch einen deutlichen Kontrast zur Aussage der Herausgeber darstellt, nicht an die revolutionären Verbesserungen der Geisteswissenschaften durch digitale Medien zu glauben.
Niels-Oliver Walkowski („Text, Denken und E-Science“, S. 37–54) präsentiert eine differenziert kritische Analyse der wissenschaftlichen E-publications (was bei ihm für enhanced publication steht). Ausgehend von einem, wie er es in Anlehnung an Bernard Stiegler3 nennt, „organologischen Ansatz“ betrachtet er das Feld wissenschaftlicher Publikationen nicht nur als Frage von Technologien, sondern plädiert dafür, auch „Diskurse über Wissen sowie andere nicht materielle Elemente“ zu berücksichtigen. Er gelangt zur durchaus zustimmungswürdigen, wenn gleich nicht ganz überraschenden Erkenntnis, dass „Technik allein [...] noch kein Wissen“ produziere. Die Monografie sei entsprechend nicht einfach als Text, sondern als „Textkultur mit unterschiedlichen Organen“ (S. 41) zu verstehen, die wegen der eingespielten und allgemein bekannten kulturellen Praxis noch immer am besten in der Lage sei, Wissenschaftskommunikation sicherzustellen.
Hierzu passt auch Philip Theisohns „Verteidigung der Paraphrase“ (S. 15–36). Theisohn, der sich bereits in einer umfassenden literaturgeschichtlichen Analyse mit dem Phänomen des Plagiats befasst hat4, plädiert unter dem Eindruck des digitalen Medienwandels für eine „Kultur des Paraphrasierens“ (S. 31). Als Reaktion auf das Dilemma, dass Wissenschaft in einer digital verfassten Medienwelt nur auf Texten basieren könne, die bereits vollumfänglich in digitalen Netzmedien vorliegen, müsse die Paraphrase als schöpferische Leistung „aus dem konkreten Lese- und Schreibakt heraus“ (S. 31) neu formuliert und stark gemacht werden. Dabei müsse die Geisteswissenschaft darauf abzielen, „den Umgang mit Fremdtexten nicht primär von Zitierordnungen und Verfolgungsängsten, sondern vom Blick auf ihr Publikum und die eigene Vermittlungsleistung bestimmen zu lassen“ (S. 33). Theisohn verweist auf eine kulturtheoretische Verortung der Texterstellung, die jenseits naturwissenschaftlicher Epistemologie, Big-Data-Analysen und Social-Media-Verwendung den auch im 21. Jahrhundert geltenden Kern geisteswissenschaftlicher Erkenntnismöglichkeiten darstellt.
Ohne den Wert der weiteren Beiträge schmälern zu wollen, die alle auf ihre besondere Weise anregende Überlegungen zu den Konsequenzen des digitalen Medienwandels für die Geisteswissenschaften vortragen, sei schließlich das Augenmerk auf ein besonderes Beitragspaar gerichtet.
Philipp Sarasin bespricht und kommentiert zum Ende des Jahrbuchs einen Text des im letzten Jahr verstorbenen Kollegen und Digital Humanities-Pioniers Peter Haber – und führt dessen mittlerweile neun Jahre alten Text zum „Google-Syndrom“5 in die Gegenwart. Die erneute Lektüre des ebenfalls im Sammelband abgedruckten Beitrags von Haber führt zu einigen interessanten Erkenntnissen. Dabei überrascht nicht nur die Luzidität, mit der er die Bedeutsamkeit der Suchmaschine als sozialpsychologisches Syndrom verunklarter Wissensvorstellungen beschreib. Er konstatierte, wie durch den Umstand, bei Google jederzeit irgendein Suchergebnis zu erhalten, ein latentes „phantasmatisches Gefühl von Allwissenheit“ (S. 184) entstehe, das zugleich den schalen Geschmack hinterlasse, eben doch das Wesentliche verpasst zu haben. Vor allem aber begegnete er der systemischen De-Kontextualisierung des Wissens mit größter Skepsis, da sie zur „Negierung diskursiver Ordnungen des Wissens und der Darstellung von Wissen“ führe. Digitale Medienkompetenz müsse daher immer Wissen von älteren mit der Praxis der neusten Mediennutzungen verbinden und die Herkunft und die Herstellungsbedingungen des Wissens thematisieren.
Sarasin weist in seinem kommentierenden Beitrag insbesondere auf die Veränderungen seit dem Erscheinen des Textes von Haber hin: Er nennt nicht nur die pragmatische Gewöhnung an die Suchmaschine, die dank cleverer Algorithmen im Alltag eben doch nützliche Ergebnisse hervorbringe. Als neues Problem und neue Herausforderung nennt er vor allem die „kulturindustrielle Steuerungstechnik“ (S. 195), die durch zunehmend individualisierte Ergebnisse der Suchmaschinen hervorgerufen werde und die von Eli Pariser mit dem mittlerweile geläufigen Begriff der „filter bubble“6 in den medienkritischen Diskurs eingeführt worden ist. Während die Technologie in der Lage ist, immer größere Datenmengen zu verarbeiten und sinnvolle Schlüsse aus diesen Daten zu ziehen (Stichworte hierzu sind „Data Mining“ oder „Big Data“), erhält die von Haber konstatierte Phantasmagorie der Allwissenheit einen neuen Dreh. Denn – so schließt Sarasin unter Hinweis auf den NSA-Skandal des letzten Jahres – „es ist ein Faktum, dass dieselben data-mining-Techniken, die bei Google dazu dienen, um Werbeziele – also mich – zu identifizieren, von Regierungen und ihren Geheimdiensten dazu verwendet werden können, [...] um Deviante aller Art zu selektieren“ (S. 199). Sarasin meint nun, Habers Frage nach digitaler Quellenkritik erscheine wie ein „Luxusproblem“ – denn nun seien wir selbst die Quellen. Doch eigentlich bestätigt die plötzliche Dringlichkeit der Frage, wer die Daten im Netz und damit uns kontrolliert, den Befund von Haber, wonach die „Negierung der diskursiven Ordnungen des Wissens“ ein beängstigendes Krankheitsbild darstelle.
Anmerkungen:
1 Christian Simon: Rezension zu: David Gugerli / Michael Hagner / Michael Hampe / Barbara Orland / Philipp Sarasin / Jakob Tanner (Hrsg.), Bilder der Natur – Sprachen der Technik, Zürich 2005, in: H-Soz-u-Kult, 20.06.2006, <http://hsozkult.geschichte.hu-berlin.de/rezensionen/2006-2-203> (19.04.2014).
2 Zum Konzept der Culturomics vgl. Jean-Baptiste Michel u.a., Quantitative Analysis of Culture Using Millions of Digitized Books, in: Science 331 (6014) (2011), S. 176–182.
3 Bernard Stiegler, Lights and Shadows in the Digital Age, <http://www.scribd.com/doc/92166435/Digital-Inquiry-Bernard-Stiegler-on-Lights-and-Shadows-in-the-Digital-Age> (19.04.2014).
4 Philipp Theisohn, Plagiat. Eine unoriginelle Literaturgeschichte, Stuttgart 2009.
5 Erstmals erschienen als: Peter Haber, „Google-Syndrom“. Phantasmagorien des historischen Allwissens im World Wide Web, in: Angelika Epple / Peter Haber (Hrsg.), Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich 2005, S. 73–89. Michael Kaiser: Rezension zu: Epple, Angelika; Haber, Peter (Hrsg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0. Zürich 2005, in: H-Soz-u-Kult, 18.02.2006, http://hsozkult.geschichte.hu-berlin.de/rezensionen/2006-1-113 (29.04.2014).
6 Eli Pariser, The filter bubble. What the Internet is hiding from you, New York 2011.