Angesichts der Konjunktur des Begriffs „Digital Humanities“ und seiner Ubiquität mag es erstaunen, wie unscharf definiert dieser Begriff auch über 10 Jahre nach seiner Prägung1 noch immer ist. So fungiert der Terminus „Digital Humanities“ zum jetzigen Zeitpunkt vor allem als Sammelkategorie für einen bunten Strauß von Tätigkeiten in den Geisteswissenschaften, deren gemeinsamer Nenner schlicht die Verwendung digitaler Medien ist. Die Palette reicht dabei von digitalen Editionsprojekten über computergestützte Auswertungen serieller Daten über die Entwicklung von digitalen Vermittlungsangeboten bis hin zur aktiven Mitwirkung an der Blogosphäre und dem Twitter-Universum.2
Entsprechend ließe sich nun auch der von Wolfgang Schmale herausgegebene Band zu „Digital Humanities“ lediglich als Sammelsurium von Einzelinitiativen und individuellen Erfahrungsberichten bewerten. Aber eine solche Einschätzung würde der Publikation nicht gerecht. Die Beiträge behandeln zwar unterschiedliche Themen, doch ergeben sich dabei weitaus mehr übergreifende Problemzusammenhänge, als die Begriffstrias im Untertitel („Digitalisierung, Dissemination, Selbstreflexivität“) vermuten ließe. Was die Beiträge verbindet, ist die Frage nach den konkreten Veränderungen, die der digitale Wandel in der geistes- und kulturwissenschaftlichen Theorie und Praxis bewirkt.
Wie vielschichtig die Suche nach Antworten auf diese naheliegende Frage sein kann, zeigen schon die beiden Beiträge des Herausgebers. In der Einleitung gesteht Schmale der „Digitalität“ ein umfassendes „Veränderungspotential“ zu, das zu einem „eigenen wissenschaftlichen Diskurs“ führen werde. In seinen Überlegungen zur Bedeutung von „Big Data in den historischen Kulturwissenschaften“ konzentriert er sich dann jedoch auf die Problematisierung eines Teilaspekt dieses Wandels, nämlich des impliziten Anspruchs von „Big Data“, aus den Geistes- und Kulturwissenschaften eine „wirkliche“, weil datenbasierte, ja datengesteuerte Forschung zu machen. Er sieht den Anspruch noch gesteigert im Vergleich zur Auswertung serieller Daten, wie sie die Geschichtswissenschaften in den 1970er- und 1980er-Jahren vornahmen, weil es sich jetzt um ungeordnete, digital vorliegende Daten handelt, die in beliebiger Weise auswertbar sind. Den Möglichkeiten einer maschinellen Auswertung, so die verbreitete Annahme, kommt folglich ein wissenschaftslegitimierender Status zu. Schmale hält diesem Anspruch zwei Argumente entgegen: Er betont zum einen, dass in kulturwissenschaftlicher Forschung die kritische Würdigung von Kontext und Nachvollziehbarkeit jeder einzelnen Aussage eine zentrale Bedeutung habe. Das sei mit inhaltlich unstrukturierten und heterogenen Datenbeständen (z.B. Facebook, aber auch Google Books) eine besondere Herausforderung. Zum anderen verweist er auf die Problematik, dass Daten für digitale Auswertungen in der Regel erst verwendbar gemacht werden müssen, weil die meisten interessanten Daten in analoger, also nicht direkt maschinell nutzbarer Form vorliegen. Daran schließt Schmale die grundsätzliche Frage nach dem Sinn rechnergestützter Forschungsvorhaben an: Lassen sich mit „Big Data“-Analysen wirklich interessante Erkenntnisse gewinnen, die den technischen und methodischen Aufwand rechtfertigen? Die Kulturwissenschaften seien weiterhin theorie- und nicht datengesteuert; daher müssten hier die Fragen die Wahl des Materials und der Auswertungsmethoden bestimmen – und nicht umgekehrt.
Insgesamt negiert Schmale die Potentiale von „Big Data“ nicht, beurteilt sie aber skeptisch. Allerdings muss der Befund aufgrund der mangelnden empirischen Grundlage kulturwissenschaftlich orientierter „Big-Data“-Forschungsarbeiten vorläufig bleiben. So wird das Thema „Big Data“ wohl weiterhin die wissenschaftstheoretische und -politische Diskussion in den Kulturwissenschaften mitbestimmen.
Mehr Erfahrungswerte zum Veränderungspotential der Digitalisierung liegen bereits bei geschichtswissenschaftlichen Editionen vor.3 Hier sind die Erwartungen an Vorteile und neue Möglichkeiten durch die Digitalisierung hoch. Dass diese Erwartungen berechtigt sind, zeigen Anne Baillot und Markus Schnöpf am Beispiel der Interoperabilität (dem Zusammenspiel heterogener Systeme und Elemente), die in digitalen Editionen auf sinnvolle Weise verbessert werden kann und sich in funktionaleren Verknüpfungen von Originaldaten mit Transkriptionen, Varianten, Zusatzinformationen usw. realisieren lässt. Dass allerdings digitale Editionen auch Tücken bergen, erläutert Martin Schaller unter anderem eindrücklich anhand des Gebrauchsmediums „Zeitung“, das aufgrund seiner spezifischen inhaltlichen und physischen Form (Layout und Papierqualität) die bisherigen, eher auf Bücher ausgerichteten Digitalisierungsverfahren vor Probleme stellt und nur beschränkt verwertbare Daten erzeugt. Baillot und Schnöpf thematisieren aber auch grundsätzliche Veränderungspotentiale der Digitalisierung, die nicht nur die Gestalt und Nutzung von Produkten, sondern auch die Verfahren zu ihrer Herstellung betreffen. So können die Editionsprozesse, die bisher von den Herausgebern als kulturelles Kapital privatisiert und in Wert gesetzt wurden, durch den Einsatz digitaler Technologien zunehmend transparent gemacht werden, womit sich die Erwartungshaltung und damit das Gefüge wissenschaftlicher Zusammenarbeit verändert.
Sehr grundsätzlich wird die Frage nach dem Wandel geschichtswissenschaftlicher Praxis auch im Beitrag von Daniel Meßner behandelt, der die Herausforderungen im Umgang mit Programm-Code als Quelle erörtert. Damit verbunden ist die Frage, ob „Digital Historians“ in Zukunft solche Codes verstehen oder gar über Programmierkenntnisse verfügen müssen. Oder wird Programm-Code zu einer modernen Version des mittelalterlichen Lateins, mit dem sich nur Spezialistinnen und Spezialisten befassen? Gehören entsprechende Kenntnisse zu den digitalen Historischen Grundwissenschaften, wie dies schon in der einschlägigen Diskussion aufgeworfen wurde?4 Ist Code ohne Hardware, ohne Maschinen, die ihn ausführen, überhaupt sinnvoll oder vollständig? Ganz generell stellt sich die Frage, welche Rolle Maschinen, die Code ausführen, zukünftig in den Bereichen der Datenauswertung (Big Data) oder Editionspraxis (Zeichenerkennung), Erschließung (Suchmaschinen) und Überlieferung (Übertragung und Archivierung) spielen werden. Unvermeidlich ergibt sich dann auch die Frage, wieviel Code Historikerinnen und Historiker werden dechiffrieren müssen, um diese Maschinen und ihre Funktionsweise verstehen zu können – sei es als Hilfsmittel zur Analyse von Big Data oder als Quelle für geschichtswissenschaftliche Forschungsthemen.
Die Beiträge von Anton Tantner und Mareike König thematisieren mit Wikipedia und Weblogs digitale Formate der Wissenschaftskommunikation, die bereits ausführlich diskutiert worden sind. Tantner, selbst Weblogger der ersten Stunde, berichtet von seinen Erfahrungen beim Einsatz und bei der Reflexion von Wikipedia und Weblogs in universitären Lehrveranstaltungen. Er vertritt die Ansicht, dass die Tabuisierung und Stigmatisierung von Social Media keine angemessene Reaktion auf die reale Bedeutung dieser Medien für die Wahrnehmung und Verhandlung von Geschichtsbildern sei. Allerdings kann auch Tantner natürlich noch keine abschließenden Ergebnisse und entsprechende Lösungsvorschläge vorlegen. Das Bloggen als verpflichtender Teil des Unterrichts scheint bei den Studierenden auf wenig Gegenliebe gestoßen zu sein: Einer von ihnen vergleicht sein unfreiwilliges Bloggerdasein mit Foucaults Deutung der Sozialkontrolle durch das Panopticon (S. 54f.).
In eine andere Richtung zielen die kenntnisreichen Ausführungen von Mareike König, die aus ihrer breiten Erfahrung als Redaktionsleiterin der wissenschaftlichen Blogplattform <http://de.hypotheses.org> schöpfen kann. Sie bietet einen nützlichen Überblick zu den Potentialen von kulturwissenschaftlichen Blogs. Ihr Plädoyer für eine Anerkennung von Weblogs als Teil der wissenschaftlichen Publikationstätigkeit untermauert sie mit dem Analogieschluss zu Kommunikationsformen der frühmodernen „République des Lettres“ und der Erfindung des Essays (S. 58). Allerdings muss sich noch zeigen, welche Veränderungen Weblogs in der Wissenschaftskommunikation dauerhaft bewirken werden. Denn die Funktionen von Vernetzung und Selbstdarstellung können auch andere digitale Medienangebote erfüllen – man denke etwa an das auch in Hochschulkreisen beliebte (und zudem aus Hochschulkreisen stammende) Facebook. Die Blogplattform <http://de.hypotheses.org> kann allerdings in die Waagschale werfen, dass sie von einer nicht profitorientierten Institution betrieben wird und den Interessen akademischen Wirkens verständnisvoller begegnen dürfte.
Während bei den Weblogs (und auch bei Wikipedia) zumindest Vergleiche mit entsprechenden analogen Vorläufern zur Analyse ihres Veränderungspotentials angestellt werden können, befassen sich weitere Beiträge im Sammelband mit neuartigen Produkten der digitalen Ära. Annika Dille untersucht, wie sich historische Darstellungen durch die Mobilisierung digital vernetzen Wissens mittels Smartphone-Apps verändern. Josef Köstlbauer setzt sich mit Simulationen auseinander, die nicht erst im Kontext von Computerspielen immer „lebensechter“ die Grenze zwischen Realität und Virtualität zu verwischen suchen, in Zeiten der immer ausgefeilteren Rekonstruktion der Welt jedoch von besonderer Wirkungsmacht sind. „Die Simulation verspricht Zugriff auf ein Abbild der realen Welt, stattet Spieler aber mit der Macht des Spiels aus, bestimmte Bedingungen zu verändern.“ (S. 113) Hierzu gehört das unendlich oft mögliche Wiederholen oder Variieren eines Verlaufs im Rahmen der jeweiligen Spielregeln. Simulationen ermöglichen damit eine Erfahrung von Kontingenz, aber auch von gesellschaftlich denkbaren Möglichkeits- und Vorstellungsräumen historischer Prozesse, die sich in den Simulations-Scripts abbilden.
Thomas Walach zeigt am Beispiel von Audioquellen die Ambivalenz digitaler Medienrealität für die Kultur- und Geisteswissenschaften. Zwar bieten die digitalen Netzmedien mit ihrer multimedialen, hypertextuellen Charakteristik die Chance für eine einfachere Zugänglichkeit. Zugleich stellt sich aber die Frage der Überlieferung bzw. Bestandssicherung digitaler Quellenformate, die noch immer nicht gelöst ist und digitalisierte Daten ebenso betrifft wie „digital born“-Daten.
Die Bezüge in den vorgestellten Fallbeispielen sind so vielfältig, dass die zunächst überzeugende analytische Differenzierung, die im Untertitel versucht wird, nicht durchzuhalten ist: Wolfgang Schmales Überlegungen zu Big Data haben ebenso viel mit Digitalisierung und Selbstreflexivität zu tun wie mit Dissemination, und so selbstreflexiv die Analyse von Anne Baillot und Markus Schnöpf ist, behandelt sie doch zentral die Digitalisierungspraxis wissenschaftlicher Editionen. Letztlich werfen die interessanten Beiträge mehr Fragen zu den Veränderungen des digitalen Wandels im Bereich der Kulturwissenschaften auf, als sie beantworten. Genau darin liegt das Verdienst dieses Sammelbandes.
Anmerkungen:
1 Vgl. die erstmalige Prägung des Begriffs durch Susan Schreibman / Raymond George Siemens / John Unsworth (Hrsg.), A Companion to Digital Humanities, Malden 2004, verfügbar unter: <http://www.digitalhumanities.org/companion/> (12.01.2016).
2 Ausführlich hierzu die Rezension von Hans-Christoph Hobohm über Melissa Terras / Julianne Nyhan / Edward Vanhoutte (Hrsg.), Defining Digital Humanities. A Reader, London 2013, und Claire Warwick / Melissa Terras / Julianne Nyhan (Hrsg.), Digital Humanities in Practice, London 2012, in: H-Soz-Kult, 05.01.2015, <http://www.hsozkult.de/publicationreview/id/rezbuecher-22690> (12.01.2016); sowie die Rezension von Felix Herrmann über Matthew K. Gold (Hrsg.), Debates in the Digital Humanities, Minneapolis 2012, und David M. Berry (Hrsg.), Understanding Digital Humanities, New York 2012, in: H-Soz-Kult, 09.01.2015, <http://www.hsozkult.de/publicationreview/id/rezbuecher-21673> (12.01.2016).
3 Man denke an die Publikation von Patrick Sahle (Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels, 3 Bde., Norderstedt 2013) oder an die rege Tagungstätigkeit, zuletzt etwa in Düsseldorf; siehe den Tagungsbericht von Ragna Boden, Digitales Edieren im 21. Jahrhundert, 03. / 04.11.2015, in: H-Soz-Kult, 07.01.2016, <http://www.hsozkult.de/conferencereport/id/tagungsberichte-6309> (12.01.2016).
4 Vgl. Markus Krajewski, Programmieren als Kulturtechnik, in: H-Soz-Kult, 30.11.2015, <http://www.hsozkult.de/debate/id/diskussionen-2901> (12.01.2016). Oder allgemein das Diskussionsforum: Historische Grundwissenschaften und die digitale Herausforderung, in: H-Soz-Kult, 15.11. – 18.12.2015, <http://www.hsozkult.de/text/id/texte-2890> (12.01.2016).