C. Antenhofer u.a. (Hrsg.): Digital Humanities in den Geschichtswissenschaften

Cover
Titel
Digital Humanities in den Geschichtswissenschaften.


Herausgeber
Antenhofer, Christina; Kühberger, Christoph; Strohmeyer, Arno
Erschienen
Wien 2024: UTB
Anzahl Seiten
670 S.
Preis
€ 60,00
Rezensiert für H-Soz-Kult von
Daniel Burckhardt, Deutsches Historisches Institut Washington

Mit der Einführung und Verbreitung von Home- und Personal Computern seit den 1980er-Jahren haben diese „Höllenmaschinen“ (Hans-Ulrich Wehler) als Schreib- und Arbeitsknechte umfassend Einzug in die Geschichtswissenschaften gefunden. Deutschsprachige Überblickswerke zu den entsprechenden Arbeitstechniken begleiten diesen technologischen Wandel im Zehn-Jahres-Rhythmus.1 Ziel des neuen Studienbuchs ist es, „Studierenden in der zweiten Phase des Bachelorstudiums und im Masterstudium eine erste wissenschaftliche Grundlage zur Verfügung zu stellen, die sie dabei unterstützt, die digitalen Anforderungen an die Geschichtswissenschaften kennenzulernen und […] zu durchdringen“. (S. 9f.). Diesem Ziel wird der Band der Salzburger Herausgeber:innen in seiner Breite gerecht, da er die theoretischen Grundlagen mit konkreten Methoden sowie ethischen und rechtlichen Überlegungen verbindet und sich gleichermaßen an Lehrende richtet.

Die sich an die Einleitung anschließenden 33 Beiträge sind in sieben Bereiche gegliedert, die sich an einem idealtypischen Forschungsprozess orientieren. „Beginnen, Fragen stellen und Korpus bilden“ öffnet den Reigen mit einem umfassenden Überblick zur digitalen Transformation der Geschichtswissenschaften von der frühen Nachkriegszeit bis in die Gegenwart. Dabei gelingt es Mareike König, ein komplexes Wechselspiel zwischen gesamtgesellschaftlichem und disziplinärem Wandel aufzuzeigen, das zu einer Vielzahl sich überlagernder Phasen mit lokalen Konjunkturen, aber auch abgebrochenen Entwicklungssträngen geführt hat. Es folgt eine Klärung des Verhältnisses zwischen Quellen und Daten durch Torsten Hiltmann. Diese Transformation ist einerseits Voraussetzung für den Einsatz digitaler Methoden, sorgt andererseits aber auch für viel Irritation, wenn etwa Quellenkunde en passant zu Forschungsdatenmanagement (FDM) umgedeutet wird. Wie eine Digitale Quellenkunde jenseits von FDM aussehen könnte, erläutern Aline Deicke und Stefan Schmunk im anschließenden Bereich „Quellen bearbeiten“.

Dass der Übergang von der Bearbeitung digitaler Quellen zu ihrer Analyse fließend ist, zeigt schon ein kurzer Blick auf die Titel: So finden wir Charlotte Schuberts „Textanalyse digital“ noch unter „Quellen bearbeiten“, den Teilaspekt „Intertextualität“ vertiefend von Doris Gruber im darauffolgenden Kapitel „Analysieren und modellieren“. Peter Hinkelmanns und Ingrid Matschinegg arbeiten in diesem Kapitel die zentrale Rolle und die Herausforderungen bei der Datenmodellierung in Digital-Humanities-Projekten heraus: Das zu entwickelnde Modell muss einerseits die Besonderheiten der gewählten Quellen abbilden, andererseits die Beantwortung der im Stadium der Erfassung oft noch unscharf formulierten Forschungsfragen ermöglichen. Darüber hinaus sollte das gewählte Modell mit bereits bestehenden verknüpft werden, um eine projektübergreifende Nachnutzung zu ermöglichen. Dabei gibt es kein „one size fits all“: Je nach Umfang und Komplexität der zu untersuchenden Daten und Beziehungen kann ein relationales oder hierarchisches Modell (Melanie Althage zu Data Mining), ein semantischer (Philipp Schneider zu Intermedialität) oder sozialer Graph (Robert Gramsch-Stehfest zu Netzwerkanalyse als digitale Methode in der Geschichtswissenschaft) eine passende Wahl sein.

„Publizieren und präsentieren“ spannt den Bogen von digitalen Quelleneditionen (Stephan Kurz) über E-Journals (Arno Strohmeyer), Blogs (Karoline Döring) und Social Media (Lena Oetzel) als Medien der Dissemination und Wissenschaftskommunikation bis hin zu Videos (Ute Verstegen), letztere allerdings weniger als Ergebnis denn als Grundlage von Forschung und Lehre.

Sehr positiv finde ich das kurze, aber gehaltvolle Kapitel „Rezipieren und de-konstruieren“. Sebastian Barsch erweitert in seinem Überblick die Datenkompetenz mit der Critical Data Literacy um eine genuin geisteswissenschaftliche Komponente, während sich Christoph Kühberger auf Geschichtsdarstellungen in Computerspielen konzentriert. Besonders innovativ ist auch der Beitrag zu Citizen Science von Michael Brauer und Marlene Ernst unter „Vermitteln“: Digitale Plattformen bieten hier nicht nur die Möglichkeit, Forschungsergebnisse einer breiteren Öffentlichkeit zugänglich zu machen. Sie sind in der Regel auch Voraussetzung dafür, den Kreis der Mitforschenden zu erweitern. Um diese zu finden und nachhaltig einzubinden, bedarf es aber darüber hinaus eines umfassenden Kommunikations- und Betreuungskonzepts.

Die Einführung des Computers in die Geschichtswissenschaft war von Anfang an von der Sorge um die Dauerhaftigkeit der digitalen Werkzeuge und Daten begleitet. Auch wenn „Sichern“ am Ende des Bandes steht, bilden die hier versammelten Beiträge gewissermaßen das Fundament für alle vorangegangenen Arbeitsschritte. Urheberrecht (Sonja Janisch) und Datenschutz (Dietmar Jahnel) begleiten besonders in der Zeitgeschichte Publikations- und Vermittlungsformate – ob digital oder analog – von der Konzeption bis zum Abschluss des Projekts und oft darüber hinaus. Für alle Epochen sind weitere Aspekte von Nachhaltigkeit wesentlich: Für Katharina Zeppezauer-Wachauer, Lina Maria Zangerl und Johannes Stigler ist die langfristige Archivierung digitaler Daten nur ein Aspekt. Durch den technologischen Wandel reicht in der Regel eine einfache Kopie meist nicht mehr aus. Erst durch die Dokumentation und eine dauerhafte Betreuung, die potenziell auch Konvertierungen in neue Formate umfasst, können einmal erstellte Daten auch in Zukunft weiter genutzt werden. Dauerhaftigkeit erfordert neben technischen deshalb stets auch organisatorische und institutionelle Voraussetzungen. Darüber hinaus wird zunehmend Nachhaltigkeit in ihrem engeren Sinn mit bedacht – und damit kehren wir zum ersten Beitrag von Mareike König zurück: „Unter dem Schlagwort Greening DH wird seit neuestem zudem der ökologische Fußabdruck der digitalen Forschung einer kritischen Überprüfung unterzogen und werden Vorschläge für eine nachhaltige Digitalisierung gemacht.“ (S. 40)

Es ist ein Verdienst der geisteswissenschaftlichen Fächer, die naturwissenschaftlichen FAIR-Prinzipien (Findable, Accessible, Interoperable, Reuseable) im FDM um ethische Dimensionen, häufig im CARE-Kürzel (Collective Benefit, Authority to Control, Responsibility, Ethics) zusammengefasst, zu ergänzen. So schreibt Claudia Posch in ihrem Beitrag zu Forschungsintegrität, der einen wichtigen Kompass – nicht bloß für Studierende – bereitstellt, mit Blick auf Daten indigener Gemeinschaften: „Die Grundannahme, dass alle Daten frei zugänglich sind und völlige Transparenz wünschenswert ist, ist nämlich nicht universell anwendbar.“ (S. 539)

Eine Verlagsweisheit besagt, dass jede mathematische Gleichung die potenzielle Leserschaft eines Buches halbiert. Übertragen auf ein geisteswissenschaftliches Studienbuch gilt dies wohl auch für jede Zeile Programmcode. Der Verzicht auf entsprechende Beiträge scheint mir daher vertretbar. Allerdings hätte ich in einem Band, der sich an den grundlegenden Schritten des Forschungsprozesses der Digital Humanities orientiert, zumindest eine kurze Diskussion der Konsequenzen dieser Auslassung und einen Verweis auf weiterführende Angebote wie den Programming Historian erwartet.2

Der zweite Elefant im Band sind die rasanten Entwicklungen im Bereich des maschinellen Lernens und der generativen Künstlichen Intelligenz. Da der Band durchgängig auf bewährte Erkenntnisse statt auf kurzlebige Trends setzt, tauchen diese Technologien vorrangig im Beitrag zur (teil-)automatischen Texterkennung (Barbara Denicolò und Christina Antenhofer) auf, wo sich entsprechende Lösungen wie Transkribus mittlerweile etabliert haben. Anknüpfungspunkte für die grundsätzlichere Frage, ob und wie Generative Pre-trained Transformer kommerzieller Anbieter oder von Universitätsrechenzentren Forschung und Lehre in den Geschichtswissenschaften unterstützen könnten, bietet dagegen der aus einem ganz anderen Blickwinkel verfasste Beitrag von Jan Hodel. „Sollten Universitäten ihren Studierenden wirklich vorschreiben dürfen, welche Informationsquellen sie konsultieren?“ (S. 91) Dies bezog sich vor 15 Jahren noch ganz auf die Rolle von Wikipedia im Fach, doch Hodels Fazit „konsultieren, nicht zitieren“ (S. 96) bleibt aktuell. Die rasante Entwicklung der großen Sprachmodelle und ihrer Anwendungen verbietet jede Prognose, wie sie das Fach konkret verändern werden. Man muss jedoch kein Prophet sein, um vorherzusagen, dass nicht das Ob, sondern das Wie im Zentrum eines neuen Sammelbandes zu digitalen Arbeitstechniken in den Geschichtswissenschaften stehen wird, der spätestens 2030 erscheinen wird.

Anmerkungen:
1 Ute Mocker / Helmut Mocker / Matthias Werner (Hrsg.), Computergestützte Arbeitstechniken für Geistes- und Sozialwissenschaftler, Bonn 1990; Bärbel Biste / Rüdiger Hohls (Hrsg.), Fachinformation und EDV-Arbeitstechniken für Historiker. Einführung und Arbeitsbuch, Historical Social Research, Supplement 12 (2000), https://nbn-resolving.org/urn:nbn:de:0168-ssoar-285910 (25.11.2024); Martin Gasteiner / Peter Haber (Hrsg.), Digitale Arbeitstechniken für Geistes- und Kulturwissenschaften, Wien 2010.
2 Vgl. hierzu: https://programminghistorian.org/ (25.11.2024).