Die Digitalisierung hat erhebliche Auswirkungen auf Status, Verfügbarkeit und Verknüpfung von historischen Fakten bzw. Daten und die Art der daraus resultierenden Wissenschaftskommunikation: Einerseits hat sich der Zugang zu vielen Quellen durch die Digitalisierung verbessert, andererseits stellen mangelnde Datenqualität und -stabilität, unzureichende Reproduzierbarkeit von Ergebnissen und fehlende Standards eine Gefahr für die wissenschaftliche Qualität dar.
Obwohl das Problem verschiedentlich bereits angesprochen wurde und die Notwendigkeit durchaus gesehen wird, sich mit der Problematik der Reproduzierbarkeit und Replizierbarkeit auseinanderzusetzen, fehlt jede Form der Systematisierung – wie sie beispielsweise in den Natur- und Technikwissenschaften in Form der Standard Operation Procedures (SOP) bereits vorliegt – oder überhaupt von Überlegungen zu einer Replikationsmethodik. So gibt es in den digitalen Geschichtswissenschaften bisher weder eine Form der Fehlerklassifikation, noch eine systematische Auseinandersetzung mit bekannten, aber in der Regel nicht berücksichtigten Fehlerquellen.
Fachvertreterinnen und Fachvertreter der digitalen Geschichtswissenschaften sowie verschiedener Fachgesellschaften haben in der Sektion diese bisher kaum thematisierte Problematik der mangelnden Reproduzierbarkeit und Replikationsfähigkeit von Ergebnissen und Studien in den digitalen Geschichtswissenschaften aufgegriffen und Lösungswege diskutiert, wie unter anderem auch die Überlegung, die Fachgesellschaften hierfür einzubinden.
In der Einführung beschrieb CHARLOTTE SCHUBERT (Leipzig) die heute als Replikationskrise beschriebene Situation in vielen Natur- und quantitativ arbeitenden Sozialwissenschaften.1 Sie betonte, dass nach heutigem Verständnis für die hermeneutisch arbeitenden Geisteswissenschaften demgegenüber gelte, dass sich ein hermeneutisches Vorgehen nicht replizieren lässt: Damit ist gemeint, dass unter gleichen Bedingungen wie etwa im Labor, bei Experimenten, bei empirischen und quantitativen Studien ein Ergebnis nicht in diesem strengen Sinn wiederholbar ist. Jedoch müssen Ergebnis und Verfahren des hermeneutischen Vorgehens in Nachvollziehbarkeit und Plausibilität überzeugen. Daher gelten sie in ihrem wissenschaftlichen Stellenwert der Wiederholbarkeit durch Replizierbarkeit als gleichrangig.
Durch die Digital Humanities ist nun, insbesondere seit dem Schub, den das Gebiet seit den 2000er-Jahren erfahren hat, für die Geisteswissenschaften eine neue Situation eingetreten: Die Anwendung quantitativer Verfahren durch algorithmenbasierte Methoden stellt auch die digital arbeitenden Geschichtswissenschaften dringend und mit Schärfe vor die gleichen Probleme im Hinblick auf die Forderung nach Reproduzierbarkeit.
In der von Christoph Schäfer (Trier) moderierten Diskussion umriss MAREIKE KÖNIG (Paris) die Abgrenzung der Bereiche Daten, Methoden und Fragestellungen für das Thema Reproduzierbarkeit. Für alle drei Bereiche sei man – entgegen einer teilweise verbreiteten Ansicht – eher am Anfang der Diskussion. Sie skizzierte die Problematik der Daten am Beispiel des Teilens von Forschungsdaten, das noch zu wenig praktiziert würde. Für die ebenso komplexe Frage der Methoden nannte sie das Topic Modeling, in dem die Festlegung der Parameter (zum Beispiel die Anzahl der Topics) oft erfahrungsbasiert, jedoch nicht mathematisch begründbar vorgenommen werde. Die hochgradige Interpretabilität aller drei Bereiche verweise immer wieder auf die Blackbox „Mensch“, so dass die Betonung des Gegensatzes zwischen hermeneutischem und algorithmischem Vorgehen die Differenz möglicherweise zu stark mache.
Den Gedanken der Blackbox führte SILKE SCHWANDT (Bielefeld) konsequent weiter. Historiker und Historikerinnen seien Plausibilisierungsprofis, deren tägliches Geschäft das Umgehen mit Vagheit sei. Dies befähige sie in besonderer Weise, diese Blackbox zu „öffnen“ und beispielsweise aus unterschiedlichsten Datenmengen ein plausibles Narrativ zu entwickeln. Dazu sei jedoch der interdisziplinäre Transfer die Voraussetzung, der aber von einer fachspezifischen data literacy ausgehen müsse. Auf dieser Grundlage erst können die Überlegungen entwickelt werden, wie mit Reproduzierbarkeit umgegangen werden kann, wie Unsicherheit zu markieren sei und wie man darauf aufbauend Datenmodelle für die Markierung von Vagheit entwickeln könne.
PASCAL WARNKING (Trier) schloss daran an und betonte, dass oft der eigentliche Engpass nicht bei den Algorithmen liege, da diese immer gleichblieben, sondern bei den Anwendern zu sehen sei. Er brachte zwei Thesen in die Diskussion ein: Ausgehend von der Frage, wo denn nun heute die viel besprochenen Digital Natives seien, forderte er, dass man digitale Kompetenz durch die universitäre Lehre ausbilden müsse. Zum anderen warf er die Frage auf, ob zur besseren Zugänglichkeit von Forschungsbeiträgen für ein möglichst breites Fachpublikum auf den Einsatz digitaler Werkzeuge dann zu verzichten sei, wenn diese nicht zwingend notwendig seien.
Demgegenüber ging WOLFGANG SPICKERMANN (Graz) noch einmal auf die grundlegende Differenz zwischen Hermeneutik und algorithmenbasierten Methoden ein und stellte die Frage, ob beides denn überhaupt miteinander vereinbar sein könne und wo der Benefit läge, wenn man dies anstrebe? Nachdrücklich verwies er auf die jetzt schon entstandenen Verluste durch mangelhafte oder unzureichende Datenvorhaltung und die wenig ausgeprägte Bereitschaft, sich in der Lehre mit entsprechenden Konzepten auseinanderzusetzen. Am Beispiel der digitalen Epigraphik zeigte er auf, daß Nachhaltigkeit nur dann zu realisieren sein werde, wenn mit größter Genauigkeit und Transparenz alle (!) Stufen in der Editionsarbeit exakt abgebildet und vorgehalten werden.
Auch LEIF SCHEUERMANN (Trier) ging auf das Verhältnis von Hermeneutik und algorithmenbasierten Methoden ein und verwies auf Dilthey, der einer naturwissenschaftlichen Empirie die geisteswissenschaftliche Hermeneutik gegenübergestellt habe. Auch er betonte, dass Algorithmen immer gleichblieben, jedoch beispielsweise die Ordnung der Daten bereits einen ersten hermeneutischen Akt darstelle und die Ebene des empirischen Bewusstseins durch die strukturierte Eingabe in ein neues Medium schon verlassen werde. Von daher sei es notwendig, die Bereiche sorgfältig zu trennen, da es keinerlei hermeneutischen Prozess gebe, der ohne die Erfahrungswelt der Forschenden existiere.
ROGER BERGER (Leipzig) verwies als Vertreter der Methodologie und empirischen Sozialforschung auf die Erfahrung, die er im langjährigen Aufbau und der Betreuung der Leipziger Replikationsstudien LERep2 gemacht habe: Er erklärte in aller Deutlichkeit, daß er den Ergebnissen aus diesen Replikationsstudien in den Bachelor- und Masterarbeiten weitaus mehr vertraue als den zugrundeliegenden Originalstudien. Er begründete dies unter anderem auch damit, dass es durchaus nicht selten sei, dass bereits Bachelor-Studierende bessere methodische Kompetenzen haben, als gestandenes Forschungspersonal. Er betonte, dass die Darstellung der zugrundeliegenden theoretischen Annahmen und eine extreme Sorgfalt entscheidend dafür seien, die intersubjektive Überprüfbarkeit und Reproduzierbarkeit zu sichern.
WERNER RIESS (Hamburg) ergänzte die Diskussion durch den Hinweis auf die bereits mehrfach in Rede gestellte „Krise der Geisteswissenschaften“ (so zuletzt in den 1970er-/1980er-Jahren), die immer wieder Plausibilität und intersubjektive Nachvollziehbarkeit in das Zentrum der Auseinandersetzung gerückt habe. Dieses Argumentationsmuster sehe er auch in der gegenwärtigen Diskussion um die Wertigkeit des digitalen Arbeitens in den Geschichtswissenschaften. Auch er hob hervor, dass in jedem Einsatz digitaler Methoden bereits am Anfang, in den Vorauswahl- und Auswahlprozessen, auch in der Anlage der Metadaten oder ihrer Verknüpfung die Hermeneutik zu Tragen käme. Insgesamt sehe er die Methodendiskussion heute eher am Anfang als schon fortgeschritten. Jedoch sei heute sichtbar, dass die Anforderungen an Standards für wissenschaftliches Arbeiten durch die Digitalität gestiegen seien.
In einer letzten Diskussionsrunde äußerten sich die Podiumsteilnehmerinnen und -teilnehmer zu der eingangs formulierten Frage nach der Rolle der Fachgesellschaften in diesem Prozess. Übereinstimmend wurde hervorgehoben, daß die Fachgesellschaften wie der Verband der Historiker und Historikerinnen Deutschlands (VHD), darin ganz besonders die AG Digitale Geschichtswissenschaften (die mit Mareike König, Silke Schandt und Charlotte Schubert vertreten war), die Arbeitsgemeinschaft Geschichte und EDV (AGE, hier mit ihrem Vorsitzenden Leif Scheuermann vertreten) sowie auch die Mommsen-Gesellschaft als Fachverband der Altertumswissenschaften (mit ihrem 1. Vorsitzenden Werner Riess vertreten), sich seit vielen Jahren bei ihren Jahrestagungen nicht nur auf thematische Sektionen aus dem Bereich der digitalen Geschichtswissenschaften selbst verpflichtet haben. Der VHD, die AG Digitale Geschichtswissenschaften und die AGE bieten auch zunehmend Schulungen und spezielle Lehrangebote an. Als Ort der Diskussion zur Sensibilisierung der Mitglieder seien die Jahrestagungen richtig, vor allem jedoch müsse die Scharnierfunktion der Fachgesellschaften weiterhin ausgebaut werden: Über Best Practice-Beispiele sei durchaus die Möglichkeit gegeben, das Thema der Anforderungen zur Replizierbarkeit in die Fachverbände zu tragen und zu etablieren.
In der abschließenden Zusammenfassung hob Charlotte Schubert sowohl die übereinstimmenden wie auch die differierenden Punkte aus den Beiträgen des Podiums wie auch der Diskussion mit dem Auditorium hervor: Die Notwendigkeit von Transparenz, Dokumentation und Replizierbarkeit ist anerkannt und erfordert dringend Handlung. Im Fluss sind derzeit die unterschiedlichen Positionen zu dem methodischen Verhältnis zwischen Hermeneutik und algorithmenbasierten Methoden in der Geschichtswissenschaft, jedoch wurden allseits die durch die Hermeneutik im Forschungsprozess gesetzten Bedingungen betont. Große Übereinstimmung bestand im Hinblick auf die Forderung, digitale Methoden in die Regellehre einzubinden, wenngleich dies im Hinblick auf die erforderliche Zeit und das noch kaum vorhandene Lehrpersonal anspruchsvoll sein werde. Ebenso wurde hervorgehoben, dass die rasant anwachsenden Datenbestände, die Software-Entwicklung und die steigenden Anforderungen an Transparenz für die Dokumentation sowohl Best Practice Beispiele wie auch neue technische Voraussetzungen (wie zum Beispiel im Leipzig-Trierer Projekt replicatio3) nötig machen werden.
Ganz entscheidend werde jedoch die Rolle der Fachgesellschaften für die weitere Entwicklung sein, die jetzt schon im Rahmen ihrer Jahrestagungen sowie in ihrer Scharnierfunktion zum Beispiel im Kontext des NFDI-Prozesses eine Mittlerfunktion sowohl gegenüber den Förderinstitutionen wie auch im Hinblick auf die Sensibilisierung ihrer Mitglieder einnehmen.
Sektionsübersicht:
Sektionsleitung: Charlotte Schubert (Leipzig) / Christoph Schäfer (Trier)
Moderation: Christoph Schäfer (Trier)
Podium:
Roger Berger (Leipzig)
Mareike König (Paris)
Werner Riess (Hamburg)
Leif Scheuermann (Trier)
Silke Schwandt (Bielefeld)
Wolfgang Spickermann (Graz)
Pascal Warnking (Trier)
Anmerkungen:
1 M. Baker, 1,500 scientists lift the lid on reproducibility, in: Nature 533 (2016), S. 452–454, https://www.nature.com/articles/533452a (08.11.2023) und Open Science Collaboration, Estimating the reproducibility of psychological science, in: Science 349,6251 (2015), https://doi.org/10.1126/science.aac4716 (08.11.2023).
2https://home.uni-leipzig.de/lerep/ (08.11.2023).
3http://replicatio.science/ (08.11.2023).