HT 2023: Erinnerungen und Algorithmen. Oral History im digitalen Wandel

HT 2023: Erinnerungen und Algorithmen. Oral History im digitalen Wandel

Organisatoren
Verband der Historiker und Historikerinnen Deutschlands (VHD); Verband der Geschichtslehrer Deutschlands (VGD) (Universität Leipzig)
Ausrichter
Universität Leipzig
PLZ
04107
Ort
Leipzig
Land
Deutschland
Fand statt
In Präsenz
Vom - Bis
19.09.2023 - 22.09.2023
Von
Dorothee Wein, Universitätsbibliothek, Freie Universität Berlin

Das Motto des Historikertages, die „Fragilität von Fakten“, fand in der Sektion „Erinnerungen und Algorithmen“ reichen Widerhall, denn ihr Gegenstand waren die aktuellen Herausforderungen und Chancen für Oral History-Sammlungen im Zeitalter teilautomatischer Erschließung und Analyse. Das Feld der Beiträge reichte von der Darlegung neuer Möglichkeiten der Edition über die Diskussion computergestützter Analysemethoden bis zu ethischen Fragen, die untrennbar mit der Forschung mit Oral History-Quellen verbunden sind. In der vorbereiteten Sektion wurden diese Fragen aus unterschiedlichen Blickwinkeln erörtert.

ALMUT LEH (Hagen), Leiterin des Archivs „Deutsches Gedächtnis“ verwies darauf, dass Oral History-Interviews häufig als fragile Fakten wahrgenommen wurden und ihr Quellenwert in den Geschichtswissenschaften lange Zeit umstritten war. Das Interesse an ihrer Beforschung ist in den letzten Jahren jedoch beständig gewachsen, so dass ältere Interviews zunehmend für Sekundäranalysen nachgefragt werden. Diese Entwicklung hänge direkt mit der Digitalisierung zusammen, die neue Formen der Erschließung ermöglicht; durch ihre Kopplung an sich wandelnde Aufnahmetechniken sei die Oral History in ihrer Geschichte bereits technikaffiner gewesen als andere Bereiche der Geschichtswissenschaften.

HERDIS KLEY (Berlin) und CORD PAGENSTECHER (Berlin), beide vom Bereich Digitale Interview-Sammlungen der Freien Universität Berlin, stellten die von der DFG geförderte Forschungsumgebung Oral-History.Digital (oh.d) für audiovisuell aufgezeichnete narrative Interviews vor. Dabei handelte es sich um eine Art Preview, denn das Interviewportal wurde offiziell erst wenige Tage später veröffentlicht.1 Das Portal reagiert auf die Situation, dass Oral History-Quellen häufig schlecht erschlossen und schwer auffindbar sind. oh.d unterstützt sammelnde Institutionen und Forschungsprojekte bei der Archivierung und Bereitstellung sowie der sammlungsübergreifenden Recherche, Annotation und Auswertung von Zeitzeugen-Interviews. Am Beispiel der oh.d-Forschungsumgebung diskutierte der Beitrag die Anwendbarkeit der für Forschungsdaten geforderten FAIR-Prinzipien – findable, accessible, interoperable, reusable – auf personen- und datenschutzrechtlich hochsensible Oral History-Interviews.

An der Konzeption und Erprobung der Plattform waren Pilotarchive beteiligt, wie die Hamburger Werkstatt der Erinnerung, die KZ-Gedenkstätte Flossenbürg, das ZZF Potsdam oder das Historische Datenzentrum Halle. Der Katalog des Portals bietet eine Übersicht der bereits recherchierbaren Interviewarchive.2 Die Möglichkeit, entweder ganze Interviews erschlossen bereitzustellen oder nur Metadaten nachzuweisen, trägt den unterschiedlichen rechtlichen Ausgangslagen verschiedener Sammlungen Rechnung. In der gerade begonnenen zweiten Förderphase ist eine Konsolidierung der Forschungsumgebung, eine Ausweitung des Kreises der nutzenden Sammlungen und eine Internationalisierung der Anwendung geplant.

Mitten in einen Praxistest digitaler Methoden bei der Nachnutzung sozialwissenschaftlicher Interviewdaten führte der Beitrag von CHRISTINA VON HODENBERG (London) und KATRIN MOELLER (Halle). Sie erläuterten einen von ihnen durchgeführten Anwendungsfall von Datenaufbereitung, automatischer Spracherkennung sowie vokabular- und algorithmengesteuerter Kontextualisierung und Analyse von Interviews.

Untersucht wurde die Frage, welche Rolle ältere Frauen bei der Weitergabe feministischer Normen in der Bundesrepublik spielten. Da bislang zu diesem Themenkomplex eher anekdotische Antworten vorliegen, die beispielsweise die Privatsphäre der Befragten vernachlässigten, wurde eine computergestützte Analyse angestrebt; auch um einer Art „cherry-picking“ bei der Auswahl relevanter Ausgangssequenzen zu entgehen, sollte verstärkt mit Codierungen gearbeitet werden. Durch einen Vergleich der BOLSA-Studie, die Toninterviews mit Menschen, die zwischen 1888 und 1907 geboren wurden, umfasst3, mit der „Generationsstudie“4, in der die gleichen Fragen eine Generation später gestellt wurden, sollte die historische Entwicklung aus der zeitlichen und methodischen Distanz heraus analysiert werden.5

Katrin Moeller, Leiterin des historischen Datenzentrums Sachsen-Anhalt, stellte unter anderem die Erfassung der getippten Transkripte (mit Transkribus) und der älteren Audioaufnahmen (mit f4) vor. Schwierigkeiten traten bei der Kennung von Sprecherwechseln und der Layout-Analyse auf. Einzelne Sprechakte und Fragen wurden trotz Standardisierung der Leitfäden nicht auf die gleiche Art und Weise gestellt. Um dennoch codieren zu können, wurde eine Entitätserkennung zur Zuordnung der Fragen genutzt. Wo keine schriftlichen Transkripte vorlagen, war die Fehlerquote zu hoch, um ein codiertes Einlesen zu ermöglichen. Bei den Beständen, für die getippten Transkripte vorlagen, war das Preprocessing vom Aufwand her vertretbar, aber eine manuelle Codierung dennoch unabdingbar.

Der Einblick in die „Küche der Digital Humanities“ zeigte, dass viele Forschungsmöglichkeiten aktuell eine Frage von Kapazitäten und finanziellen Ressourcen sind, zumal Aufwand und Kosten der Datenkuration noch systematisch unterschätzt werden. Im Rahmen von NFDI4Memory sollten Anforderungen realistischer eingeschätzt und Lösungen technisch weiterentwickelt werden. Da im Bereich der Spracherkennung große Fortschritte erzielt werden, wird künftig der immense Nachbearbeitungsaufwand geringer werden. So soll im Rahmen eines NFDI4Memory-geförderten Projekts ein KI-gestütztes Werkzeug zur automatischen Spracherkennung in Oral-History.Digital integriert werden.

Im darauffolgenden Beitrag stellte der Leiter des Fortunoff Video-Archivs STEPHEN NARON (Yale) neue Formen der digitalen Aufbereitung von videografierten Zeitzeugenberichten des Archivs vor und diskutierte ethische Fragen rund um die Zeugnisse.

Mit der Produktion von kommentierten kritischen Editionen soll die Auseinandersetzung mit einzelnen Holocaust-Testimonies gefördert werden: Die „Critical Editions Series“6 kontextualisiert dabei die Zeugnisse in ihrer historischen Verortung. Jede Ausgabe wird von einer:m Forschungsstipendiat:in erstellt und umfasst einen einleitenden Essay und ein um Glossarverknüpfungen ergänztes Transkript, das zusätzliche Hintergrundinformationen bietet. Diese Editions-Arbeiten sind sowohl traditionell in ihrem wissenschaftlichen Ansatz als auch innovativ in ihrer Präsentation als hybride audiovisuell-textuelle Ressourcen.

Mit diesen Editionen erneuert das Fortunoff Video-Archiv seine bisherige Veröffentlichungspraxis, versucht aber gleichzeitig weiterhin seinen zentralen Grundsätzen zu folgen. Gegründet wurde das Projekt 1979 in der jüdischen Community von Psychoanalytikern wie Dori Laub und Literaturwissenschaftlern wie Geoffrey Hartmann, deren Interviewführung dem empathischen Zuhören verpflichtet war und der Erfahrung, dass Vertrauen notwendig ist für den freien Fluss der Erinnerung. Um das Interviewprojekt ressourcentechnisch nicht zu behindern, wurden zunächst keine Transkripte erstellt. Zudem wurden die Nutzer:innen verpflichtet, direkt mit den audiovisuellen Quellen zu arbeiten, da ein Transkript nicht in der Lage sei, die nonverbale Dimension abzubilden. Inzwischen wurden Transkripte erstellt, es gelte aber weiterhin die Regel, dass diese von den originalen Interviews begleitet werden sollten. Das Archiv führt bis zum heutigen Tag Interviews durch, momentan umfasst die Sammlung mehr als 4.400.7

Seit kurzem erprobt das Fortunoff Archive auch korpuslinguistische Methoden der Analyse. Mit „Let Them Speak“8 wurde durch eine Verknüpfung mit den Beständen der USC Shoah Foundation und des United States Holocaust Memorial Museum eine Metasammlung geschaffen, deren Fokus auf der Analyse und Darstellung kollektiver Erfahrungen liegt, indem die Interviews nach darin artikulierten Gefühlen geclustert werden. Dadurch solle eine Art „digitale Wiedervereinigung der vereinzelten Überlebenden“ ermöglicht werden.

In beiden Projekten seien Wege beschritten worden, um eine Balance zwischen Erwartungen der Überlebenden und den aktuellen Erwartungen der ForscherInnen zu finden. Naron sprach sich dafür aus, dass dem Einsatz neuer Techniken auch Grenzen gesetzt werden sollten. Beispielsweise sollten die beschwiegenen Erfahrungen respektiert werden, selbst wenn es durch technische Verfahren möglich wäre zu ermitteln, worüber eine Person im Interview nicht spricht. Wer mit Oral History-Quellen arbeitet, sollte sich bewusst machen, dass es sich um hochsensible persönliche Daten handelt und neue technischen Analyseverfahren auf ihre ethischen Implikationen überprüfen, um so ein Abgleiten in Formen von „Digital Inhumanities“ zu vermeiden. So sollte auch die Prüfung der rechtlichen Situation der Bestände den Interviewten verpflichtet bleiben, denn auch wenn diese in den Einverständniserklärungen sämtliche Verwendungszwecke zugelassen haben, war den Interviewten des vergangenen Jahrhunderts eine Zugänglichkeit ihres Interviews im Internet nicht vorstellbar.

Im vierten Beitrag der Sektion beleuchtete IRYNA KASHTALIAN (Bremen/Hamburg) Fragen, die sich stellen, wenn Oral History-Projekte unter den Bedingungen einer Diktatur durchgeführt und archiviert werden. Die 2021 nach Deutschland geflüchtete Leiterin der Minsker Geschichtswerkstatt berichtete von den ethischen und rechtlichen Herausforderungen audiovisueller Quellensammlungen im heutigen Belarus, wo eine Arbeit ohne Angst momentan nicht möglich sei.

Seit der Zunahme der Repression in den vergangenen Jahren wird bereits die Durchführung von Interviews derzeit immer problematischer, da unklar ist, worüber man gefahrlos sprechen kann. Kashtalian schilderte die Probleme, einen sicheren Ort zu finden, um die Oral History-Quellen anschließend zu bewahren und die Ungewissheit über deren künftige Nutzung. Der digitale Zugang zu solchen Archiven könne zwar dazu beitragen, dass die Erfahrungen aus Belarus in künftigen Studien über diese Zeit repräsentiert seien, notwendig sei aber der Schutz der Zeitzeug:innen und Interviewenden etwa durch Anonymisierung und kontrollierten Zugang zu den Archiven. Seit mit dem „Backlash“ der Vorwurf einer Zusammenarbeit mit westlichen Geheimdiensten drohender wird, sind immer weniger Menschen bereit, in Interviews offen zu sprechen, daher sollten aus Sicherheitsgründen Interviews vorwiegend mit Personen stattfinden, die das Land verlassen haben und sich im Exil bereits sicherer fühlen. So wurde das Archiv von Nasha Pamiac mit circa 1600 Interviews aus Sicherheitsgründen geschlossen. Inzwischen gibt es eine Sammlung von ca. 40 Interviews mit Geflüchteten, die nur vor Ort in der Forschungsstelle Osteuropa in Bremen als anonymisierte Transkripte zugänglich sind.

Diese existenziellen Fragen nach den politischen Rahmenbedingungen des Sprechens in Unfreiheit zeigt, wie stark eine Analyse der daraus entstehenden Quellen dem Kontext verpflichtet sein muss, und fordert eine Solidarisierung der wissenschaftlichen Community mit deren Protagonist:innen.

Im letzten Beitrag der Sektion illustrierten PHILIPP BAYERSCHMIDT (Erlangen) und DENNIS MÖBUS (Hagen), wie Natural Language Processing- und Machine Learning-Verfahren zur Textauswertung in der Oral History verwendet werden können. Ziel ist es dabei, dass mithilfe von Topic Modeling und Word Embeddings gezielt Informationen zu bestimmten Themenfeldern in einem Interviewkorpus identifiziert werden, wodurch Gemeinsamkeiten wie Unterschiede zwischen einzelnen Interviews oder auch ganzen Sammlungen sichtbar gemacht werden können. Als Anwendungsfall diente die Suche nach Erfahrungen von Personen, die nach 1945 dauerhaft nach Deutschland migriert sind. Dabei sollten Narrative aufgefunden werden, die den häufig ambivalenten Zustand zwischen Herkunft und Ankunft thematisieren.

Bayerschmidt stellte anhand seines Promotionsprojektes dar, wie Topic Modeling bei einem sammlungsübergreifenden Korpus mit über 600 Interviews helfen kann, passende Interviews zu identifizieren. Dennis Möbus, der an der Fernuniversität Hagen die Forschungsgruppe „Digital Humanities“ koordiniert, erläuterte, wie diese Themenfelder automatisiert ausgewertet werden können. Mit Hilfe eines visuellen Interfaces können Stellen in den Interviews sichtbar gemacht werden, an denen gehäuft über die gesuchten Themenfelder gesprochen wird. Das Beispiel kann als eine datengetriebene Exploration gelten, die auch für unerschlossene Bestände genutzt werden kann. Die Integration des Projektes in oh.d ermöglicht dabei die Rückbindung zum Audio/Video-Interview und damit die Verbindung von Distant Reading und Close Listening.

Deutlich wurde in dieser hochaktuellen Sektion aus ganz unterschiedlichen Blickwinkeln, dass es sich bei Oral-History-Sammlungen um vielschichtige Quellen handelt, deren datengetriebene Analyse mit den Methoden der Digital Humanities zahlreiche neue Forschungsfelder eröffnet. Die Sektion bot hier reiches Anschauungsmaterial und stellenweise erste Lösungen vor zu den Fragen: Wie müssen quantitativ arbeitende Such-Algorithmen beschaffen sein, um sich für die qualitativen Daten der Oral History zu eignen? Wie lässt sich das zum Verständnis der Quellen benötigte Kontextwissen sinnvoll mit den Quellen koppeln? Wie kann verhindert werden, dass womöglich Artefakte der Algorithmen die fragilen Erinnerungen der Interviewten überlagern?

Sektionsübersicht:

Sektionsleitung: Almut Leh (Hagen) / Cord Pagenstecher (Berlin)

Herdis Kley (Berlin) / Cord Pagenstecher (Berlin): Oral-History.Digital. Eine Erschließungs- und Rechercheplattform für audiovisuell aufgezeichnete narrative Interviews

Katrin Moeller (Halle-Wittenberg) / Christina von Hodenberg (London): Fragile Daten und Ergebnisse? Ein Praxistest von Datenaufbereitung, Spracherkennung und digitalen Techniken zur fragestellungsbezogenen Analyse von Interviews

Stephen Naron (Yale): Critical Editions: A Promising New Form of Digital Scholarship Based on Testimony

Iryna Kashtalian (Bremen/Hamburg): Oral History unter der Diktatur. Ethische und rechtliche Herausforderungen der Belarus-Forschung

Philipp Bayerschmidt (Erlangen) / Dennis Möbus (Hagen): Quantität und Qualität - Natural Language Processing in der Oral History

Anmerkungen:
1 Aufzeichnung der Release-Veranstaltung unter https://www.oral-history.digital/eroeffnung (27.11.2023).
2https://portal.oral-history.digital/de/catalog (27.11.2023).
3 BOLSA-Studie, https://bolsa.uni-halle.de/; in oh.de, https://portal.oral-history.digital/de/catalog/archives/456159 (15.11.2023).
4 Studie Generationsgegensätze (1967/1968), https://portal.oral-history.digital/de/catalog/archives/21894755 (15.11.2023).
5 Christina von Hodenberg, Das andere Achtundsechzig, Gesellschaftsgeschichte einer Revolte, München 2018.
6 Critical Edition Series, https://editions.fortunoff.library.yale.edu (15.11.2023).
7 Fortunoff Archive, https://fortunoff.library.yale.edu (15.11.2023).
8 Gabor Mihaly Toth: Let Them Speak, https://lts.fortunoff.library.yale.edu (15.11.2023).

https://www.historikertag.de/Leipzig2023/
Redaktion
Veröffentlicht am
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Englisch, Deutsch
Sprache des Berichts