Besprochene Sektionen:
Digitale Werkzeuge – eine Bereicherung für die Geschichtswissenschaft?
Digitale Projekte im Studium – eine Bereicherung?
Daten digital anreichern. Zwischen Archivangebot und Forschungsnachfrage
Während die vierten Schweizerischen Geschichtstage im Jahr 2016 in Lausanne noch gänzlich ohne explizite Einbeziehung des Digitalen auskamen, thematisierten drei Jahre später in Zürich, in der fünften Ausgabe, gleich mehrere Veranstaltungen den Bereich der Digital History. Ganz dem diesjährigen Rahmenthema „Reichtum“ verpflichtet, wurde in drei Panels aus unterschiedlichen Perspektiven die Frage nach der Bereicherung für das Fach und die Forschung durch den Einsatz digitaler Methoden und nach dem tatsächlichen Wert und den Konsequenzen großer, „reicher“ Datenbestände für die Arbeit der HistorikerInnen gefragt.1
Reich besucht waren dann auch die einzelnen Veranstaltungen, die mit dem Attribut „digital“ versehen waren, wobei zwei Panels das Bereicherungspotential digitaler Werkzeuge und Projekte vorsichtshalber mit einem Fragezeichen versehen hatten – bei den sechsten Geschichtstagen dürfte hier wohl ein Ausrufezeichen stehen.
Das erste Panel Digitale Werkzeuge widmete sich methodisch-technischen Fragen aus der Sicht der Forschung, um zu erörtern, ob die Anwendung computergestützter Instrumente und Arbeitsformen in der Geschichtswissenschaft einen Zugang zu bislang nicht berücksichtigten Bereichen bzw. Quellen bieten und welche Erkenntnisse die Kombination qualitativer und quantitativer Ansätze liefern kann.
MADELEINE HERREN-OESCH (Basel) stellte in ihrem Referat eine solche Gewinnung neuer, nicht eurozentristischer Quellenzugänge durch die Nutzung gemeinsamer Forschungsumgebungen über nationale und disziplinäre Grenzen hinweg vor. Die vorgestellten Asia Chronicles and Directories sind Jahrbücher, die zwischen 1863 und 1941 in vielen asiatischen Ländern vertrieben wurden und ab der Mitte des 19. Jahrhunderts ein wesentliches Mittel zur Konstituierung transkultureller Gesellschaften in Ostasien darstellten, enthielten sie doch unter anderem Informationen über vor Ort ansässige westliche Firmen, soziale und kulturelle Gemeinschaften, diplomatische Vertretungen und „foreign residents“.2 Die unterschiedlich stark strukturierten Inhalte der Quelle werden in verschiedenen annotationsbasierten Workflows voll- und semi-automatisiert extrahiert – der Aufbau einer digitalen Kollektion des gesamten Quellenbestandes, der physisch in keiner Bibliothek vorhanden ist, ermöglicht nicht nur die ortsunabhängige Zusammenschau aller Jahrgänge, sondern auch Erschließungsschritte über das gesamte Korpus. Hier betonte Herren-Oesch, wie wichtig es gerade für die Globalgeschichte sei, auch theoretisch und methodisch interdisziplinär zu sein und neue Formen kollaborativen Arbeitens zu etablieren. Dies habe wiederum Auswirkungen auf die zukünftige Entwicklung von Forschungsfragen und das eigene historische Arbeiten, wie beispielsweise die Produktion dialogfähiger Metadaten als neues Format für die (Global-)Geschichte, aber auch den Umgang mit Problemen wie Interoperabilität oder Fusionierung von Daten. Das Projekt nutzt die Plattform Hasdai,3 die ein breites Feld internationaler Projekte vereint, um Erschließungsergebnisse aus den Chronicles schrittweise zugänglich zu machen, beispielsweise Datensätze diplomatisch oder konsularisch tätiger Personen. Obwohl allein der Aufbau der digitalen Kollektion mit großem Aufwand verbunden war, lohne sich dieser aber in jedem Fall, weil so die Inhalte der Quelle grundlegend strukturiert und damit überhaupt erst für historiographische Aussagen nutzbar gemacht werden können.
Auch das von SUSANNA BURGHARTZ (Basel) vorgestellte Projekt „Printed Markets“ befasste sich anhand des Basler Avisblatts mit der Nutzbarmachung einer seriellen Quelle mithilfe digitaler Annotationen. Diese frühneuzeitliche Intelligenzzeitung, zwischen 1729 und 1845 durchgehend erschienen und vollständig erhalten, wurde bisher weniger für systematische Untersuchungen als für anekdotische Zwecke herangezogen. Dabei bietet sie sich durch den langen Erscheinungszeitraum und die Vielzahl unterschiedlicher Anzeigentypen als Untersuchungsobjekt für einen bzw. mehrere spezifische Märkte für das protoindustrielle Basel als Quelle an, anhand derer Konsum- und Produktionsfragen rund um die Transformation von einer Zunft- zu einer Marktwirtschaft bearbeitet werden können und die Vergleiche mit den besser untersuchten „miracle economies“ der Niederlande oder Englands ermöglicht. Die hierfür nötige umfassende digitale (Tiefen-)Erschließung der Quelle stellt daher einen wichtigen Bestandteil des vor wenigen Monaten begonnenen Projekts dar, in dessen Verlauf nach der bereits erfolgten Volltexterkennung auch die Erkennung und Klassifizierung der einzelnen Anzeigen (semi)automatisiert erfolgen soll.4 Hierfür seien kollaboratives Arbeiten, kurzfristige Teamarbeit und die Zusammenarbeit mit externen PartnerInnen unabdingbar, was Burghartz als neue wichtige Formen der Forschungs- und Zusammenarbeit bewertete. Neben eher klassisch-historisch arbeitenden wissenschaftlichen Mitarbeitenden sind im Projektkontext auch ein IT-Koordinator und ein Data Scientist involviert, deren Fragen im Zusammenhang mit technisch-infrastrukturellen Aspekten auch als inhaltlicher Input in das Projekt zurückflossen und eine große Bereicherung darstellten. Zusammenfassend sei die annotationsbasierte Vorgehensweise – eine der zentralen Tätigkeiten historischer Forschung – überführt in eine technische Umgebung eine immens wichtige Entwicklung. Durch diesen Transfer ins Digitale eröffneten sich ganz neue Möglichkeiten nicht nur für die eigene Forschung, sondern auch bezüglich Sichtbarkeit, Nachnutzbarkeit und Austauschbarkeit der so generierten Daten – sofern Standards eingehalten würden.
ERIC DECKER (Basel) schloss in seinem Kurzvortrag über Datensätze an die Projektvorstellungen von Herren-Oesch und Burghartz an, in denen er jeweils als IT-Koordinator arbeitet. Beiden Quellen, den Directories und dem Avisblatt, sei gemein, dass sie schwach bzw. nicht strukturierte Daten enthielten, die über eine Layoutsegmentierung in einzelne Datensätze mit entsprechenden Metadaten überführt werden könnten. Automatisiert erzeugte Datensätze – in den Directories beispielsweise „foreign residents“, Firmeneinträge oder Gesetzestexte, im Avisblatt Mietangebote, Arbeitssuche, Lotterieankündigungen oder Lebensmittelpreise – können in einem ersten Schritt manuell klassifiziert werden; diese Klassifikationen dienen dann als Grundlage für Automatisierungen, in denen Decker auch das große Bereicherungspotential digitaler Methoden sieht: Große Datenmengen seien nun erst bearbeitbar. Des Weiteren sei durch die Nutzung von Standards ein hohes Nachnutzungspotential der erzeugten Daten gegeben, und durch die in beiden Projekten praktizierte Annotation auf dem digitalen Bild gehe der Quellenkontext nicht verloren, wodurch eindeutige Referenzierbarkeit gegeben sei. Decker betonte ebenfalls, dass der Einfluss des Digitalen zu einer Begriffsschärfung in der historischen Forschung führe, weil technische Umgebungen immer auch ein großes Maß an Präzisierungen verlangten.
TOBIAS HODEL (Zürich) stellte in seinem Vortrag die Frage nach einem neuen Lesen und den Chancen der Handschriftenerkennung für die Geschichtswissenschaften. Auch er wies darauf hin, dass der digital turn viele Quellen erst zugänglich mache und gleichzeitig neue Formen der historischen Arbeit ermögliche bzw. erfordere. Die reine Digitalisierung stelle dabei aber nur den ersten Schritt dar, da Digitalisate erst dann einen Mehrwert besäßen, wenn sie nicht nur ein (Ab-)Bild der Quelle seien, sondern mit Informationen angereichert würden. Während diese Anreicherung in den zuvor vorgestellten Projekten verstärkt darin besteht, Quelleninformationen inhaltlich zu klassifizieren, zeigte Hodel in seinem Vortrag vor allem den Mehrwert von Texterkennung und den damit entstehenden anderen Zugriffen bzw. Zugriffsmöglichkeiten auf, stößt modernes OCR für vormoderne Quellen doch an seine Grenzen. Durch die Nutzung von machine learning sind hier erhebliche Fortschritte gemacht worden, wie Hodel am Beispiel der Software Transkribus zeigte.5 Das Programm, dessen EU-Förderung im Juni auslief und nun in eine Kooperative überführt wurde6, arbeitete bisher und auch in Zukunft im Verbund mit mehreren Teams an unterschiedlichen europäischen Instituten und Universitäten in positiver Konkurrenz – dieser Gedanke sei der Schrecken vieler GeisteswissenschaftlerInnen, stelle aber ein produktives Vorgehen für die Lösung unterschiedlichster technischer Probleme dar und dürfte auch Einfluss auf die Humanities haben. Die Bereicherung der Geschichtswissenschaft durch den Einsatz von machine learning sieht Hodel in der Art des Outputs: Ein Algorithmus werde dazu gebracht, aus einer bestimmten Eingabe eine bestimmte Ausgabe zu machen. Durch Input (eine Textzeile wird auf dem Bild als solche erkannt und durch korrekte manuelle Transkription des Textes trainiert) erzeuge die Maschine Output, der umso reicher sei: Der in Transkribus angezeigte erkannte Text ist die vom Algorithmus als am wahrscheinlichsten bewertete Transkription; alle darüber hinaus auch möglichen Lesarten sind (als csv-Tabelle mit Varianten) abgespeichert – und durchsuchbar. Dadurch lassen sich alle möglichen Lesungen einer Zeichenkette auch in mittelalterlichen Codices oder handschriftlichen Verwaltungsakten suchen – mit den passenden Texterkennungsmodellen. Die nächsten Entwicklungen des Programms zielen daher auch auf generische, d. h. für unterschiedliche Handschriften direkt nutzbare Modelle; weiterhin werden die Bereiche der Features und Named Entity Recognition und Topic Modeling, also die semantische Anreicherung von Text, weiterentwickelt und für die historische Forschung nutzbar gemacht.
In der Diskussion wurde unter anderem nach möglichen Nachteilen der Digitalisierung und computergestützten Erschließung gefragt, weil manche Quellen bzw. Inhalte durch Automatisierungsprozesse womöglich übergangen würden oder unbeachtet blieben oder nur in großen Unternehmungen mit entsprechender Förderung untersucht werden könnten. Burghartz verwies auf die mittelfristige Hoffnung, dass durch die vermehrte Durchführung von technisch unterstützten Projekten und durch projektübergreifende Zusammenarbeit die Lernfähigkeit in diesem Bereich steige und so auch kleinere Projekte von Entwicklungen profitieren können, wenn entsprechende Tools und Forschungsumgebungen öffentlich zugänglich und nutzbar gemacht würden. Herren-Oesch ergänzte zur Quellenfrage, dass sie erst durch das Digitalisat begriffen habe, wie grundlegend sich die Directories von anderen solcher Quellen unterschieden und dass erst das digitale Korpus das Chronistische der Quelle sichtbar mache; auch ermöglichten digitale Forschungsumgebungen die Untersuchung von Beständen für unterschiedliche Projekte aus verschiedenen Disziplinen quellen- und korpusübergreifendend, wodurch blinden Flecken entgegengewirkt werde. Eine weitere Frage betraf die nach der tatsächlichen inhaltlichen Bereicherung von computergestützter Erschließung und das Erkenntnispotential von Data Mining oder Topic Modeling, verbunden mit der Frage nach wirklich neuen Zugängen zur Vergangenheit. Hier betonte Herren-Oesch, dass die klassische Arbeit der HistorikerInnen bleibe, und dass ein Ziel, nicht nur der globalgeschichtlichen Forschung, auch sei, den Eurozentrismus zu überwinden, was gerade durch internationale Kollaborationen und Erschließung unbekannter Quellenbestände gelänge. Hodel entgegnete dem Vorwurf der Banalität mancher Text- oder Data-Mining-Ergebnisse, dass diese gerade zeige, ob ein Modell oder ein Algorithmus funktioniere – Topics, die man modelliere, entsprächen dem, was man erwarte. Dies bedeute, dass etwa ein Drittel der Ergebnisse aus Big-Data-Auswertungen banal, aber eine gute Testsonde sei. Die anderen zwei Drittel seien zur Hälfte unbrauchbar, zur Hälfte aber wirklich spannend und neu – und genau dort liege das Potential der Digital History. Burghartz ergänzte, dass alles andere nahezu fatal wäre, weil dies hieße, Menschen könnten ohne Maschinen nicht zu Erkenntnissen kommen. Die Hoffnung und auch der Zugewinn sei, über Muster auf Dinge aufmerksam zu werden, die sonst eventuell unbeachtet geblieben wären.
Das nächste, studentisch organisierte Panel, Digitale Projekte im Studium, stellte Eindrücke und Erfahrungen von Studierenden ebenso wie Lehrenden in Bezug auf digitale Tools und Techniken vor. Auch hier war die Resonanz groß, der dem Panel zugewiesene Raum zu klein – ein weiterer Hinweis auf die wachsende Bedeutung des Themas.
ISMAIL PRADA (Zürich) stellte die Online-Plattform AdFontes vor, die 2001 [!] als Lernprogramm für Archiv-/Transkriptionsarbeiten gestartet war und mittlerweile zu einer wichtigen digitalen Ressource für Studierende und Forschende geworden ist.7 Auch unter den ZuhörerInnen des Panels war die Plattform nicht nur weitgehend bekannt, sondern wird sie auch gern genutzt. Neben Übungsmaterial und Trainingsmöglichkeiten zur Entzifferung historischer Schriften finden sich darauf Tutorien und Hinweise auf weitere Online- und Offline-Ressourcen. Am meisten genutzt (5000 Unique Visits/Monat; die zweithöchste Zugriffsrate sind rund 1000/Monat) sei das Tool Cappelli online, mit dem das Lexicon abbreviaturarum nach lateinischen und italienischen Abkürzungen mittelalterlicher Texte durchsucht werden kann. Befragt auf die Potentiale und Probleme des Tools und vor allem die Nutzbarkeit bzw. Anwendbarkeit für das eigene Studium, wertete Prada die Transkriptionsübungen zwar als recht spezifisch; dennoch würden sie sich gut für das Erlernen allgemeiner wichtiger Regeln und Praktiken beim Umgang mit historischen Quellen eignen. Resonanz und Bekanntheit hätte die mehrsprachige Plattform vor allem in Deutschland und der Schweiz, von wo jeweils 50 bzw. 30 Prozent der NutzerInnen zugreifen. In Österreich hingegen scheint die Seite nicht bekannt zu sein, von dort kämen nur zwei Prozent aller Zugriffe. Eine Erhöhung der NutzerInnenzahl wäre sicher wünschenswert, ob über die Implementierung von Gamification, virtuellen Scores oder eines Social Network, bliebe zu überlegen.
MARTIN DUSINBERRE (Zürich) gab tiefere Einblicke in den Bereich der Gamification und stellte mit „Lives in Transit“ ein DACh-Projekt zu „serious gaming in the classroom“ vor.8 Dessen Ziele seien es zum einen, Geschichte neu und auf neue Art zu schreiben, indem digitale Techniken genutzt werden, zum anderen, Studierenden die hows von Geschichte beizubringen; und schließlich, eine neue Art interaktiven E-Learnings zu modellieren und eine Plattform für die Speicherung der Forschungsergebnisse aufzubauen. Die wichtigsten Erkenntnisse bisher seien, dass neben den sehr hohen Entwicklungskosten die zentralen Fähigkeiten, die Studierende lernen müssten, weniger im Bereich des Programmierens als im Management lägen – wo bekommt man welches Fachwissen, welche Fachkraft oder spezifische Unterstützung? Im Spiel selbst stehe eine Ablage im Zentrum, ähnlich einem virtuellen Einkaufswagen, in die während des Spiels durch Einsammeln Primärquellen abgelegt und mit Kommentaren und Gedanken versehen werden können; der Einkaufswagen verfügt also auch über ein Notizbuch. So entstehe die Möglichkeit, sich verändernde Gedankenprozesse im Verlauf der Forschung bzw. des Seminars nachzuvollziehen und nachzuverfolgen. Im Verlauf des Spiels gäbe es Bild- und Quellenanalysen mit Zeitrestriktionen und virtuellen finanziellen Belohnungen, und auch Sekundärliteratur werde auf unterschiedliche Arten integriert, beispielsweise durch Hinweise von anderen Spielcharakteren. Die in der Spielumgebung gemachten Erkenntnisse könnten exportiert und beispielsweise im Rahmen eines Essays oder eines Portfolios weiter genutzt werden. Neben dem ständigen Dialog mit dem EntwicklerInnen-Team gäbe es regelmäßige User- und Feedbackrunden mit Studierenden, die das Tool als nützlich und als interessante Erfahrung für ihr Studium bewerteten.
JEANNE PAMER (Zürich) präsentierte in ihrem Vortrag Erfahrungen mit und Erwartungen an digitale Projekte von Studierenden anhand der Ergebnisse einer im Vorfeld durchgeführten Umfrage. An den Universitäten Zürich, Basel und Bern wurden an alle Geschichtsstudierenden E-Mails mit dem Link zur Umfrage verschickt, ausgewertet werden konnten 83 komplett ausgefüllte Fragebögen, der Rücklauf war also eher gering. (Zu den Zahlen: 63 % Bachelor, 32 % Master, 5 % Doktorat, w: 56 %; m: 38 %; o.A.: 6 %; Zürich: 67,4 %; Basel: 23,3 %; Bern: 9,3 %.) Gefragt wurde unter anderem nach der Bekanntheit und Beliebtheit verschiedener Tools, Programme und Onlineangebote (AdFontes, auspicium, FILMSPUR, Lives in Transit, Digitaler Werkzeugkasten, Infoclio, Datenbanken, Blogs) – über 50 Prozent der Teilnehmenden kannten einen Großteil des Genannten nicht, diejenigen mit Nutzungserfahrung bewerteten die meisten als gut und kannten sie vornehmlich von Dozierenden oder aus Einführungskursen. Über 90 Prozent gaben an, sie würden digitale Tools und Angebote in Zukunft mehr nutzen wollen, ebenso wie Kurse besuchen, in denen entsprechende Programme erlernt werden können. Der Einbezug digitaler Angebote und das Erlernen von computergestützten Techniken und Methoden in der Lehre ist stark gewünscht, 75 Prozent antworteten hier mit „ja“ bzw. „eher ja“. Die Vorteile sahen die meisten in der Erleichterung des Zugangs zu Quellen, der Ortsunabhängigkeit, der Verarbeitung größerer Datenmengen, der Zeitersparnis und der Möglichkeit, andere Forschungsschwerpunkte und Fragestellungen zu entwickeln. Als Nachteil empfunden wurden mögliche Abhängigkeiten von Infrastrukturen bzw. deren Vergänglichkeit, das langwierige Erlernen neuer Programme und eine gleichzeitige fehlende Vertiefung durch zu viele Angebote; Gamification wurde eher kritisch bewertet, Forschung sei der falsche Rahmen, und auch eher ideologischer Widerstand fand sich vereinzelt – die „wahre“ Forschung im Archiv ginge verloren. Zusammenfassend ließe sich sagen, dass der Wunsch nach Veranstaltungen zu digitalen Tools und der Einbezug digitaler Forschung bei den beteiligten Studierenden stark sei, wobei der spezifische Einsatz jeweils vom Kontext – in Forschung, Lehre, Vermittlung – abhinge.
In ihren Kommentaren wiesen MORITZ FEICHTINGER und TOBIAS HODEL (beide Zürich) auf die zentrale Bedeutung der Eigeninitiative der Studierenden als wichtig(st)en Faktor für den Umgang und die kritische Reflexion mit digitalen Tools hin. Auch erfordere digitale Vermittlung neue Fertigkeiten – die Lehrenden müssten selbst neu lernen und ExpertInnenrat einholen, und die Schnelllebigkeit der digitalen Welt mache eine Orientierung schwierig. Hilfe und Austausch seien hier wichtig und böten Chancen. Beide wiesen darauf hin, dass auch die digitale Geschichte weiterhin Geschichte sei und auch hier von Hypothesen geleitete Fragestellungen wichtig und nötig seien – Gamification und Crowdsourcing müssten zur kritischen und eigenständigen Nutzung von Angeboten animieren und sollten kein Selbstzweck sein.
In der anschließenden Diskussion ging es vor allem um die Frage nach der Vermittlung digitaler Tools und deren Ein- bzw. Ausschlusspotentiale. Konsens bestand darin, dass an vielen Universitäten nicht klar sei, wo und durch wen übergreifende Softwarekompetenzen für eine digital literacy zu erlernen seien und worin diese bestünden. Auch sei die Rückbindung einer Technik oder Methode an eine spezifische Fragestellung wichtig, da Kenntnisse sonst verpuffen würden. Allerdings sei die Vermittlung von methodisch-kritischen Kompetenzen und Software (zu) viel für eine Semesterveranstaltung. Eine ausgelagerte Vermittlung analog zu (kaum mehr erforderlichen) Lateinkenntnissen sei hier vielleicht denkbar, denn das reguläre Curriculum lasse die Einbringung digitaler Kompetenzen von bereits technisch fähigen Lehrenden meist nicht zu. Ein weiteres Problem seien die Kenntnisse auf Dozierendenseite; wenn diese selbst (zu) wenig Kompetenzen hätten, zeigten sie womöglich auch Widerstand (wobei Feichtinger die SkeptikerInnen aufforderte, sich erst einen profunden Überblick zu verschaffen, bevor sie umfassende Kritik übten). Interessierte Lehrende hingegen sollten Weiterbildungsmöglichkeiten und Wissenstransfer im digitalen Bereich einfordern und über einen Wandel in den Formen von Lehrveranstaltungen nachdenken, beispielsweise die Einrichtung methodischer Labs, eine tageweise Zusammenarbeit mit ExpertInnen oder auch die Etablierung fester Räume und Zeiten mit kompetenten AnsprechpartnerInnen. Hinsichtlich des „richtigen“ Verhältnisses von Analogem und Digitalem kam auch die Sorge nach dem Verlust der Materialität und der lokalen Archivarbeit durch fortschreitende Digitalisierung auf. Hier wurde entgegnet, dass bereits mit dem Aufkommen des Buchdrucks und gedruckter Editionen die Tatsache, dass eine singuläre Quelle auch ortsunabhängig konsultiert werden könne und reproduzierbar ist, nicht neu sei, und für gewisse Fragestellungen sei tatsächlich nur der Text, für andere aber sicher weiterhin die Arbeit mit dem Original nötig. Auch Fragen nach der Zuständigkeit für die Entwicklung von Tools ebenso wie nach deren Nachhaltigkeit kamen auf: Stehen Entwicklungs- und Erhaltungskosten in einem guten Verhältnis, wenn nur einzelne Projekte für wenige Jahre davon profitieren? Dusinberre plädierte dafür, dass sich Denkweisen ändern müssten – während des Entwicklungsprozesses des Spiels gab es wertvolle Erkenntnisse auch hinsichtlich seines Zugangs zu den verschiedenen Quellen; auch sei zu unterscheiden zwischen dem Outcome eines Spiels selbst und den Lerneffekten und -prozessen währenddessen, die auch Einfluss auf die historische Arbeit haben können. Hodel wies darauf hin, dass im deutschsprachigen Raum täglich etwa drei Stellen ausgeschrieben würden, die nach Kompetenzen im Bereich der Digital History / Digital Humanities fragen – als Ergänzung zu analogen Kenntnissen. Als Fazit wurde festgehalten, dass sich Strukturen innerhalb der Universitäten wandeln müssen, damit Tools besser genutzt werden bzw. werden können, und dass neben einzelnen Dozierenden besonders die ProfessorInnen am Zug seien, um digitale und analoge Forschung und Lehre in einen fruchtbaren Dialog zu bringen und zu halten und auch infrastrukturelle und curriculare Aspekte zu klären.
Im dritten Panel Daten digital anreichern wurde auch die institutionelle Seite miteinbezogen, um über Archivangebote und Forschungsnachfragen unter rechtlichen, technischen und ökonomischen Aspekten nachzudenken; auch hier fanden sich rund siebzig interessierte ZuhörerIinnen ein.
MARTIN LENGWILER (Basel) brachte die Sicht der Digital History auf Archive bezüglich der Umgangspraktiken mit Archivdaten ein, wobei er zu Beginn darauf hinwies, dass Vieles, was als Digital History gelabelt sei, schon lange gemacht werde, man denke nur an die Kliometrie. Er stellte mehrere Forschungsprojekte vor, an denen er beteiligt ist und die auf unterschiedlichen Ebenen digitale Geschichte betreiben, dabei oftmals aber auch viel manuelle Arbeit enthalten. Für die Analyse der „Global Cultures of Risk“ stünde unter anderem die Extrahierung von Statistiken aus verschiedenen Versicherungszeitschriften im Fokus;9 hier sei aufgrund der sehr divergenten Darstellung in den Quellen viel Handarbeit nötig. In einer seriellen Quelle, den von Herren-Oesch bereits vorgestellten Directories and Chronicles, versuche er, die historischen Netzwerke von Personen sichtbar zu machen, was neben der Erstellung von Automatisierungsvorgängen auch den Abgleich mit Archivalien erfordere. Seine Erkenntnisse aus diesen Projekten seien, dass blended approaches, die Kombination digitaler Zugänge mit traditionellen hermeneutischen Methoden, sehr fruchtbar seien, aber auch, dass Daten nicht gleich Daten seien – die Normalisierung von extrahierten Daten erweise sich mitunter als sehr aufwendig. Das Potential nicht-hermeneutischer Ansätze wie dem distant reading müsse sich aus seiner Sicht für die jeweiligen Bestände noch erweisen. Als Bedürfnisse gegenüber den Archiven formulierte er vier zentrale Punkte: Die Arbeitsteilung zwischen Archiven und Forschung sollte hinterfragt werden, da ein erhöhter Kooperations- und Abstimmungsbedarf bestehe; im Bereich der Digitalisierung müssten die Archive die kurzfristige Logik der Forschung berücksichtigen, im Sinne einer unproblematischen Digitalisierung on demand; durch die zunehmende Bedeutung formaler Eigenschaften einer Quelle (also ihrer Metadaten) sollte die Forschung von den Qualifikationen der Archive profitieren; schließlich plädierte er für neue Kooperationsformate wie gemischte Laboratorien.
BEAT GNÄDINGER (Zürich) gab Einblicke in die Möglichkeiten, 39 Kilometer Geschichte nutzbar zu machen – angesichts der riesigen Datenvolumen, die Regierung und Verwaltung produzieren, könne nur ein kleiner Teil digitalisiert werden. 2007 entschied daher das Staatsarchiv Zürich, vier zentrale Serien aus der Vormoderne als digitale Volltexte verfügbar zu machen: die Regierungsratsbeschlüsse, die Kantonsratsprotokolle, die Offizielle Gesetzessammlung und das Amtsblatt. Damit würden Überlieferungsstränge, Gesetzgebungsprozesse, relevante Stichwörter und Spuren zu Aktenbeständen sichtbar, auch wenn es sich um eine spezifische Auswahl aus einer großen Überlieferung handele. Die Aufbereitung von weiteren Serien sei in Planung (das Staatsarchiv ist Teil der READ-Kooperative, zu der Transkribus gehört), die meisten Akten seien und blieben aber weiterhin nur analog verfügbar. Daneben würden aber die Zugriffsmöglichkeiten ständig optimiert, durch Online-Portale (z. B. Archives online, Portal Vormoderne Quellen) und Direktzugriffe (Quickaccess), wodurch eine gute Forschungsgrundlage bestehe und eine weiterhin enge Zusammenarbeit mit der Forschung gesichert sei.
MICHAEL GASSER (Zürich) zeigte den Weg vom Digitalisat zum digitalen Service und stellte Bestände und Angebote der ETH-Bibliothek vor, wobei auch er darauf hinwies, dass die Digitalisierung einen Einfluss auf die Verschränkung von historischer Gedächtnisinstitution und historischer Forschung habe bzw. haben müsse, um blinde Flecken zu vermeiden. Die ETH-Bibliothek verfügt über ein Hochschul- und ein Bildarchiv, dessen Digitalisierung seit über fünfzehn Jahren Teil der täglichen Arbeit sei. Eingebettet seien diese Digitalisate dabei in die digitale Bibliothek der ETH, wobei digitale Publikationen und die Digitalisierung von Altbeständen bzw. Archivgut lizenziert sind. Für die Sammlungen und Archive der ETH fänden seit 2015 breit angelegte Digitalisierungs- und Erschließungsprojekte statt, und durch eine Open Data Policy und die Einbindung in Suchportale seien die digitalisierten Bestände gut find- und nachnutzbar. Auch hier gelte, dass nur eine Auswahl digitalisiert werden könne, und auch hier liegt ein Schwerpunkt auf zentralen Serien. Eine weitere Auswahl wird bestimmt durch bestehende und fallende Schutzfristen, ebenso durch die Finanzierung aus Sonder- und Drittmitteln oder durch spezifische Forschungsprojekte. Mehrere Plattformen sind aus den digitalen Strategien entstanden10, aber die Mehrheit der Bestände bleibe analog, eine Volldigitalisierung sei nicht das Ziel. Dafür würden die digitalen Services ausgebaut: Schnittstellen für die plattformunabhängige Nutzung der digitalisierten Bestände über eine API ebenso wie für IIIF sind implementiert. Im Bereich der Datenanreicherung werde manuell mit Crowdsourcing gearbeitet, beispielsweise für die Georeferenzierung oder die Transkription von Quellen. Die Katalogeinträge würden u. a. via histhub11 mit Linked Open Data angereichert. Gasser richtete an die Forschenden die Frage, welche Weiterentwicklungen sie sich wünschen, u. a. in den Bereichen Schnittstellen, Datenanreicherung und Suche, da Optimierungen in diesen Feldern nur wirksam sein könnten, wenn auch Rückmeldungen aus der Forschung kämen.
In ihrem Kommentar stellte ALIX HEINIGER (Lausanne) fest, dass Tools bzw. Methoden wie Netzwerkanalyse oder GIS-Visualisierung in jüngeren Forschungsanträgen vermehrt auftauchten und zwar nichts gänzlich Neues darstellten, der Trend jedoch weiter ansteigend sei. Sie stellte die Demokratisierung vieler Tools heraus, die einer breiteren Zahl an Interessierten die Nutzung möglich machten und auch zu vertieften bzw. verfeinerten Möglichkeiten der Quellenanalyse führten. Es müsse allerdings unterschieden werden zwischen einer reinen Datenanalyse und der Analyse für ein historisches Argument oder Fragestellung, denn vergessen werden dürfe nicht, dass die existierenden Methoden auch an Inhalte zurückgebunden werden müssten. Fragen nach der Aufbewahrung, Aufbereitung und nachhaltigen Zugänglichkeit hingen immer auch an personellen und technischen Faktoren, und in manchen Fällen stehe die Entscheidung, ob Gelder für Menschen oder den Einsatz von Maschinen eingesetzt werden sollen. Auch Heiniger warf die Frage nach dem Einfluss der Selektion des Digitalisierten auf die Forschung auf, ebenso wie die nach der Qualität und Art der bereitgestellten Metadaten durch Institutionen im Gegensatz zur Crowd.
Die Diskussion nahm dann auch die Frage nach Metadaten und Standards auf, wobei Gasser betonte, dass die Hinweise und Inputs der Crowd sehr wertvoll seien, da sie die Arbeit der Institutionen ergänzten. Eine Prüfung und Kennzeichnung dieser Beiträge sei dabei durch interne Kontrollen sichergestellt. Daten aus universitären Forschungsprojekten würden vom Forschungsdatenmanagement der ETH übernommen und nachhaltig gespeichert. Die Befürchtung, dass in Archiven und Bibliotheken die analoge Nutzung und damit auch das analoge Angebot zurückgehe, konnte Gnädinger entkräften; er sehe vielmehr, dass die digitale die analoge Nutzung unterstütze: Würden die NutzerInnen im Netz abgeholt, kämen sie meist auch ins Archiv. Auch der Neubau des Zürcher Staatsarchivs kombiniere analoge und digitale Arbeitsweisen, und durch eine außer Haus online stattfindende Vorbereitung auf die Quellen könne vor Ort die Arbeit besser und gezielter geschehen. Gegen die Gefahr, dass bereits Digitalisiertes eher für Untersuchungen herangezogen wird und andere Bestände aus dem Blick gerieten, könnte, so das Fazit des Panels, nur gemeinsam gearbeitet werden; hier seien die Institutionen ebenso wie die Forschungseinrichtungen und die einzelnen Forschenden in der Bringschuld. Die digitalen Geschichtswissenschaften bergen großes Potential, nicht nur durch die An- bzw. Bereicherung von Forschung und Forschungsdaten, sondern auch durch die Diskussionen, die sich bei der Anwendung digitaler Techniken auf unterschiedlichen Ebenen ergeben; das wurde in allen Panels deutlich. Diese Diskussionen betreffen dabei keineswegs nur die digitale Forschung, sondern alle Bereiche geschichtswissenschaftlicher Arbeit. Es bliebe zu wünschen, dass dieser Austausch bei den sechsten Geschichtstagen nicht mehr nur innerhalb separierter Sessions stattfindet, sondern digitale Methoden und Vorhaben neben anderen Quellenzugängen und Projektvorstellungen in thematisch bzw. zeitlich zusammengestellten Panels stehen und in ihrer ganzen, auch inhaltlichen Breite wahrgenommen und diskutiert werden.
Konferenzübersicht:
Digitale Werkzeuge – eine Bereicherung für die Geschichtswissenschaft?
Verantwortung: Susanna Burghartz und Eric Decker (Basel)
Madeleine Herren-Oesch (Universität Basel): Die Asia Chronicles and Directories: eine Globalgeschichte von unten
Susanna Burghartz (Universität Basel): Zwischen Anekdote und Massenquelle. Bildgestützte Datenbanken als neue Erschließungsmöglichkeit für historische Anzeigenblätter
Eric Decker (Universität Basel): Vom Datenschatz zum Datensatz (Kurzvortrag)
Tobias Hodel (Universität Zürich / Staatsarchiv Zürich): Neues Lesen? Chancen der Handschriftenerkennung für die Geschichtswissenschaften
Digitale Projekte im Studium – eine Bereicherung?
Verantwortung: Jeanne Pamer und Johanna Bregenzer (Zürich)
Ismail Prada (Universität Zürich): AdFontes – Online Lernprogramm fürs Archiv
Martin Dusinberre (Universität Zürich): Lives in Transit: Serious Gaming in the Classroom
Jeanne Pamer (Universität Zürich): Die Zukunft mitgestalten: Erfahrungen mit und Erwartungen an digitale Projekte von Studierenden
Kommentar: Tobias Hodel, Moritz Feichtinger (Universität Zürich)
Daten digital anreichern. Zwischen Archivangebot und Forschungsnachfrage
Verantwortung: Tobias Hodel und Beat Gnädinger (Zürich)
Martin Lengwiler (Universität Basel): Digital History – Umgangspraktiken mit Archivdaten
Michael Gasser (ETH Zürich): Vom Digitalisat zum digitalen Service. Angebote und Potential der Sammlungen und Archive der ETH-Bibliothek
Beat Gnädiger (Staatsarchiv Zürich): 39 Kilometer Geschichte nutzbar machen
Kommentar: Alix Heiniger (Universität Lausanne)
Anmerkungen:
1 Das Panel Zur Kritik der digitalen Ökonomie und das Panorama How digital is the future of public history? blieben für diesen Bericht außen vor; vgl. die Abstracts unter https://www.geschichtstage.ch/panel/105/zur-kritik-der-digitalen-konomie und https://www.geschichtstage.ch/panorama/4/how-digital-is-the-future-of-public-history (letzter Zugriff am 15.7.2019).
2 Eine Projektbeschreibung findet sich unter https://europa.unibas.ch/de/forschung/globalgeschichte-europas/global-information-at-a-glance (letzter Zugriff am 15.7.2019).
3https://hasdai.org, erste Ergebnisse der Auswertung der foreign residents list unter https://adc.basel.hasdai.org/ (letzter Zugriff am 15.7.2019).
4 Eine Projektbeschreibung findet sich unter https://avisblatt.ch (letzter Zugriff am 15.7.2019).
5 Vgl. https://transkribus.eu/Transkribus/ (letzter Zugriff am 15.7.2019).
6 Preismodelle für individuell Forschende sind bisher noch nicht publiziert; geplant ist, 1000 Seiten/Person weiterhin kostenfrei auf die Transkribus-Server hochladen zu können.
7https://www.adfontes.uzh.ch/ (letzter Zugriff am 15.7.2019).
8 Eine Projektbeschreibung findet sich unter https://www.hist.uzh.ch/de/fachbereiche/neuzeit/lehrstuehle/dusinberre/forschung/projekte/Lives-in-Transit/Sub-project-A1.html (letzter Zugriff am 15.7.2019).
9 Eine Projektbeschreibung findet sich unter https://www.culturesofrisk.net (letzter Zugriff am 15.7.2019).
10http://ad.e-pics.ethz.ch (Bilddatenbank); https://www.e-manuscripta.ch/ (Archivgut); http://www.einstein-online.info (Einstein); http://www.sr.ethbib.ethz.ch/ (Schulratsprotokolle) (letzter Zugriff am 15.7.2019).
11https://histhub.ch/, eine Forschungsplattform für die historischen Wissenschaften, die Normdaten zur Schweizergeschichte verwaltet und digitale Werkzeuge zum Vernetzen von Datenbeständen entwickelt (letzter Zugriff am 15.7.2019).