Editionsportale

Organizer(s)
Martin Prell, Friedrich Schiller-Universität Jena
Location
Jena
Country
Germany
From - Until
03.08.2017 - 04.08.2017
Conf. Website
By
Swantje Dogunke, Forschungsverbund Marbach Weimar Wolfenbüttel; Christian Hain, Klassik Stiftung Weimar

Die digitalen Geisteswissenschaften des 21. Jahrhunderts würden vor ähnlichen Herausforderungen stehen wie die Gründer von Editionsreihen historischer Dokumente vor fast 200 Jahren. Daran erinnerte JULIA A. SCHMIDT-FUNKE (Sammlungs- und Forschungsverbund Gotha, Editionsportal Thüringen) in ihrer Begrüßung mit einem Zitat des Freiherrn Karl vom Stein, der die Monumenta Germaniae Historica ins Leben rief: Damals wie heute müssten nun die Digital Humanities regionale und nationale Grenzen überwinden, Gelder bei Zuwendungsgebern einwerben, die Relevanz ihrer Methodik begründen und sich vor allem mit Gleichgesinnten zusammenschließen.

Diesen Gedanken aufgreifend, organisierte MARTIN PRELL (FSU Jena) den Workshop in der ersten Förderphase des von der Thüringer Staatskanzlei geförderten „Editionsportals Thüringen“ und ermutigte das Plenum, mit Feedback den Aufbau der digitalen Editionsumgebung zu begleiten. Ziel des neuen Portals sei es, Editionen in einem gemeinsamen Onlineportal erforschbar und dauerhaft für die Öffentlichkeit zugänglich zu machen. Prell betonte den transdisziplinären Ansatz des Editionsportals, das bereits 2018 aufgesetzt werden und auf bestehende Strukturen der Thüringer Universitäts- und Landesbibliothek (ThULB) zurückgreifen soll. Ausgehend von seinen während der Arbeit an der „Digitalen Edition der Briefe Erdmuthe Benignas von Reuß-Ebersdorf“ gesammelten Erfahrungen ermunterte Prell Editionsvorhaben ohne Eigenportal-Ambitionen zur Nutzung des neuen Angebots, das mit XML-basierten Meta- und Volltextdaten, Digitalisaten, Registern, Paratexten, Visualisierungen, gezielten Such-, Sortierungs- und Filteroptionen eine wissenschaftlich hochwertige digitale Publikationsumgebung böte. Für Prell eröffne sich einerseits die landesgeschichtlich bedeutsame Möglichkeit, die Heterogenität und Pluralität Thüringens sichtbar zu machen. Andererseits sei das Portal ein wichtiger Beitrag zur Erprobung und Weiterentwicklung der digitalen Geisteswissenschaften. Er gab zu bedenken, dass ein Editionsportal projektspezifische, aus der Heterogenität der Materialien resultierende und gesamtportalische Interessen gleichermaßen verbinden müsse. Die Bedürfnisse der unterschiedlichen Nutzergruppen (u. a. akademische Gemeinschaft, Lehrende, Studierende, interessierte Öffentlichkeit) seien dabei ebenso zu berücksichtigen wie die Verwendung gemeinsamer Normdaten und Datenstandards.

THOMAS MUTSCHLER-HERRMANN (ThULB Jena) erläuterte den Einsatz der Universal Multimedia Electronic Library (UrMEL). Das seit 2001 existierende Portal der ThULB stellte anfänglich Hochschulschriften der FSU Jena digital zur Verfügung und habe sich in den letzten anderthalb Jahrzehnten zu einem multimedialen Angebot weiterentwickelt. Es werde von unterschiedlichen Kooperationspartnern (u. a. FSU Jena, DFG, Klassik Stiftung Weimar) unterstützt und präsentiere in einem Viewer inzwischen ca. 8 Mio. digitale Einheiten. Gegenwärtig nutzten mehr als 60 Projekte die Plattform mit sehr heterogenen Materialien. Bezugnehmend auf das Thema des Workshops verwies Mutschler-Herrmann explizit auf collections@UrMEL, eine digitale Publikationsplattform für Handschriften und Archivalien, sowie auf journals@UrMEL, einen Auftritt für wissenschaftliche und historische Zeitschriften, Artikel und Periodika.

SILVIO HERMANN (ThULB Jena) erläuterte nach einer Einführung in das Framework MyCoRe dessen spezifische Anwendung in der ThULB als medienübergreifende Plattform UrMEL. Der Architekturüberblick verdeutlichte das Zusammenspiel der einzelnen Komponenten, um die verschiedenen Arbeitsprozesse zu realisieren, wie z. B. die auf SOLR basierende Suche. Die Weiterentwicklung von UrMEL konzentriere sich auf die ansteigende Heterogenität der digitalen Quellen oder der verbesserten parallelen Darstellung von Quellen, Strukturdaten und XML-TEI-Transkriptionen im eigenen Viewer. Ergebnisse aus einem Pilotprojekt mit der Deutschen Nationalbibliothek zeigten, dass ein mit „preservation metadata“ angereicherter Export aus UrMEL für das Einspeisen in ein digitales Langzeitarchiv geeignet ist.

TIMO STEYER (Forschungsverbund Marbach Weimar Wolfenbüttel) und DAVID MAUS (Herzog August Bibliothek Wolfenbüttel) berichteten über die digitalen Editionen innerhalb der Wolfenbütteler Digitalen Bibliothek (WDB). Mit Beginn der Massendigitalisierung des kulturellen Erbes Ende der 1990er-Jahre in Wolfenbüttel und der Etablierung der digitalen Geisteswissenschaften sei der Ruf nach kommentierten Volltexten immer lauter geworden. Die daraus resultierenden Anforderungen gingen weit über den ersten Bedarf – der Darstellung der digitalisierten Bestände – hinaus und formten das heutige Angebot der WDB mit u.a. etwa 250 digitalen Editionen. Auch extern erstellte digitale Editionen könnten in die WDB aufgenommen werden, sofern sie einen Bezug zur Sammlung aufwiesen und die internen Standards hinsichtlich der Verwendung von Normdaten und den hauseigenen Transkriptionsregeln in XML-TEI entsprächen. Steyer führte weiter aus, dass sich die Bibliothek als Dienstleister verstehe, der die entsprechende Infrastruktur zur Verfügung stelle und Adressierbarkeit und Verfügbarkeit gewährleiste. Abschließend widmete sich Maus der Frage, wie digitale Editionen überhaupt publiziert werden. Er unterstrich die Unterscheidung zwischen dem XML-Quelldokument und den Web-Dokumenten, die eine flexible softwareunabhängige Darstellung ermöglichten. Er betonte die Forderung nach Verwendung von Normdaten.

TORSTEN SCHRADE (Akademie der Wissenschaften und der Literatur Mainz / Hochschule Mainz) stellte die durch die Digitale Akademie realisierten Portallösungen vor, die projektspezifisch entwickelt werden und deren Grundaufgabe die Verknüpfung von Quellen und Diensten sei. Schrade berichtete, dass die betreffenden Projekte stets zwei Arten von Anforderungen hätten. Zum einen seien dies generische: die Projektdarstellung auf einer Webseite, der News-Bereich, die Möglichkeit zur Einbindung crossmedialer Inhalte sowie die Option zur Publikation von Projektergebnissen und die üblichen Vorteile eines Content Management Systems. Hinzu kämen projekt- und datenspezifische Anforderungen; im Fall von digitalen Editionen könnten dies die Verwendung von Permalinks zur Gewährung der Adressierbarkeit, die zeilengenaue Zitierbarkeit und eine Versionierung von Vorstufen sein. Am Beispiel des Cultural Heritage Framework zeigte Schrade die Vorgehensweise seines Teams; der modulare Aufbau wird an den Augsburger Baumeisterbüchern deutlich. In diesem Fall seien die Transkriptionen mit der virtuellen Forschungsumgebung FuD erstellt und nach einem Korrekturschritt an das Framework übergeben worden.

Der Vortrag „Vernetzte Edition. DTABf, ediarum und Deutsches Textarchiv“ von STEFAN DUMONT und SUSANNE HAAF (Berlin-Brandenburgische Akademie der Wissenschaften BBAW, Berlin) zeigte die Möglichkeiten der Verknüpfung von Diensten aus vergangenen Projekten der BBAW. Schnell wurde der Mehrwert einer Kombination von kuratierten Datenquellen aus dem Deutschen Textarchiv (DTA), eigenentwickelten und externen Diensten und digitaler Editionsumgebung deutlich. Dumont und Haaf unterstrichen die Bedingungen für ein Gelingen: die Verwendung von Standards in der Datengenerierung. Erfolgsentscheidend seien zudem weitergehende hausinterne Richtlinien zur Interoperabilität. Es reiche also nicht, Transkriptionen in XML-TEI zu erstellen, die eigentliche Aufgabe beginne bei der Spezifizierung: den ODDs für das jeweilige Anwendungsgebiet. In einem projektübergreifenden Blick müssten die einzelnen ODDs verkettet werden, um die Heterogenität des Ausgangsmaterials abzufangen. Anschließend könnten aus den projektspezifischen Services generische Apps oder Module entwickelt werden, die für andere Projekte nachnutzbar wären. Als Erfolgsfaktoren für „Vernetzte Editionen“ wurden zudem die Veröffentlichung von Forschungsdaten unter freien Lizenzen, die Bereitstellung und Dokumentation von Schnittstellen und erneut die Verwendung von Standards und Normdaten genannt.

PETER DÄNGELI und FRANZ FISCHER (Universität zu Köln) untersuchten in ihrem Vortrag mögliche technische Konvergenzen von digitalen Editionen, die am Cologne Center for eHumanities (CCeH) in Köln betreut und realisiert wurden. Mit dem Eingangszitat „tous les cas sont speciaux“ wies Fischer bereits auf die verschiedenen Umsetzungen hin und fasste die Faktoren zusammen, die hierzu führten: Die Forschungsgegenstände, die Edierenden und deren fachliche Herkunft, die Datengrundlage und schlussendlich die Nutzergruppen bestimmten das Endprodukt. Die Arbeit des CCeH bestünde nun weniger darin, als zentraler Dienstleister ein fertiges Produkt anzubieten. Vielmehr müsse mit den beteiligten Wissenschaftlerinnen und Wissenschaftlern ein passgenaues Angebot entwickelt werden, um die Forschungsprozesse digital zu unterstützen. Die Gemeinsamkeiten der Vorhaben lägen in der Herangehensweise, der Verwendung von Datenstandards und Normdaten sowie der strikten Trennung von Form und Inhalt. Eine technische Konvergenz sei bisher nur in Grundzügen zu erkennen, solle aber bei folgenden Projekten beachtet werden.

BEATA MACHE (Staats- und Universitätsbibliothek Göttingen) nahm den Aspekt der fehlenden technischen Konvergenz im anschließenden Vortrag „TextGrid. Virtuelle Forschungsumgebung für die Geisteswissenschaften“ auf und bestätigte diesen Eindruck. Eine mögliche Ursache könne darin liegen, dass einige Projekte aufgrund ihrer geringen Größe oder fehlender institutioneller Anbindung keine vorhandene Infrastruktur nutzen könnten. Sie betonte, dass Angebote wie TextGrid gerade für diese Forscherinnen und Forscher eine große Hilfe darstellten und durch die Nutzung eines gemeinsamen Angebots teilweise eine technische Konvergenz erreicht werden könnte. Sie stellte die Bestandteile von TextGrid (LAB, Repository und Community) vor und wies auf den modularen Charakter hin. Sie betonte den Forschungsaspekt von Projekten wie „Fontanes Notizbücher“, die einen gängigen Forschungsgegenstand betrachteten und in der Umsetzung die Grenzen von Infrastruktur und Werkzeugen ausloteten, dadurch neue Sichtweisen erschüfen und die Entwicklung selbiger beeinflussten. Auch Projekte mit eher ungewöhnlichen Daten, wie „Textdatenbank und Wörterbuch des Klassischen Maya“, stellten neue Anforderungen an generische Infrastrukturangebote und trügen so zur Weiterentwicklung bei.

Mit „Ad fontes“ und „Transkribus learn“ stellte TOBIAS HODEL (Historisches Seminar Universität Zürich) zwei digitale Ansätze zur Vermittlung historischer Hilfswissenschaften vor. Im Zuge der Digitalisierung könnten sich auch die historischen Hilfswissenschaften nicht länger nur traditioneller Methoden bedienen. Im Sinne einer Demokratisierung des Wissens bildeten „Ad fontes“ und „Transkribus learn“ zwei Tools für Studierende und Interessierte, den wissenschaftlichen Umgang mit historischen Quellen zu erlernen. „Ad fontes“ biete einen mehrdimensionalen Zugang zu historischen Hilfswissenschaften und benachbarten Disziplinen (u. a. Numismatik, Latein, Germanistik). Neben kontextualisierenden und erläuternden Beiträgen, Literaturempfehlungen und weiterführenden Links beinhalte das Portal zudem themenspezifische Tools, etwa für Fragen zur Datierung oder zur Auflösung von Abkürzungen. Paläographische Kenntnisse können an unterschiedlichen Schriften erworben werden; zudem biete das Tool den Lernenden bei Bedarf weiterführende Tipps und Hilfen. Demgegenüber sei „Transkribus learn“ – basierend auf „Transkribus“ in einer Beta-Version verfügbar – ausschließlich zur Vermittlung paläographischer Fertigkeiten konzipiert worden. Den Lernenden werden einzelne Zeilen einer Handschrift präsentiert, um diese zu transkribieren. Die Transkriptionen der Nutzerinnen und Nutzer werden mit hinterlegten Lösungen verglichen, wobei keine Varianten erfasst und bei der Beurteilung berücksichtigt werden.

In der abschließenden Diskussionsrunde nannte Martin Prell die besonderen Herausforderungen, der sich alle Editionen und Editionsportale stellen müssten. Prell identifizierte in diesem Zusammenhang zwei Typen von Portalen: Zum einen gebe es passgenaue projektspezifische Portale, die auf die Bedürfnisse einzelner Editionen zugeschnitten wurden; bspw. die vom CCeH oder der Digitalen Akademie Mainz betreuten digitalen Editionen. Zum anderen könnten in der WDB, im DTA, in TextGrid oder in dem im Aufbau befindlichen Editionsportal Thüringen Einzelprojekte ohne Eigenportal-Ambitionen arbeiten, indem sie sich auf Mindestanforderungen und -standards des Portals einließen.

Unabhängig davon wurde in der Diskussion deutlich, dass die spezifischen Forschungsergebnisse in einer immer komplexeren digitalen Wissensumgebung sichtbar werden und bleiben müssten. Zum einen dürfe dabei der Einfluss etablierter und populärer Suchmaschinen nicht unterschätzt werden. Dies sei auch in der Konzeption von digitalen Angeboten zu bedenken und mit geringem Aufwand ließe sich die Sichtbarkeit der Forschungsergebnisse erhöhen. Deren Trefferlisten zeigten unter Umständen nur Einzelergebnisse (etwa Registereinträge) an, die den Nutzer schließlich zum eigentlichen Portal führten. Zum anderen seien Fragen nach Auffindbarkeit und Nutzungsmöglichkeiten vor allem mittels durchdachter Oberflächen lösbar. Es wird betont, dass die Vernetzung der verschiedenen digitalen Angebote die Sichtbarkeit erhöhe, dafür aber die Einhaltung von Standards für Datenformate und Schnittstellen und die Verwendung von Normdaten unerlässlich seien.

Einen weiteren Diskussionspunkt bildete die Frage, wie digitale Editionen publiziert werden bzw. in welchem Verhältnis Druck- und Onlineausgabe stehen. Über das traditionelle Buchformat hinaus würden Nutzerinnen und Nutzer digitaler Editionen Inhalte als PDF herunterladen und sich so u. U. eine eigene Druckversion erzeugen wollen; ggf. mit nutzerspezifischen Schwerpunkten.

Reflektiert wurde zudem über methodische und didaktische Ansätze der Digital Humanities. Angebote wie „Ad fontes“, „Transkribus learn“, aber auch Lehrstühle mit einer digital-geisteswissenschaftlichen Ausrichtung sowie eine wünschenswerte generelle Einbindung digitaler Methodik in das Curriculum ermöglichten eine fundierte Ausbildung des akademischen Nachwuchses, der ebenso in den traditionellen fachwissenschaftlichen Bereichen wie in den neuen Methoden unterrichtet werden müsse. Über Crowdsourcing könnten Interessierte aus der breiten Öffentlichkeit für die Mitarbeit an bestehenden Projekten gewonnen werden. Hier sei jedoch auch der Aufwand zu beachten, um eine Community zu begleiten. Die Zusammenarbeit könne nur erfolgreich sein, wenn sie für alle Beteiligten einen Gewinn bedeute. Dieser könne je nach Anwendung z. B. in Möglichkeiten der Gamification oder der Freigabe von großen Datenbeständen zur Weiternutzung liegen.

Der Workshop schloss mit der Forderung, die digitalen Geisteswissenschaften als einen interdisziplinären methodischen Ansatz zu begreifen. Gleichzeitig sei der Aufbau und die Pflege von digitaler Infrastruktur, die Datensicherung und -archivierung, aber auch die Ausbildung des wissenschaftlichen Nachwuchses nur durch die Institutionalisierung der Digital Humanities in Forschung, Lehre und Wissenschaftslandschaft dauerhaft möglich.

Konferenzübersicht:

Julia Schmidt-Funke (Erfurt / Gotha): Begrüßung

Martin Prell (Jena): Das Editionsportal Thüringen – Idee, Ziele, Herausforderungen

Thomas Mutschler-Herrmann (Jena): Die ThULB und UrMEL als zentrale Instanzen (nicht nur) des digitalen textuellen Kulturerbes Thüringens

Silvio Hermann (Jena): Technische und infrastrukturelle Voraussetzungen des Thüringer Editionsportals

David Maus / Timo Steyer (Wolfenbüttel): Digitale Editionen in der Wolfenbütteler Digitalen Bibliothek

Torsten Schrade (Mainz): Sammlungs- und Editionsportale mit dem Cultural Heritage Framework der Digitalen Akademie. Ein Werkstattbericht

Stefan Dumont / Susanne Haaf (Berlin): Die vernetzte Edition. DTABf,
ediarum und Deutsches Textarchiv

Peter Dängeli / Franz Fischer (Köln): Editionen am CCeH zwischen fachlicher Vielfalt und technischer Konvergenz

Beata Mache (Göttingen): TextGrid. Virtuelle Forschungsumgebung für die Geisteswissenschaften

Tobias Hodel (Zürich): «Ad fontes» und «Transkribus learn» – Zwei Ansätze zur Vermittlung von historischen Hilfswissenschaften


Editors Information
Published on
Contributor
Classification
Regional Classification
Additional Informations
Country Event
Conf. Language(s)
German
Language