Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation. DHd-Jahrestagung 2015

Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation. DHd-Jahrestagung 2015

Organisatoren
Verband der Digital Humanities im deutschsprachigen Raum; Karl-Franzens-Universität Graz
Ort
Graz
Land
Austria
Vom - Bis
23.02.2015 - 27.02.2015
Url der Konferenzwebsite
Von
Maik Fiedler / Andreas Weiß, Georg-Eckert-Institut (GEI) - Leibniz-Institut für internationale Schulbuchforschung, Braunschweig

Die Community der Digital Humanities im deutschsprachigen Raum richtete auf ihrer Jahrestagung 2015 im österreichischen Graz den Focus getreu dem Tagungsmotto „von Daten zu Erkenntnissen“ verstärkt auf eine zielorientierte Datenver- und bearbeitung. Eine Tagung wie diese kann in einem Bericht nicht in gebührender Ausführlichkeit wiedergegeben werden. Daher liegt neben der Vorstellung einiger Panels, die generelle Überlegungen zum Thema Digital Humanities betreffen, der Schwerpunkt auf einer geschichtswissenschaftlichen Perspektive. Dies stellt insofern eine Herausforderung dar, da trotz aller Entwicklungen der letzten Zeit die Digital Humanities noch offensichtlich literaturwissenschaftlich geprägt sind. Damit ist explizit kein Urteil über die Qualität der Vorträge verbunden, die Auswahl erfolgt nach rein idiosynkratrischen Gesichtspunkten für diesen Bericht.

Für die einzelnen spezifischen Fachdisziplinen interessant war eine von insgesamt vier Podiumsdiskussionen unter der Leitung von MANFRED THALLER (Köln), in der über Digital Humanities als Beruf diskutiert wurde. Dabei stand die Erstellung eines Referenzcurriculums mitsamt Akkreditierung eines Studienganges im Vordergrund. Die Überforderung der Geisteswissenschaften in Konfrontation mit DH können laut FOTIS JANNIDIS (Würzburg) nur über integrierte Studiengänge bewältigt werden. Laut SABINE BARTSCH (Darmstadt) sind dagegen viele der bereits umgesetzten Studiengänge zu stark computerlinguistisch ausgerichtet. Dies wäre, aus Sicht der Autoren, eine Weichenstellung für die Zukunft und würde die weitere Entwicklung der DH für die Geschichtswissenschaften eher uninteressant machen. Angeblich wird jedoch über das verstärkte empirische Arbeiten der DH ein einfacherer und verständlicher methodologischer Zugang gewährleistet. HEIDRUN STEIN-KECKS (Erlangen) problematisierte die schwerlich bestimmbaren Voraussetzungen, die für einen technisch orientierten DH-Master geschaffen werden müssten. ANDREAS HENRICH (Bamberg) schließlich wies vehement auf das Fehlen eines Kanons konkreter Skills hin, der in einem solchen Studiengang erworben werden sollte. Entgegen dem Problem sehr unterschiedlicher Prüfungskulturen plädierte er dafür, dass allen geisteswissenschaftlichen Studiengängen Integrationsmöglichkeiten und Zugänge zu DH angeboten werden sollen, damit interdisziplinäre Gräben passierbar werden. Diese Spannung tauchte immer wieder auf, zum Beispiel, wenn in der Diskussion um die zukünftige Lehrplangestaltung für DH-Studiengänge zwei Lager erkennbar wurden: Zum einen die eher informationswissenschaftlich, ja informatiklastigen „reinen“ Digital Humanists, die für eine Veränderung der Fächerlandschaft und die Entstehung von etwas Neuem plädierten. Und zum andern die Bindestrich-Informatiker/Humanists, die den eigentlichen Fachdisziplinen nahestehen und immer wieder für die spezifische Fragestellung der unterschiedlichen Disziplinen plädierten. Die Berichterstatter schließen sich eher der letzteren Position an. So nötig und sinnvoll natürlich die Weiterentwicklung der Fächer erscheint, so wichtig ist doch immer die aus dem Fach heraus entstandene Fragestellung und Methode. Auf der Konferenz selbst blieb aber das Verhältnis von Fachlogik der DH und digitaler Geschichtswissenschaft ungeklärt. So zeigte sich immer wieder eine problematische Kurzzeitperspektive in einigen Beiträgen. Das das Problem „Big Data“ ist ja für viele Disziplinen kein Neues. Es wäre daher wünschenswert, wenn die spezifischen Lösungswege, die die einzelnen Fächer fanden, in der Diskussion stärker berücksichtigt würden.

Im Rahmen theoretischer Panels wurden sowohl fachwissenschaftlich-konzeptionelle Zugänge als auch konkret umgesetzte Projektstrukturen und -ziele vorgestellt und intensiv diskutiert. STEFAN HESSBRÜGGEN-WALTER (Hagen) ging vor diesem Hintergrund zunächst der grundlegenden Frage nach, wie glaubwürdig Erkenntnisse aus digital verarbeiteten Daten eigentlich sind. Mit Hilfe der aus der Philosophie der Mathematik entlehnten sozialen Erkenntnistheorie (Dreifaktorentest) hielt er anhand des Beispiels „Wordle“ <http://www.wordle.net/> ein Plädoyer für die praktikable Nachvollziehbarkeit als Gradmesser für die Glaubwürdigkeit errechneter Daten und Ergebnisse. Sein Schluss lautete, dass wir Daten vertrauen dürfen, wenn wir verstehen wie sie zustande kommen – erst eine Interpretation dieses Weges erschließt eine Plausibilität. Ein anschauliches Beispiel dafür, wie mit Problemen der Plausibilität und Kommunikation im praktischen Prozess interdisziplinärer Zusammenarbeit idealtypisch umzugehen ist, boten THOMAS BÖGEL (Heidelberg) und JANINA JACKE (Hamburg) mittels ihres Projektes heureClea <http://heureclea.de/>. Die Fallstricke ihrer Kooperation traten verstärkt im Spannungsfeld von manueller und automatischer Annotation von Texten zu Tage. Ihr Ansatz zum Erreichen ihres Zieles einer digitalen Heuristik mit automatischen Annotationsvorschlägen bestand in der Vereinfachung der Komplexität der Heuristiken durch einen kollaborativen Zugang. Durch Sichtbarmachung eigener Entscheidungsprozesse konnten sie eine Akzeptanz des „machine learnings“ und somit eine Transparenz von Modell und Algorithmus gewährleisten. Dieser Weg zeichnete sich einerseits durch hohe Nachvollziehbarkeit aus, der dafür betriebene Aufwand bezeugte jedoch andererseits die weiterhin bestehenden gegenseitigen Unsicherheiten innerhalb interdisziplinärer DH-Projekte im Hinblick auf die Verständlichkeit der Praxis verschiedener Fachkulturen. Mit den Problemen interdisziplinärer Zusammenarbeit in den DH setzte sich auch ERHARD HINRICHS (Tübingen) auseinander. Ausgehend von MANFRED THALLERs DH-Definition: “Unter den Digital Humanities verstehen wir alle Arten geisteswissenschaftlicher Forschung, die versuchen, durch den Einsatz moderner Informationstechnologien oder aus der Informatik abgeleiteter Instrumente inhaltliche Ergebnisse zu erzielen, die ohne den Einsatz dieser Instrumente entweder gar nicht zu erzielen wären, oder nur auf einer niedrigeren Ebene intersubjektiver Überprüfbarkeit”1 versuchte Hinrichs disziplinübergreifende Synergieeffekte sowie den Mehrwert für die Geisteswissenschaften sichtbar zu machen. Übergeordnetes Ziel der DH sollte seiner Meinung nach sein, das Denken von Menschen und Computeralgorithmen miteinander zu verbinden, um darauf aufbauend den Erkenntnisprozess unterstützen zu können. Dies könnte mittels Modellierung von Wissen auf verschiedensten Wegen (Auszeichnungssprachen, Datenbanken, Datenvisualisierung, GIS Systeme, Mustererkennung, Datenexplorations- und reduktionsverfahren sowie maschinelles Lernen etc.) geschehen. Die Frage, ob die Informatik sich als Partner oder Dienstleister verstehen sollte, ließ Hinrichs offen.

Vor dem theoretischen Hintergrund fielen die Vorstellungen einzelner technischer Lösungen und praktischer Umsetzungen äußerst vielfältig aus. In einer eigenen Sektion problematisierten PETER ANDORFER, JOHANNA PUHL und STEFAN SCHMUNK (DARIAH-DE) die Thematik „Forschungsdaten in Theorie und Praxis“ im Rahmen des DARIAH-DE Repository und der DARIAH-DE Collection-Registry. Ein zentraler Teil der Tätigkeiten bestand in der Entwicklung und Realisierung einer Repository-Lösung für geistes- und kulturwissenschaftliche Forschungsdaten, welche DARIAH-DE mit ihrem Repository momentan umsetzt. Thematisiert wurden unter anderem Nutzung, Zugriff und die zugrunde liegenden Arbeits- und Forschungsprozesse. Interessant war insbesondere der Hinweis, dass die Workflows in diesen Prozessen in Strukturdaten umgesetzt und automatisiert werden sollen, um sie für spätere Forschungsvorhaben nachhaltig nutzbar machen zu können. Neben der Kostenfrage (die Überführung eigener Daten in das Repository wäre nicht kostenfrei) wurde auch in dieser Sektion die interdisziplinäre Praxis problematisiert. Ein Fazit war, dass innerhalb interdisziplinärer Projekte, aber auch generell in den DH stärker rezipiert werden sollte, welche Ziele Informationswissenschaftler verfolgen, um deren in DH-Projekten seit längeren beanspruchte Interpretationshoheit aufbrechen zu können.

MARTIN FECHNER (Berlin) stellte in einer theoretischen Sektion seine Herangehensweise für eine datengestützte Untersuchung zu wissenschaftlichen Öffentlichkeiten vor. Über sehr aufwendige "händische" Datenverarbeitung und mit Hilfe verschiedener Visualisierungen seiner Ergebnisse gelang es ihm durch den Vergleich wissenschaftlicher Querverweise in der Diskussion von Spektralanalyse und Laser neue Erkenntnisse zu deren Verbreitungsgeschichte aufzuzeigen. Unter Einbeziehung der verschiedenen Rollen von Autoren, Wissenschaftlern und Medien in der Forschung wies er nach, dass die Forschungsgeschwindigkeit unabhängig von der Anzahl der beteiligten Personen und veröffentlichten Artikel zu sein scheint. Augenfällig war bei vielen Beiträgen, wie oft die Erkenntnis betont wurde, dass für diachrone und synchrone Vergleichsanalysen lückenlose und mustergültig aufgearbeitete Metadaten obligatorisch sind und meist im Vorfeld der eigentlichen Forschung in aufwendiger Kleinarbeit zusammengetragen werden müssen. Die Problematik der Metadaten griff CAROLIN ODEBRECHT (Berlin) in ihrem Vortrag zu „Interdisziplinäre[r] Nutzung von Forschungsdaten mithilfe einer technisch-abstrakten Modellierung“ erneut auf. Ausgehend von der Aussage, dass ein Korpus ein Korpus ist, wenn es Annotationen hat und dass diese mit Hilfe von Normalisierung vergleichbar gemacht werden müssen, stellte Odebrecht ein eigenes Modell zur Erstellung von Metadaten vor. Hinter den abstrakten Ausführungen steckte die einfache Idee, Annotationen auf variabler Ebene vergleichbar zu halten, um anschließend abstrakte philologische Strukturen wieder auf semantische Ebene zurückzuführen und so verschiedene Korpora miteinander vergleichen zu können.

In den stärker digital-geschichtswissenschaftlich orientierten Panels wurden neben den Herausforderungen der Big Data für die Fachwissenschaft durch DIRK WINTERGRÜN (MPIWG Berlin), die Möglichkeit mittels mehrsprachiger Metadaten zu versteckten Quellen zu gelangen durch GILES BENNETT (München) / VEERLE VANDEN DAELEN (Brüssel) sowie Digital Games als Medium und Fokus der Forschung durch GERNOT HAUSAR (Wien) thematisiert. Wintergrün und sein Team erstellen in einem Pilotprojekt zur Erforschung der MPG (Max-Planck-Gesellschaft) mit dem gesamten vorhandenen Archivgut eine Datenbank, die mittels Topic Modeling, Stylometrie und Named Entity Recognition, Geo-Visualisierung sowie unterschiedlichen Methoden zur Netzwerk- und Zitationsanalyse bearbeitet werden sollen, um die Stellung der MPG innerhalb verschiedener wissenschaftlichen Forschungsgebiete untersuchen zu können. Hausar hob hervor, dass digitale und historisierende Computerspiele als Quelle bisher kaum im Fokus der Forschung lagen. Schuld seien vor allem die Schwierigkeiten im Hinblick auf die komplexen technischen Verfahren bei Archivierung und Untersuchung der Spiele. Der Vortrag bot einen Überblick über derzeitig auf digitale Spiele angewandte geschichtswissenschaftliche Methoden und Kooperationen mit anderen geisteswissenschaftlichen Fachgebieten in den Games Studies. Klassisch historisch ist hingegen die Herangehensweise von Daelen und Bennett, die die Problematik der aufgrund der Sprachvielfalt schwierigen Zusammenführung von nationalsozialistischen Täterquellen aufgriffen, um mittels der neu geschaffenen EHRI-Datenbank <http://www.ehri-project.eu/ehri-portal-final-spurt> verschiedensprachliche Täterquellen zu verbinden und den Datensätzen Thesaurusbegriffe und englischsprachige Normdateieinträge (z.B. Institutionen) zuzuschreiben. Diese helfen nicht nur die Datenflut zu systematisieren, sondern durch digitale Verknüpfung der Findbücher wird es sogar möglich, bisher durch fremdsprachige Auszeichnung unbekannte deutschsprachige Täterquellen zu identifizieren. Ein großes Problem stellten wiederholt die nicht standardisierten Metadaten dar, die zwingend mit Begriffen aus dem Holocaustkontext verbunden werden müssen, um die betreffenden Bestände überhaupt finden zu können.

In weiteren Panels betonten HANNAH BUSCH, PHILIPP VANSCHEIDT (Trier), CELIA KRAUSE (Darmstadt) und SWATI CHANDNA (Karlsruhe) die Wichtigkeit der neuen DH-Möglichkeiten für die quantitative Analyse mittelalterlicher Handschriftenbestände. Durch Ausmessung der Seiten, Textfelder, Bilder und Marginalien seien mittels „Distant Reading“ und dem Vergleich mit Abschriften neue Erkenntnisse zur Provenienz möglich. Hinsichtlich der historischen Untersuchungsfragen erschloss sich jedoch in der Diskussion nicht der im Vergleich zur althergebrachten heuristischen Analyse zusätzlich aufzubringende große Aufwand (Metadaten zu Seitenbreite und Abweichungen/Toleranzbereichen sind sehr zeitaufwändig), da diese Daten eher für die reine Katalogisierung interessant sind und keine neuen historiographischen Erkenntniswege offenbaren. FLORIAN WINDHAGER (Krems) schließlich bot beeindruckende visuelle Ausblicke zu Wegen, mit denen über bildliche Analysemethoden der klassische Erkenntnisweg ergänzt werden können. Die vorgestellten Tools und Methoden (Karten, Netzwerke, Force directed Graph, edgemaps, movie galaxies, visuwords, citeology, Bäume, Zeitlinien, Baumkarten) können perspektivisch und bei entsprechendem technischen Verständnis nicht nur aktuelle Erkenntnisse sondern auch historisch gewachsene Konstruktionen visualisieren. Die graphischen Umsetzungsmöglichkeiten scheinen im Angesicht von 4D-Visualisierungen kaum Schranken zu unterliegen. Interessant und ausbaufähig ist der verfolgte Anspruch, dass Visualisierungen als analytische Wege zu neuen Erkenntnissen führen sollen. Inwieweit die vorhandenen deutschsprachigen Werkzeuge und Wörterbücher für die Geschichtswissenschaft zwar einerseits produktiv genutzt, andererseits aber immer noch nur spezifisch einsetzbar und in einem frühen Stadion befindlich sind, zeigte sich in dem von ALEXANDER GEYKEN (Berlin) vorgetragenen Bericht zu „Zeitliche Verlaufskurven in den DTA- und DWDS-Korpora: Wörter und Wortverbindungen über 400 Jahre (1600–2000)“. Vor allem das DWDS leistet hier wertvolle Vorarbeit zur Normalisierung von Korpora, bleibt aber aufgrund technischer und rechtlicher Rahmenbedingungen nur eingeschränkt nutzbar für die Geschichtswissenschaft. Der Vortrag betonte nochmals in aller Eindringlichkeit die Nichtvergleichbarkeit moderner und historischer Korpora aufgrund der Sprach- und Ortographieverschiebungen sowie die daraus resultierende eingeschränkte Nutzbarkeit von aus der Literaturwissenschaft stammenden Verfahren wie Topic Modeling, die auf moderne Vokabulare trainiert wurden.

Auffällig an der Tagung war, dass wenig über die neuen Quellenformate (digital born) diskutiert wurde. Für Historiker, nicht nur für Archivare, eröffnen sich hier ganz neue Dimensionen von Problemen im Umgang mit Quellen, vor allem aus dem alltäglichen Bereich. Denn werden z.B. die privaten Emails gespeichert oder werden sie nur in der aufgearbeiteten Form der Analyse durch Korpuslinguisten auf zukünftige Historikergenerationen zukommen? Abschließend festzuhalten ist die Beobachtung, wie skeptisch primär fachwissenschaftlich ausgebildete Historiker doch immer noch den gegenwärtigen Entwicklungen in den Digital Humanities gegenüber stehen und vor dem Verlust klassischer geisteswissenschaftlicher Fähigkeiten warnen. So sprach JOSEF FOCHT (Leipzig) in seinem Vortrag zu „Die getriebenen Geisteswissenschaften – oder: Warum der Schritt von der Daten- zur Wissensproduktion nicht immer gelingt“ davon, dass die „spezifisch geisteswissenschaftliche Fachtraditionen (wie etwa in der Musikwissenschaft) die selbstbewusste Kombination innovativer digitaler und etablierter analoger Methoden“ erfordern. Insgesamt lässt sich daher festhalten, dass einer reinen Technikgläubigkeit weiterhin skeptisch gegenüber gestanden wird.

Die Tagung in Graz hat gezeigt, dass sich die Digital Humanities weiterhin in einem Findungsprozess befinden. Wichtige Themen, wie die mangelhafte Speicherung aktueller digitaler Daten und die damit generell verbundene Kostenfrage wurden nur vereinzelt diskutiert, ohne das für eine Mehrheit zufriedenstellende Finanzierungs- und Lösungsvorschläge vorgebracht wurden. Neben der großen Varianz der Metadaten sind dies aber sicher die Themen, die in nächster Zeit geklärt werden müssen, um den Digital Humanities sowohl eine solide Basis wie einen starken Aufschwung ermöglichen zu können.

Konferenzübersicht:

Workshops

Workshop 1: Computerlinguistische Methoden der Inhaltsanalyse in den Sozialwissenschaften: Forschungspraktische Herausforderungen, Werkzeuge und Technologien
Workshop 2: Frosch oder Prinz? TUSTEP als Werkzeug der digitalen Geisteswissenschaften – ein Workshop der International TUSTEP User Group
Workshop 3: Wissenschaftliches Bloggen, Wissenschaftsblogs und bloggende Wissenschaftler
Workshop 4: Elemente einer Roadmap für das Forschungsfeld "Computational Narratology"
Workshop 5: Es geht auch ohne Formeln – Der Einsatz von TeX in den Digital Humanities am Beispiel kritischer Editionen
Workshop 6: Einführung in die Nutzung der Edirom Tools im Kontext digitaler Musikeditionen
Workshop 7: ediarum – Eine digitale Arbeitsumgebung für Editionsvorhaben
Workshop 8: Automatisierte Erkennung handschriftlicher Dokumente mit der Transkription &Recognition Platform

Eröffnungskeynote:
Sabine Ladstätter (Österreichisches Archäologisches Institut Wien), "Digging Digital – Archaeology in the 21st century"

Theorie I
Chair: Johannes H. Stigler (Karl-Franzens Universität Graz)
Stefan Heßbrüggen-Walter (FernUniversität Hagen): Warum sollen wir unseren Daten trauen? Soziale Erkenntnistheorie und die 'rechnenden Geisteswissenschaften'
Evelyn Gius/ Janina Jacke/ Jan Christoph Meister/ Marco Petris (Universität Hamburg), Thomas Bögel/ Michael Gertz/ Jannik Strötgen (Ruprecht-Karls-Universität Heidelberg): Gleiche Textdaten, unterschiedliche Erkenntnisziele? Zum Potential vermeintlich widersprüchlicher Zugänge zu Textanalyse
Emmerich Kelih (Universität Wien): Status und Probleme der Literaturwissenschaften im Rahmen der Digitial Humanities

Philologie III
Chair: Patrick Sahle (Universität zu Köln)
Cordula Meißner/ Franziska Wallner (Universität Leipzig): Das Zusammenspiel automatisierter und interpretativer Verfahren bei der Aufbereitung und Auswertung mündlicher Daten - Fallbeispiele aus der angewandten Wissenschaftssprachforschung
Michaela Geierhos/ Frederik Simon Bäumer (Universität Paderborn): Erfahrungsberichte aus zweiter Hand: Erkenntnisse über die Autorschaft von Arztbewertungen in Online-Portalen
Daniël de Kok/ Wei Qiu/ Marie Hinrichs (Eberhard Karls Universität Tübingen): WebLicht: Bombardieren bevor die Services explodieren

Philologie I
Chair: Anne Baillot (Humboldt-Universität zu Berlin)
Nic Leonhardt (Ludwig-Maximilians-Universität München): WissensSpielRäume – Digital Humanities in der Theaterforschung
Peer Trilcke (Georg-August-Universität Göttingen), Frank Fischer (Göttingen Centre for Digital Humanities), Dario Kampkaspar (Herzog August Bibliothek Wolfenbüttel): Digitale Netzwerkanalyse dramatischer Texte
Christof Schöch (Julius Maximilians Universität Würzburg), Nanette Rißler-Pipka (Universität Augsburg): Comedia - Comédie: Topic Modeling als Perspektive auf das spanische und französische Theater des 17. Jhdts.

Kunstgeschichte I
Chair: Thorsten Wübbena (Goethe Universität Frankfurt am Main/Deutsches Forum für Kunstgeschichte (Paris))
Christian Kassung (Humboldt-Universität zu Berlin): Making Things Chatter. Historische Debatten und ihre Objekte im Museum
Gernot Howanitz (Universität Passau): Distant Watching: Ein quantitativer Zugang zu viralen Videos
Waltraud von Pippich (Ludwig-Maximilians-Universität München): Farbe und Maß. Die Fibonacci-Zahlen in der Kunstgeschichte

Theorie II
Chair: Georg Hohmann (Deutsches Museum München)
Martin Fechner (Max-Planck-Institut Wissenschaftsgeschichte / Berlin-Brandenburgische Akademie der Wissenschaften Berlin): Wissenschaftsgeschichte und digitale Methoden. Eine datengestützte Untersuchung zu wissenschaftlichen Öffentlichkeiten
Carolin Odebrecht (Humboldt-Universität zu Berlin): Interdisziplinäre Nutzung von Forschungsdaten mithilfe einer technisch-abstrakten Modellierung
Erhard Hinrichs (Eberhard Karls Universität Tübingen): Digitale Geisteswissenschaften und Informatik – Modelle der Zusammenarbeit

Philologie IV
Chair: Elisabeth Burr (Universität Leipzig)
Alexander Geyken/ Matthias Boenig/ Susanne Haaf/ Bryan Jurish/ Christian Thomas/ Kay-Michael Würzner/ Frank Wiegand (Berlin-Brandenburgische Akademie der Wissenschaften Berlin): Zeitliche Verlaufskurven in den DTA- und DWDS-Korpora: Wörter und Wortverbindungen über 400 Jahre (1600–2000)
Dustin Heckmann/ Anette Frank/ Matthias Arnold/ Peter Gietz/ Christian Roth (Ruprecht-Karls-Universität Heidelberg): Citation Segmentation from Sparse & Noisy Data: An Unsupervised Joint Inference Approach with Markov Logic Networks
Ulrike Krieg-Holz (Universität Leipzig), Udo Hahn (Friedrich Schiller Universität Jena): Parameter zur Klassifizierung stilistischer Varianz bei E-Mails

Philologie II
Chair: Christof Schöch (Universität Würzburg)
Fotis Jannidis/ Markus Krug/ Frank Puppe/ Isabella Reger/ Martin Töpfer/ Lukas Weimer (Universität Würzburg): Automatische Erkennung von Figuren in deutschsprachigen Romanen
Evelyn Gius/ Marco Petris (Universität Hamburg): Die explorative Visualisierung von Texten. Von den Herausforderungen der Darstellung geisteswissenschaftlicher Primär- und Annotationsdaten
Angelika Zirker/ Fabian Schwabe/ Matthias Bauer (Eberhard Karls Universität Tübingen): Theorie und Praxis der erklärenden Annotation im Kontext der Digital Humanities

Kunstgeschichte II
Chair: Georg Schelbert (Humboldt-Universität zu Berlin)
Adelheid Heftberger (Österreichisches Filmmuseum Wien): Filmbild, Filmschnitt, Filmstil – die Quantifizierung und Visualisierung von filmischen Strukturen
Dominik Lengyel/ Catherine Toulouse (Berlin-Brandenburgische Technische Universität Cottbus-Senftenberg): Die Bedeutung architektonischer Gestaltung in der visuellen Vermittlung wissenschaftlicher Unschärfe am Beispiel von Ktesiphon und weiteren archäologischen Stätten

Musikologie
Chair: Joachim Veit (Universität Paderborn)
Johannes Kepper (Musikwissenschaftliches Seminar Detmold/ Paderborn), Susanne Cox (Beethoven-Haus Bonn): „Befund“ und „Deutung“ in Beethovens Schreibprozessen
Anna Maria Komprecht (Musikwissenschaftliches Seminar Detmold/ Paderborn), Andreas Oberhoff (Universität Paderborn): Modellierung von Annotationen in der digitalen Musik- und Medienedition
Torsten Roeder (Universität Würzburg): Repräsentationen von Migration in musikwissenschaftlichen Datenbanken

Sektion I
Sibylle Söring/ Ubbo Veentjer/ Stefan Schmunk (Staats- und Universitätsbibliothek Göttingen, TextGrid, DARIAH-DE), Harald Lordick (Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte, Essen), Jochen Graf (Universität Köln), Robert Casties (Max-Planck-Institut für Wissenschaftsgeschichte Berlin), Christian Prager/ Frauke Sachse/ Christian Klingler (Friedrich-Wilhelms-Universität Bonn), Michael Dürr (Zentral- und Landesbibliothek Berlin): Das Wissen der Bilder. Spielarten des digitalen Annotierens

Sektion II
Peter Andorfer/ Johanna Puhl/ Stefan Schmunk (DARIAH-DE): Forschungsdaten in Theorie und Praxis. Das DARIAH-DE Repository und die DARIAH-DE Collection-Registr

Poster Slam I
Chair: Joachim Veit (Universität Paderborn)
Poster Slam II
Chair: Claudine Moulin (Universität Trier / IEA Paris)
Poster Slam III
Chair: Malte Rehbein (Universität Passau)

Theorie III
Chair: Johannes H. Stigler (Karl-Franzens-Universität Graz)
Jörg Wettlaufer (Akademie der Wissenschaften zu Göttingen): Neue Erkenntnisse durch digitalisierte Geschichtswissenschaften? Zur hermeneutischen Reichweite aktueller digitaler Methoden in informationszentrierten Fächern.
Christian Pölitz/ Katharina Morik (Technische Universität Dortmund): Big Data und Data Mining in den Digital Humanities
Pim van Bree/ Geert Kessels (LAB1100, Niederlande): Exploring the reuse of data in the humanities by means of asynchronous collaboration and authorship in nodegoat

Geschichte I
Chair: Georg Vogeler (Karl-Franzens-Universität Graz)
Dirk Wintergrün/ Florian Schmaltz/ Juliane Stiller/ Sebastian Kruse (Max-Planck-Institut für Wissenschaftsgeschichte Berlin): Herausforderung "Big Data" in der historischen Forschung
Gernot Hausar (Universität Wien): Gespielte Geschichte: Digital Games als Medium und Fokus der Forschung
Giles Bennett (Institut für Zeitgeschichte München), Veerle Vanden Daelen (CEGESOMA): Über mehrsprachige Metadaten zu den versteckten Quellen: Das Beispiel deutschsprachiger Täterquellen in der European Holocaust Research Infrastructure

Philologie V
Chair: Claudine Moulin (Universität Trier / IEA Paris)
Elise Hanrahan (BBAW Berlin): ‘Over-tagging’ with XML in Digital Scholarly Editions
Andreas Müller/ Jonas Kuhn/ Markus John/ Steffen Koch/ Thomas Ertl (Universität Stuttgart): Erkennung und Visualisierung attribuierter Phrasen in Poetiken
Friedrich Michael Dimpel (FAU Erlangen): Ausgezeichnete Mären analysieren – ein Werkstattbericht

Philologie VII
Chair: Christof Schöch (Universität Würzburg)
Maximilian Hadersbeck/ Florian Fink/ Daniel Bruder/ Ina Arends/ Johannes Baiter (Ludwig-Maximilians-Universität München), Alois Pichler (WAB): Wittgensteins Nachlass: Erkenntnisse und Weiterentwicklung der FinderApp WiTTFind
Klaus Kastberger/ Katharina Pektor (Österreichische Nationalbibliothek Wien): Information/Kommentar/Interpretation: HANDKEonline
Christian Thomas (HU Berlin): Hidden Kosmos – Humboldts ‚Kosmos-Vorträge‘ als Probe der Digital Humanities

Theorie IV
Chair: Georg Hohmann (Deutsches Museum München)
Josef Focht (Universität Leipzig): Die getriebenen Geisteswissenschaften – oder: Warum der Schritt von der Daten- zur Wissensproduktion nicht immer gelingt
Günther Görz (Universität Erlangen), Andreas Henrich (Universität Bamberg), Gerhard Heyer (Universität Leipzig), Martin Warnke (Universität Lüneburg): Digital Humanities aus der Sicht der Informatik
Bianca Meise (Universität Paderborn): Bildungspotenziale digitaler Musik-Editionen zwischen Demokratisierung und Ungewissheit. Ein theoretischer Verortungsversuch.

Geschichte II
Chair: Matthias Perstling (Diözesanarchiv Graz-Seckau)
Hannah Busch/ Philipp Vanscheidt (Universität Trier), Celia Krause (Technische Universität Darmstadt), Swati Chandna (Karlsruher Institut für Technologie): Quanticod revisited. Neue Ansätze zur quantitativen Analyse mittelalterlicher Handschriftenbestände
Florian Windhager (Donau-Universität Krems): Zur visuellen Analyse und Synthese historischer Daten in Raum und Zeit
Nikolaus Reisinger/ Bernadette Biedermann (Karl-Franzens-Universität Graz): Vom Repositorium zum virtuellen Museum: UserInnen versus BesucherInnen im Spannungsfeld zwischen Erkenntniswunsch und Selbst(er)findung

Philologie VI
Chair: Klaus Kastberger (Österreichische Nationalbibliothek Wien)
Stefan Dumont (Berlin-Brandenburgische Akademie der Wissenschaften Berlin), Marcel Illetschko (Österreichische Nationalbibliothek Wien), Sabine Seifert (Humboldt-Universität zu Berlin), Peter Stadler (Universität Paderborn): correspSearch. Ein zentraler Service zum Vernetzen von Briefeditionen und -repositorien
Roman Bleier (Trinity College Dublin): Topic Modelling des Letters of 1916 Briefkorpus
Claudia Resch/ Daniel Schopper/ Barbara Krautgartner (Österreichische Akademie der Wissenschaften Wien): Von A wie Abraham a Sancta Clara bis U wie Unbekannter Verfasser: Annotation und Repräsentation barocker Literatur

Philologie VIII
Chair: Thomas Stäcker (Herzog August Bibliothek Wolfenbüttel)
Eveline Wandl-Vogt (Österreichische Akademie der Wissenschaften Wien), Barbara Kieslinger (Zentrum für Soziale Innovation Wien), Alexander O´Connor (Trinity College Dublin), Roberto Theron (Universität Salamanca): Transformation. Perspektiven am Beispiel eines lexikographischen Jahrhundertprojekts
Thierry Declerck (Deutsche Forschungszentrum für Künstliche Intelligenz Saarbrücken), Eveline Wandl-Vogt (Österreichische Akademie der Wissenschaften Wien): Für eine pan-eüropaische Lexikologie und Lexikographie mittels des Linked Open Data Frameworks
Hannes Pirker/ Karlheinz Moerth (Österreichischen Akademie der Wissenschaften Wien): Integrierte Lexikographische Dienste zur Unterstützung der digitalen Geisteswissenschaften (aiLEs)

Panel III: Panel der AG Datenzentren im Verband DHd
Patrick Sahle (Universität zu Köln), Matej Durco (Österreichische Akademie der Wissenschaften Wien), Daniel Kurzawe (Niedersächsische Staats- und Universitätsbibliothek Göttingen), Lukas Rosenthaler (Universität Basel), Johannes Stigler (Karl-Franzens-Universität Graz)

Panel II: Panel der AG Virtuelle Rekonstruktion im DHd Verband
Piotr Kuroczyński (Herder-Institut für historische Ostmitteleuropaforschung – Institut der Leibniz-Gemeinschaft), Oliver Hauck (Institut für Raumdarstellung – Frankfurt am Main), Mieke Pfarr-Harfst/ Marc Grellert (TU Darmstadt), Sander Münster (TU Dresden), Martin Scholz (Friedrich-Alexander-Universität Erlangen-Nürnberg): Digitale Rekonstruktion und aktuelle Herausforderungen

Panel I: Panel der AG Referenzcurriculum Digital Humanities im DHd Verband
Manfred Thaller (Universität zu Köln): Digital Humanities als Beruf – Fortschritte auf dem Weg zu einem Curriculum
Thaller-Digital Humanities als Beruf – Fortschritte auf dem Weg zu einem Curriculum-851018.pdf

Panel IV
Leif Scheuermann/ Wolfgang Spickermann (Karl-Franzens-Universität Graz), Susanne Rau/ René Smolarski (Universität Erfurt), Martin Dreher (Universität Magdeburg), Charlotte Schubert / Roxana Kath/ Michaela Rücker (Universität Leipzig), Klaus Peter Jantke (Fraunhofer IDMT Ilmenau-Erfurt): Zur Integration computerbasierter raum-zeitlicher Visualisierungen in die Methodik der historischen Wissenschaften

Empirische Ansätze
Chair: Leif Scheuermann (Karl-Franzens-Universität Graz)
Ines Engelmann (Friedrich-Schiller-Universität Jena), Manfred Stede/ Wladimir Sidorenko (Universität Potsdam), Christoph Neuberger (LMU München): Meinungen in Twitterdiskursen. Potenziale der automatisierten Inhaltsanalyse aus der Computerlinguistik für Fragestellungen der Kommunikationswissenschaft
Valentina Stuß/ Michaela Geierhos (Universität Paderborn): Identifikation kognitiver Effekte in Online-Bewertungen
Frederik Elwert/ Simone Gerhards/ Sven Sellmer (Ruhr-Universität Bochum): Beziehung und Bedeutung. Soziale und semantische Netzwerkanalyse religionshistorischer Korpora

Philologie X
Chair: Wolfgang Spickermann (Karl-Franzens-Universität Graz)
Torsten Roeder (Universität Würzburg), Yury Arzhanov (Ruhr-Universität Bochum): Mapping the Words. Übersetzungsstrukturen zwischen Altgriechisch und Hocharabisch in visuellen Formen
Armin Hoenen (Goethe Universität Frankfurt): Das artifizielle Manuskriptkorpus TASCFE

Philologie IX
Chair: Georg Vogeler (Karl-Franzens-Universität Graz)
Christine Ivanovic (Universität Wien), Andrew Frank (Technische Universität Wien): Digitale Korpusanalyse in der Literaturwissenschaft am Beispiel von Ilse Aichinger
Elisabeth Burr/ Julia Burkhardt/ Elena Potapenko/ Rebecca Sierig/ Arámis Concepción Durán (Universität Leipzig): Das Duisburg-Leipzig Korpus romanischer Zeitungssprachen und sein Textmodell
Andreas Weiß/ Maik Fiedler (Georg-Eckert-Institut Leibniz-Institut für internationale Schulbuchforschung Braunschweig): Welt der Kinder – Bearbeitung großer digitaler Korpora mit Topic Modeling

Philologie XI
Chair: Anne Baillot (Humboldt-Universität zu Berlin)
Alexander Dunst/ Rita Hartel (Universität Paderborn), Sven Hohenstein/ Jochen Laubrock (Universität Potsdam): Digitale Analyse Graphischer Literatur
Frank Fischer (Göttingen Centre for Digital Humanities), Jannik Strötgen (Ruprecht-Karls-Universität Heidelberg): Wann findet die deutsche Literatur statt? – Zur Untersuchung von Zeitausdrücken in großen Korpora
Bernhard Friedl (Universität Wien): Erzählen im Computerspiel

Schlusskeynote: Manfred Thaller "Wenn die Quellen überfließen. Spitzweg und Big Data."
Chair: Georg Vogeler (Karl-Franzens-Universität Graz)

DHd Arbeitsgruppe I: Digitale Rekonstruktion
DHd Arbeitsgruppe III: Aufbau von Datenzentren
DHd Arbeitsgruppe V: Museum

Anmerkung:
1 Diese Definition hatte Manfred Thaller auf der DHd Jahrestagung in Passau am 28. März 2014 vorgestellt.


Redaktion
Veröffentlicht am
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Deutsch
Sprache des Berichts