Historikertag 2012: eHumanities

Von
Thomas Meyer, Institut für Geschichtswissenschaften, Humboldt-Universität zu Berlin

Besprochene Sektionen:

"Datenbanken für die Mediävistik und die Renaissance in Forschung und Lehre"
"eAQUA/Dissemination: Neue methodische Zugänge zu Begriffsgeschichte und Quellenkritik in den Altertumswissenschaften"
"Geschichtswissenschaft digital in Deutschland und Frankreich: Tendenzen, Strategien, Beispiele"
"Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung"

Der Historikertag ist im Zeitalter des Digitalen angekommen. Erstmals wurden in einem eigenen Themenbereich „eHumanities“ die Entwicklung digital gestützter Arbeitstechniken, Informationsangebote und Forschungsmethoden diskutiert, und mit der Einrichtung einer Arbeitsgruppe „Digitale Geschichtswissenschaft“ im Verband den digitalen Geschichtswissenschaften ein neues, stärkeres Gewicht gegeben. Die „digital immigrants“ des Fachs haben nunmehr einen pragmatischen Umgang mit Computer und Netz gefunden: Emails als alltägliches Kommunikationswerkzeug, das Schreiben im Digitalen, die Rezeption von Fachinformationsangeboten gehören zu den alltäglichen Dingen in Forschung und Lehre. Auch wenn die letzten „digital ignorants“, so unter anderem CHRISTOPH CORNELISSEN (Frankfurt am Main) im Panel zu Informationsinfrastrukturen, weiterhin hartnäckig am Forschen und Lehren ohne jegliche Zuhilfenahme digitaler Techniken festhalten.

Die „eHumanities“ als Forschungsrichtung, Thema oder gar neue Disziplin sind noch ein junges Feld. Hinter den „electronic Humanities“ verbergen sich ursprünglich allerdings die „enhanced Humanities“ bzw. analog die „enhanced Science“. Subsumieren lassen sich darunter Ansätze, die sich der Entwicklung und Anwendung von Informationstechnologien in den Geisteswissenschaften widmen. Verschiedene, teils programmatische Ansätze und Interpretamente beschreiben die zunehmende Virtualisierung wissenschaftlicher Arbeitsprozesse und ihre Unterstützung durch IT-Technologien, die Verlagerung von Arbeitstechniken und Fachinformationswelten in das Internet und deren zunehmende Vernetzung; teils auch mit der Intention, Rohdaten, Analyse sowie Ergebnisse möglichst kompakt in homogenen, virtuellen Umgebungen abzubilden. Ein Modell einer auf die Geschichtswissenschaften ausgerichteten eScience schließt beispielsweise Quellenbestände und Forschungsliteratur (Rohstoffe), Recherche-, Editions- und Textverarbeitungsfunktionen unter Berücksichtigung hypertextueller Verknüpfungen zwischen Quellen und Texten (Methoden) und daraus entstehende Publikationen (Produkte) ein. Ebenso finden „eScience“ und „eHumanities“ bei Fördermittelgebern ihren Niederschlag, wie einige der Förderprogramme von Deutscher Forschungsgemeinschaft und Bundesministerium für Bildung und Forschung (BMBF) zeigen.[1]

Die Vorstellung unterschiedlicher Projekte, die sich den „eHumanities“ zuordnen lassen, versprach neben bekannten Projektvorstellungen klassischer Anwendungsfelder in Fachinformation und –kommunikation oder dem Elektronischen Publizieren neue Einblicke in die Nutzung der IT zur Schließung bisheriger Forschungslücken; Lücken, die mit der gängigen Hermeneutik nicht zu schließen seien, deren Erforschung sich insbesondere die „Digital Humanities“ als neues, eigenständiges Fach oder eben doch nur Set neuer geistes- und kulturwissenschaftlichen Methoden, mit starken Wurzeln in der Computerlinguistik, verschrieben haben.[2]

Die Sektion „Geschichtswissenschaft digital in Deutschland und Frankreich: Tendenzen, Strategien, Beispiele“ sollte sich, so Sektionsleiterin GUDRUN GERSMANN (Paris), einer deutsch-französischen Bestandsaufnahme widmen und präsentierte ausgewählte Fachinformationsplattformen und -journale aus dem Umfeld des Deutschen Historischen Institut Paris und der Bayerischen Staatsbibliothek München sowie das französische Projekt opendedition.org. Das durch MARIN DACOS (Marseille) vorgestellte Portal openedition.org veröffentlicht Zeitschriften, Blogs und Ankündigungen zahlreicher geisteswissenschaftlicher Disziplinen französischer Forschungseinrichtungen. Während in Deutschland, auch aufgrund der verschiedenen Förderprogramme, viele Parallelentwicklungen stattgefunden haben, existiert in Frankreich mit openedition ein zentrales Portal, das schnell Synergieeffekte für Betreiber und Nutzer zeigt: Eine Vielzahl von Zeitschriften greift auf erprobte Publikationsstrukturen zurück, für Herausgeber und Autoren stehen Publikationstools unmittelbar zur Verfügung. Gleichwohl zeugen die zwei präsentierten Open-Access-Zeitschriftenprojekte, die am DHI Paris publizierte Francia sowie die jüngere Zeitschrift Trivium, welche ausschließlich andernorts veröffentlichte Texte in deutsch-französischer Übersetzung bietet, vom Erfolg deutscher Open-Access-Publikationen, trotz weiterhin offener Fragen zu Finanzierung und Rechtslage. Die deutschsprachige Blogplattform de.hypotheses.org, die durch MAREIKE KÖNIG (Paris) aufgebaut und im Panel vorgestellt wurde, bietet in mehr als vierzig Blogs aktuelle Informationen und Berichte aus Dissertationsprojekten. Mit dieser Form des Elektronischen Publizierens können, so König, neue Formen des Berichtens über Projektverläufe und zugleich neue Publikationskulturen entwickelt werden. Die frühzeitige Themensetzung durch kurze Veröffentlichungen in Blogs, sowie deren Zitationsfähigkeit durch die Vergabe von ISBN-Nummern böten neue Chancen, sich vor Plagiaten zu schützen.

Im zweiten Teil der Sektion wurden weitere Projekte präsentiert, die sich „sozialer Medien“ wie twitter, blogs und facebook bedienen. Diese werden, so Mareike König, derzeit von nur ca. acht Prozent der Wissenschaftler in Deutschland genutzt. Damit stellt sich die Frage, ob in der Wissenschaft mit einem Wandel zur stärkeren Nutzung sozialer Medien zu rechnen ist. Das Resümee von GEORGIOS CHATZOUDIS (Köln) über die Entwicklung des LISA-Portals der Gerda-Henkel-Stiftung zeigte, dass insbesondere Nachwuchswissenschaftler/innen sich der Nutzung gemeinsamer Arbeitsplattformen im Netz, Blogs oder auch audiovisuellen Darstellungsformaten sehr offen gegenüber zeigen. Die schnell erlangte Popularität des Portals liegt sicherlich auch in der von vornherein intendierten Offenheit des Portals gegenüber der allgemeinen Öffentlichkeit, gestützt durch multimediale Darstellungsformate wie Video-interviews oder Live-Blogs; wie weit hier die „digital born“ – Generation noch weiteres „Wachstum“ generiert, scheint offen. Die seitens Mareike König konstatierte Ent-Hierarchisierung und Selbstreflexion durch blogs wird sicherlich die weitere Entwicklung prägen; neu ist dies allerdings nicht, da dieser Prozess mit dem Einzug von Email und World Wide Web und deren Möglichkeiten des selbstständigen Publizierens in Wissenschaft und Öffentlichkeit schon Mitte der 1990er-Jahre in Gang gesetzt wurde. Für Projekte können blogs in der Tat ein hervorragendes Dokumentationswerkzeug darstellen, da sie Strukturierungs- und Darstellungsmöglichkeiten bieten, die den üblichen Schreib- und Lesegewohnheiten entsprechen. Die aus dem Auditorium angesprochene Gefahr, dass spontane Äußerungen dauerhaft im Netz verfügbar sein könnten, besteht nur auf den ersten Blick: Grundsätzlich sollte genau überlegt werden, was öffentlich gemacht werden soll/will. Fragen der Medien- und Informationskompetenzen berührten eben nicht nur Bewertungs-, sondern auch Entscheidungskompetenzen, die Schülern und Studenten für einen kritischen Umgang mit dem Netz zu vermitteln sind. Ein Thema, welches in allen Panels diskutiert wurde.

Dass die Verfügbarkeit digitaler Medien allein nicht Grundvoraussetzung neuer Fragestellungen ist, betonte JÜRGEN DANYEL (Potsdam) in seinem abschließenden Beitrag des Panels; da wir uns mittlerweile tief im Medienumbruch durch das Internet befinden, sei es an der Zeit, sich von der Beschäftigung mit den Besonderheiten und Neuartigkeiten digitaler Projekte zu verabschieden und stattdessen stärker in den Dialog mit dem Fach zu treten. Projektvorstellungen seien den Projektmacher/innen in der Tat im Erfahrungsaustausch usw. hilfreich, im Fach müssten aber endlich Anforderungen, Wünsche und Impulse an neue digitale Werkzeuge abgeholt werden. Dabei sei die Nutzung kollaborativer Werkzeuge nicht zwingend notwendig, analoge und digitale Welt könnten nebeneinander auch in hybriden Formen existieren. Ähnliche Resümees waren später in der Sektion zu den Infrastrukturen zu hören. Dieser Offenheit lässt sich der in der Abschlussdiskussion geäußerte Hinweis Mareike Königs hinzustellen, dass die „digital natives“ eher ein Mythos und nicht allein Garant sind, dass zukünftig alles nur noch digital verhandelt und produziert werde. Eher stehe die Vermittlung von Medien- und Informationskompetenz als zentrales Thema auf der Agenda. Im Vergleich der deutsch-französischen Projekte zeigte sich außerdem, dass sich Anwendungskulturen und Nutzungsszenarien digitaler Technologien nicht einfach übertragen lassen (werden).

Näher am Kern der „eHumanities“ – der direkten Forschungsunterstützung durch digitale Technologien – befand sich das Panel “ eAQUA/Dissemination: Neue methodische Zugänge zu Begriffsgeschichte und Quellenkritik in den Altertumswissenschaften“[3], in dem der Zwischenstand durch dessen Projektleiterin CHARLOTTE SCHUBERT (Leipzig) reflektiert wurde. In eAqua werden Methoden des Text-Minings angewendet, um aus digitalisierten Text-Korpora (unter anderem Perseus-Texte, Griechische Literatur aus dem Thesaurus Linguae Graecae) semantische Relationen zu erschließen. Mit dem Vergleich von Originalen und Übersetzungen in sogenannten Wortwolken (Tag-Clouds), mit Verfahren des Topic Trackings, dem Kategorisieren und Bilden von Clustern sowie Concept-Linking lassen sich neue Zusammenhänge erschließen: Die Paraphrasierung und Zitation antiker Autoren und Texte kann darüber nachverfolgt, Versatzstücke aufgespürt und Referenzen ermittelt werden. Dass sich die Altertumswissenschaften aufgrund der Andersartigkeit ihrer Textgrundlage in besonderem Maße auf derartige Ansätze stützen können, betonte MICHAELA RÜCKER (Leipzig): durch eine starke Prägung von der Art der Überlieferung, einerseits durch ihren fragmentarischen Zustand charakterisiert, andererseits durch extrem viele überlieferungs- und traditionsgeschichtliche Veränderungen geprägt. In den Bereichen, in denen Texte nur fragmentarisch (hier zum Beispiel Fragmente der Vorsokratiker, Fragmente der Griechischen Historiker) und unvollständig erhalten sind (Inschriften, Papyri), stoßen herkömmliche Interpretationsmethoden an ihre Grenzen. Hier findet der Einsatz von IT-Technologien zur Ermittlung von Relationen und Zusammenhängen eine forschungsbezogene Anwendung. Allerdings, so Rücker mehrfach, entstünden hier keine neuen methodischen Ansätze, sondern führten vielmehr etablierte Technologien in Verbindung mit vorhandenen disziplinären Methoden in den Altertumswissenschaften zu neuen wissenschaftlichen Erkenntnissen. Weitere Ansätze, wie zum Beispiel die der Mental Maps, stellte ROXANNA KATH (Leipzig) vor: Im Teilprojekt Mental Maps wurde die Wirkung antiker Autoren auf die Weltsicht des Mittelalters und der Frühen Neuzeit systematisch untersucht. Ausgehend von der Hypothese, dass sich Versatzstücke antiken Wissens mit erstaunlicher Beständigkeit in zahlreichen Texten dieser Epochen finden, beispielsweise in den Reiseberichten der ersten Amerikareisenden, wurden Texte auf Zitate und Paraphrasen antiker Autoren analysiert und eine geeignete Visualisierung entwickelt, die es auch für größere Datenmengen erlaubt, interaktiv und visuell unterstützt den Transfer und Wandel von Konzepten (concept change) in Raum und Zeit zu untersuchen.

Mit den neuen Verfahren, so das Fazit der Referentinnen, sei vor allem die Materialaufnahme erleichtert worden, ein schnelleres und effizienteres Arbeiten mit Text möglich, ebenso werden Zusammenhänge leichter erkennbar. Zukünftig werde der Fokus auf der Übertragung der so gewonnenen Herangehensweisen auf weitere geisteswissenschaftliche Forschungen liegen. So werden derzeit im Rahmen des Projekts CLARIN-D Codierungsfragen, Standardisierungen und die Nachhaltigkeit von Projekten wie eAqua behandelt.

Das Panel „Datenbanken für die Mediävistik und die Renaissance in Forschung und Lehre“ präsentierte Kooperationsprojekte des DHI Rom. In seinem einleitenden Vortrag setzte MICHAEL MATTHEUS (Rom) den Fokus unter anderem auf Standardisierung, Erschließung und Anreicherung von Metadaten zu digitalen Objekten sowie die Verfügbarkeit von Zitationsmöglichkeiten. Diese sind notwendige Voraussetzung für die Anschlussfähigkeit digitaler Dokumente und Datensammlungen an andere Ressourcen und damit deren Vernetzung. Neue Möglichkeiten der Mittelalterforschung durch übergreifende Auswertung unterschiedlicher Datensammlungen standen somit im Mittelpunkt des Panels. Seit 2003 werden unter anderem digitale Repertorien entwickelt, einige davon auf dem Datenbankportal D.E.N.Q. zusammengeführt, die statistische Auswertungsmöglichkeiten und Suchen über Ähnlichkeitsalgorithmen bieten. Über GIS-Systeme werden Visualisierungen von Zusammenhängen hergestellt, mithin ein Feature, das mittels der dynamischen Veränderung der Karten die Fixierung der Darstellung bestimmter Zeiträume und Orte aufheben kann. Wie weit dies auch zur Veränderung der Wahrnehmung von Zusammenhängen beiträgt, ist offen.[4] Neben der Bereitstellung von Quellenkorpora und ihrer Vernetzung stand bei der Entwicklung der Repertorien die Vermeidung von Insellösungen bei der Entwicklung und Implementierung von Datenbasis und Werkzeugen im Mittelpunkt.

Wie weit bisherige Forschungshypothesen mit Hilfe von Datenauswertungen untermauert werden können, zeigte unter anderem RAINER C. SCHWINGES (Bern) in seiner Vorstellung des Repertorium Academicum Germanicum. Darin können über Personen- und Publikationsnormdaten Verweise auf weiterführende Materialien angebracht werden. Die Recherche über diese Verweise dürfte sich allerdings auf den über die Normdaten erschlossenen Informationsraum beschränken. Ein Beispiel aus der Forschung präsentierte Schwinges mit der Produktion von Quellen durch Auseinandersetzungen auf dem römischen Pfründenmarkt, die im Projekt nun erstmals in den Datenbanken erschlossen werden und über die sich Prestige sowie sozialer und wirtschaftlicher Aufstieg und die Erlangung von Pfründen nachvollziehen ließen. Von Synergieeffekten der Datenbanken für die Ordensgeschichte berichtete anschließend ANDREAS REHBERG (Rom): Über den Abgleich von Datenbanken zur Klosterflucht konnten komplementäre Quellen zusammengeführt werden, die neue Einsichten auf Studienorte und die Rekonstruktion von Biografien und explosionsartig zunehmender Studienreisen geben. Aus dem Auditorium wurde daraufhin eingebracht, dass hiermit hinsichtlich der Erschließung zwar ein Quantensprung erfolgt sei, zugleich aber gebe es weiterhin Lücken in der Ortserschließung.

Mittels welcher Attributierung und Schnittstellen die Zusammenarbeit von Datenbanken im Verbund möglich wurde, stellten SUSE ANDRESEN (Bern), CHRISTIAN POPP (Göttingen) und JÖRG HÖRNSCHEMEYER (Rom) vor. Neben der Nutzung von Normdaten konnten durch spezielle Markierungen der Daten, so zum Beispiel der Bestimmung von Relationen zwischen Personen durch unterschiedliche Relationstypen – „fraglich“, „wahrscheinlich“, „sicher“ – das Auffinden von Verbindungen zwischen Quellen über eine Metasuche mittels Edit-Distance-Algorithmus verbessert werden. Die Herstellung der Relationen erfolgte manuell, was in der anschließenden Diskussion mittelbar zur Frage führte, wie man für umfangreiche Datenbestände eine derartige Attributierung sicherstellen könne; die vorgeschlagene Nutzerbeteiligung bietet einen Ansatz, auch wenn diese redaktionell betreut werden muss. Durch das modulare Vorgehen für bestimmte Zeiten und Räume ist ein sequentielles Erschließen möglich, auch wenn es, so Michael Mattheus, die Gefahr berge, Erschließungen aufgrund abgeschlossener Forschungsfragen abzubrechen. Aus heutiger Perspektive sei jedoch nicht absehbar, wie zukünftig die Daten verwendet werden könnten. Das wechselseitige Vorgehen – Forschungsfrage-Datenerschließung sei sinnvoll, da man so unmittelbar auf Forschungsfragen reagieren könne.

Voraussetzung für derartige kollaborative Ansätze ist es, dass bereits in der Lehre entsprechende Bewertungs- und Nutzungskompetenzen bei zukünftigen Wissenschaftlern geschaffen werden. Entsprechende Seminarkonzepte im Rahmen des Projektes wurden durch BÄRBEL KRÖGER und CHRISTIAN POPP (beide Göttingen) vorgestellt. Diskutiert wurde die Frage, wie weit es zukünftig für Historiker/innen notwendig werde, tiefgreifende IT-Kompetenzen zu erwerben, um mit Datenbanken eigene Forschungsmethoden zu erweitern, oder ob nicht vielmehr die Spezialisierung von IT-Fachleuten auf geisteswissenschaftliche Methoden bzw. Forschungen sinnvoller ist. Schließlich ist die Auseinandersetzung mit der Technik nicht nur ein zeitintensives Unterfangen, sondern erfordert detaillierte IT-Kenntnisse. Die jüngst entstandenen Studiengänge für Experten an der Schnittstelle zwischen Informatik und Geschichtswissenschaften, die sowohl die Möglichkeiten der IT bewerten und umsetzen, als auch die fachwissenschaftlichen Anforderungen implementieren können, erscheint an dieser Stelle erfolgversprechend.

Mehr oder minder als Schlussakkord bot das Panel „Informationsinfrastrukturen im Wandel: Zur Vergangenheit, Gegenwart und Zukunft der Informationsverarbeitung in historischer Lehre und Forschung“ einen historisierenden Blick auf Aspekte von Informationsverarbeitung und Informationsinfrastrukturen, wenngleich diese beiden Begriffe anachronistisch sind, so ARNDT BRENDECKE (München). Mehr noch weist unser heutiger Informationsbegriff Lücken auf und impliziert heute ein Verständnis von Information als Ergebnis eines geregelten Verfahrens. Dabei wurde erst mit der Verschriftlichung von Dokumentation Verfügbarkeit bzw. Unverfügbarkeit von Information erzeugt, wie Brendecke am Beispiel von Geschichtstabellen für die Popularisierung neuer Darstellungsformen und Schaffung vermeintlicher Faktizität zeigte. Über weitere Ursprünge und den Wandel von Informationsinfrastrukturen sprach JAKOB VOGEL (Paris) und verwies auf Anleihen in den Verfahren der Naturwissenschaften sowie Ursprünge der Geschichtsschreibung auf Seiten von Ingenieuren oder Medizinern. Mit deren „Informationsverarbeitung“ einher gingen Standardisierung und Vereinheitlichung, explizit vor dem Hintergrund der Entwicklung von Archiven, Bibliotheken und Museen bzw. der Systematisierung und Klassifikation von Wissen und Schaffung von Publikationsorganen; ein Prozess, der teils zur Vereinheitlichung der Wissensverarbeitung geführt habe. Vogel zufolge sei dieser Wandel aber weniger als Revolution zu deuten, eher als Bürokratisierung im Kontext kameralistischer Verwaltung.

Stärker in Bezug zur noch folgenden Podiumsdiskussion um heutige Informationsinfrastrukturen setzte CHRISTOPH CORNELISSEN (Frankfurt am Main) den Akzent seiner Überlegungen auf die Frage, welche Rolle einerseits „digital natives“ , „digital immigrants“ oder gar die „digital ignorants“ heute bei der Ausgestaltung IT-gestützter Forschung und Lehre spielen. Ähnlich Jürgen Danyel konstatierte Cornelissen, das nach einer Phase vollmundiger Ankündigungen über die Potentiale der IT-Anwendung heute Ernüchterung eingetreten sei. Gleichsam veränderten sich natürlich Forschung und Lehre vor diesem Hintergrund. Die grundlegenden Arbeitstechniken wie Literaturrecherche und -bereitstellung sowie die Fachkommunikation werden weiterhin im Mittelpunkt stehen. Damit werde auch die Themenfindung computergeleitet bleiben, sich weiter internationalisieren und durch Bestände im Netz angeregt werden. Nur würden Forschungsfragen weiterhin primär – im Widerspruch zum Paradigma der Digital Humanities – weiter so behandelt werden, wie heute.

Die abschließende Podiumsdiskussion verschiedener Akteure der Fachinformation und -kommunikation (Archive, Online-Forum, Verlag, Fördermittelgeber) versuchte deren Erfahrungen und jeweilige Perspektiven zu reflektieren. Allen gemeinsam war die Feststellung, dass Beschleunigung, Entgrenzung, Internationalisierung und Interdisziplinarität übergreifend den Wandel von Informationsinfrastrukturen geprägt haben und dies weiter tun werden, sich ebenso neue, medienbezogene Forschungsansätze realisieren ließen (wie zum Beispiel die Visual History oder das auf dem Historikertag umfangreich präsente Thema „sound“) und mediale Visualisierungsformen zu neuen Fragen an das Forschungsmaterial anregen. Die Diskussion zu Fragen des Auditoriums über mögliche Perspektiven blieb allerdings auf schemenhafte Statements zur weiteren Zusammenarbeit und Vernetzung digitaler Angebote beschränkt. Verschiedene Fragen des Auditoriums kreisten zudem um die Problematik, wie man Technologieentwicklung und Entwicklungen im Fach in Einklang bringen könne, wie die notwendige Verschränkung von Datenaufbereitung (Formate, Metadaten) und -verwendung (Forschungsmethoden) zu erreichen sei oder wie Daten heute aufzubereiten seien, um sie in dreißig Jahren noch verarbeiten zu können. Die Internationalisierung durch bilaterale Fördervorhaben, als auch die Übertragung von Publikationsstrategien aus den Natur- und Ingenieurswissenschaften auf die Geisteswissenschaften sind Punkte, die heute im Fokus vieler Projekte stehen. Nicht zuletzt natürlich die Frage, wie weit auf der Technologieebene das Rad neu erfunden werden müsse, teils mit Unterstützung durch Fördermittelgeber, bzw. wie weit man die Entwicklung von Werkzeugen für die Forschung zusammenführen könne. In diesem Punkt boten bereits die vorangegangen Panel Ausblicke auf die Grenzen und Potentiale von „Insellösungen“: Der Einsatz von Basistechnologien (so zum Beispiel der Suchsoftware SOLR in fast allen vorgestellten Projekten) ließe sich als mögliches gemeinsames Arbeitsfeld konstatieren. Mit Blick auf die verschiedenen Projekte zeigte sich aber auch, dass heterogene Lösungen teils auch ihre Daseinsberechtigung haben, solange Werkzeuge nicht in der Lage sind, Daten bzw. Dokumente generisch zu erschließen und zu analysieren.

Rückblickend lässt sich konstatieren, dass Altertumswissenschaften und Mittelalterforschung überzeugend die digitalen Hilfsmittel in Verbindung mit wissenschaftlichen Methoden anwenden, allerdings mit unmittelbarer Nähe zur Linguistik. Zugleich stehen Projekte im Umfeld des elektronischen Publizierens und der Fachinformation und -kommunikation und Quellen(retro)digitalisierung weiterhin im Fokus, da sie leicht mit den Kommunikationsformen und -werkzeugen im Internet experimentieren können. Da sie letztlich die Voraussetzung für weitergehende Forschungen am Material und deren Reflektion sind, wird diese Schwerpunktsetzung von Dauer sein. Verfahren des Information Retrieval, der qualitativen Textanalyse, quantifizierende Methoden sind so neu nicht, erfahren derzeit nur eine Renaissance, da heutige Speicher- und Rechenkapazitäten die Verarbeitung weitaus größerer Textmengen zulassen, als vor vierzig oder fünfzig Jahren; was wiederum die vielfach diskutierte These stützt, dass in den „Digital Humanities“ nicht ein neues Fach erkennbar wird, sondern Anleihen geistes- und kulturwissenschaftlicher Methoden getätigt werden.[5] Leider nur am Rand debattiert wurden Fragen einer zukünftigen Quellenkritik, wie mit der Produktion genuin digitaler Quellen deren Archivierung und Bestandsbildung ausfällt, wie diese neuen Formen zukünftig rezipiert werden können und welcher Spezialisten es zu ihrer Archivierung und Aufbereitung bedarf. Die „analogue born“- Generation jedenfalls erfährt den Medienumbruch längst nicht mehr als völlig radikalen Bruch, sondern praktiziert ihn im Alltag.

Anmerkungen:
[1] In Auswahl (weitere siehe FN 2): Heike Neuroth / Jannidis Fotis / Rapp Andrea / Lohmeier Felix, Virtuelle Forschungsumgebungen für e-Humanities. In: Bibliothek. Forschung und Praxis, 31 (2007) H.3, S. 272, <http://www.bibliothek-saur.de/preprint/2009/ar2581_neuroth.pdf>, (07.01.2013); Patrick Sahle, eScience History? In: Marie-Luise Heckmann / Jens Röhrkasten / Stuart Jenks (Hrsg.), Von Nowgorod bis London. Studien zu Handel, Wirtschaft und Gesellschaft im mittelalterlichen Europa; Festschrift für Stuart Jenks zum 60. Geburtstag, Göttingen 2008, S. 64; Bundesministerium für Bildung und Forschung, Geisteswissenschaften digital, 27.07.2012, <http://www.bmbf.de/press/3319.php>, (07.01.2012).
[2] Zu „Digital Humanities“ im Detail Peter Haber, Zeitgeschichte und Digital Humanities, Version: 1.0, in: Docupedia-Zeitgeschichte, 24. 9.2012, URL: <https://docupedia.de/zg/Digital_Humanities?oldid=84594>. Projekte und weitere Informationen auch im Blog „Digital Humanities im deutschsprachigen Raum“ unter <http://dhd-blog.org/> (07.01.2013).
[3] Das Projekt eAqua ist mittlerweile abgeschlossen, die Forschungsvorhaben werden im Rahmen des Projekts eXchange – eXploring Concept Change and Transfer in Antiquity fortgeführt.
[4] In der Historischen Geographie beispielsweise ist das Erkenntnispotential durch die Nutzung von GIS selbst umstritten. So . z.B. Axel Posluschny, Erkenntnisse auf Knopfdruck? GIS und PC in der Kulturlandschaftsforschung. Grundsätzliche Überlegungen. In: Siedlungsforschung 24 (2006), S. 289-312, <http://www.kulturlandschaft.org/Downloads.htm> bzw.< http://www.kulturlandschaft.org/Downloads-Dateien/SF24-2006.pdf> (07.01.2013).
[5] siehe FN 2.

Zitation
Historikertag 2012: eHumanities, in: H-Soz-Kult, 16.01.2013, <www.hsozkult.de/debate/id/diskussionen-1999>.
Redaktion
Veröffentlicht am
16.01.2013
Beiträger
Klassifikation
Weitere Informationen
Sprache Beitrag