Forum: M. Krajewski: Programmieren als Kulturtechnik

Von
Markus Krajewski, Seminar für Medienwissenschaft, Universität Basel

Medienkritik tut not. Wie lässt sich ein im Archiv zufällig gefundener Zeitungsschnipsel eigentlich einordnen? Wie lässt sich ein Filmausschnitt verstehen, den man mangels methodischem Rüstzeug weder ästhetisch noch konzeptionell klassifizieren kann, der aber für die eigene Arbeit ebenso evident wie unabdingbar erscheint? Wie lässt sich gar ein beliebiges Dokument, sei es auf Papyrus oder ein digitaler screenshot, ohne die Kenntnis seines Alphabets, seiner Kodierung und Herstellungsweise nicht bloß entziffern, sondern auf allen Ebenen analytisch fassen und kontextualisieren? Es ist offenkundig: Längst schon geht es beim Studium von Quellen nicht allein um Inhalte. Auch die mediale Form und Genese der Quelle spielt bei ihrer Einordnung und Analyse eine immer wichtigere Rolle, insofern der Entstehungskontext sowohl sozial (wer war daran beteiligt) als auch medienmaterialistisch (welche Techniken und Verarbeitungsformen kamen zum Einsatz) für gewöhnlich nicht explizit mit überliefert wird. Kann man zum Beispiel einem auf der Schreibmaschine verfassten Memorandum aus der Kriegsrohstoffabteilung von 1917 ansehen, ob es vom Autor selbst oder von einem Sekretär getippt wurde? Sicher nicht mit Sicherheit, Indizien aber gibt es immer.

Wie Eva Schlotheuber und Frank Bösch nun in einem Positionspapier des VHD darlegen, sind beide Kompetenzen, die klassische Quellenkritik ebenso wie eine adäquate Medienkompetenz im Kurrikulum der Geschichtswissenschaften existentiell bedroht bzw. hochgradig unterrepräsentiert. Sollte eine kontinuierliche Vermittlung dieser Fähigkeiten im Studienverlauf ausbleiben, gefährdet dies nicht nur das Handwerkszeug der angehenden Historiker, sondern führt zur Verkümmerung eines ebenso hochgeschätzten wie unabdingbaren Wissens, das einmal unter dem Titel der „Historischen Hilfswissenschaften“ größtes internationales Ansehen genoss, schulbildend wirkte und eine eigene Fachtradition auszubilden vermochte.

Was wird in 100 Jahren eine Quelle sein, mit der die einstige Forschung die Wissenslandschaft im Jahre 2015 zu analysieren vermag? Bücher wird es immer geben, schließlich bewegt sich die Anzahl der auf Papier gedruckten Neuerscheinungen seit Jahren auf schwindelerregend hohem Niveau. Der Korridor umfasst 85.000 bis 96.000 Bücher allein im deutschen Verlagswesen – pro Jahr. Nur werden zusätzlich zu diesen Fluten noch weitere, kaum überschaubare Mengen von mehr oder wenig gut strukturierten Daten anfallen, sei es in XML und mit subtilsten Meta-Daten, oder sei es als schlichteste Ascii-Datei – die Summe der von Archiven und Museen zu speichernden Zeichen bewegt sich im Zettabyte-Bereich.

“Die Vermittlung von grundlegenden medienanalytischen Werkzeugen ist daher als Teil der Historischen Grundwissenschaften unerlässlich“, fordern Schlotheuber und Bösch, ohne dies allerdings thematisch näher zu umreißen. Eine strukturelle Filmanalyse eignet man sich nicht im Zuge einer Summer School oder eines Intensivwochenendes im akademischen Bootcamp namens Blockseminar an. Gleiches gilt für die Fähigkeit, einen vorgefundenen statistischen Datensatz in einem SPSS-Derivat konzeptionell einordnen zu können. Von dem tiefergehenden Verständnis von Datenbankstrukturen auf SQL-Ebene oder noch allgemeiner von Programmcode ganz zu schweigen, der in manchen Teilen der Wissenschaft – auch jenseits seiner funktionellen Eigenschaft als source code – längst zur historischen Quelle geworden ist.

Ähnlich wie in Akten mit ihren – von Cornelia Vismann so luzide analysierten – Operatoren, die jene zwischen Mündlichkeit und Schriftlichkeit abgelegten Inhalte im Prozessablauf steuern, kommen die Daten der Gegenwart in seltsamen, virtuellen Gefäßen daher, manche transparent und lesbar wie im Open Data Format, manche proprietär wie in .doc-Dateien, und manche bewusst arkan und verstrickt wie im pdf-Format. Den Dokument-Eigenschaften (inkl. Entstehungszeit in Mikrosekundenauflösung, Autorname, letztem Zugriffsdatum etc.), die sich zumeist irgendwo in den hintersten Menüunterpunkten verstecken, kommt für die Historiker der Zukunft eine kaum zu überschätzende Bedeutung zu. Denn schließlich gilt in Zeiten der digitalen Datenverarbeitung und ihrer ephemeren Elemente vor allem das, was jeder Programmierer scheut wie der Vampir die Morgensonne: das sorgfältige Dokumentieren dessen, wie man die generierten Daten gewonnen hat. Dazu dienen Meta-Datensätze. Sie markieren und erklären die Herstellungsweise, so dass man – bei entsprechender Berücksichtigung dieser Regeln schon vor 98 Jahren – heute ohne Probleme hätte sagen können, wessen Finger die Schreibmaschinentasten im besagten Fund in der Kriegsrohstoffabteilung führten. Von solchen Provenienzen und Evidenzen können marginale Interpretationen oder ganze Thesengebäude gleichermaßen abhängen.

In Zeiten, in denen die Fördersummen für Digital Humanities-Projekte Höhen erreichen, die so groß sind wie die Menge des Materials selbst, das zu digitalisieren man sich vornimmt, in solchen Zeiten fehlt es schmerzlicherweise an übergreifenden Theorien innerhalb der Fächer ihrer Bearbeitung, sei dies nun in der Historiographie oder eben in dem letzten Neuzugang historischer Grundwissenschaften namens Digital Humanities. Es mangelt nicht nur an Vermittlungsmöglichkeiten, es mangelt allen voran an Theorien, Leitlinien und Kritik, anhand derer der fröhliche Positivismus des „Einfach-mal-auf-den-Scanner-Legen-irgendwer-wird-es-schon-brauchen-in-den-nächsten-100-Jahren“ zu bändigen oder überhaupt zu bewerkstelligen wäre. Diese Kriterien generiert die Geschichtswissenschaft nicht exotherm.

Was folgt daraus? Zunächst ganz schlicht die Einsicht, dass man innerhalb der Historikerzunft nicht alles alleine lösen können wird. Mediengeschichte, zum Beispiel, wird seit nunmehr gut zwei Jahrzehnten auch jenseits von Geschichtsdepartmenten und Historischen Seminaren mit einigem, auch internationalem Ansehen betrieben, verbunden mit einem erklecklichen Theorieanspruch und zugleich nicht ohne praktischen Impuls, der auf die differenzierte Vermittlung der grundlegenden akademischen Kulturtechniken Lesen, Schreiben, Denken – und im 21. Jahrhundert eben auch: Programmieren setzt. Und gerade diese neuste Kompetenz zu integrieren, um einem digitalen Analphabetismus vorzubeugen, darf sich die Gemeinschaft der historisch Forschenden nicht verweigern. Hier bietet es sich an, seitens der etablierten und großen Schulen der Historiographie ihre traditionellen Berührungsängste abzulegen und Interdisziplinarität jenseits der scheuklappenbewehrten Fachtradition zu üben. Mit der Erosion von basalen Kompetenzen im Bereich der Quellensichtung wird deutlich, dass diesem Defizit nicht von einer Disziplin allein abgeholfen werden kann. Denn so wie die Kodikologie, die Diplomatik, die Numismatik und die Sphragistik nie ohne den Sachverstand der Kunstgeschichte, Mediävistik, Altertumskunde, Physik oder Chemie auskommen konnten, so wenig wird die Geschichtswissenschaft in Zukunft ohne den intensiven Austausch und endothermen Wissenstransfer – übrigens stets multidirektional gedacht, auch wenn die MINT-Fächer vom Rückkanal nur selten etwas wissen wollen – zwischen Informatik, den Philologien, der Medientheorie und der Philosophie und ihrer digitalen Expertise bestehen.

Eine Übersicht über alle Beiträge des Diskussionsforums finden Sie hier: <http://www.hsozkult.de/text/id/texte-2890>.