„Declassifiction Engine“ von Matthew Connelly ist ein faszinierendes Buch! Es ist spannend wie ein Thriller, von hoher politischer Relevanz und methodisch innovativ und inspirierend. Connelly erzählt auf 400 Seiten die Geschichte der Geheimhaltung in den USA des 20. Jahrhunderts. Er analysiert, warum und wie der ursprünglich auf dem Prinzip maximaler Transparenz gegründete Regierungsapparat der USA einen „Kult der Geheimhaltung“ (S. 33) hervorbrachte, der das Potential hat, das Funktionieren des Staatswesens und der Demokratie selbst zu gefährden. In 10 Kapiteln durchmisst Connelly diesen Archipel des Unbekannten und beleuchtet den Problemkomplex „Geheimhaltung“ aus verschiedenen Perspektiven.
Connelly gelingt das Kunststück, ein Kernelement sämtlicher (auch popkulturell wirkmächtiger) Verschwörungstheorien, den „dark state“, empirisch zu fassen, ohne den Mythos von dessen Allwissenheit weiter zu befeuern. Im Gegenteil: Indem er die Funktionsweise und Konturen des Dark State analysiert, tritt dessen dysfunktionaler und nicht selten lächerlicher Charakter zutage. Der Dark State entstand mit dem Eintritt der USA in den Zweiten Weltkrieg nach dem Angriff Japans auf Pearl Harbour am 7. Dezember 1941 (S. 36). Aber die Hierarchisierung und Abschottung von Informationszugang („stratification“ und „compartmentalization“) wurde erst von General Leslie Groves im Zuge des Manhattan Projects ab 1942 etabliert (S. 66): Die Zugehörigkeit zu den verschiedenen Ebenen der Eingeweihten wurde auf Badges mit Farben sowie Akronymen codiert und das „need to know“ Prinzip eingeführt, nach dem einzelne Behörden und Abteilungen nur über die nötigsten Informationen verfügen. In der Organisation des Atombomben-Programms zeigten sich bereits wesentliche Elemente und Effekte der Geheimhaltung: Die Befugnis zur Klassifizierung und Zugang zu geheimem Wissen wurden zu ultimativen Formen der Macht. Seitdem benötigt die Exekutive stetig wachsende und komplexere Apparate, um ihre Geheimnisse zu schützen. 1,3 Millionen Amerikaner:innen haben heute eine „security clearance“ und können damit dem Dark State zugerechnet werden. Somit wuchsen Strukturen, die sich immer schwerer demokratisch kontrollieren lassen und – da sie die demokratischen Zyklen von zeitlich begrenzten Legislaturperioden überdauern – dazu neigen, ein Eigenleben zu entwickeln. Gleichzeitig wächst auch die Menge an „sensiblen“ und als geheim eingestuften Informationen stetig. Damit wird es immer schwieriger, diese adäquat zu schützen und im Bedarfsfall relevante Informationen schnell zu finden. Der Dark State ertrinkt also förmlich in einem Meer aus Geheiminformationen (S. 337).
Matthew Connelly enthüllt nicht nur, wer für die exzessive und sich immer weiter ausweitende Geheimhaltung in den USA verantwortlich ist und wie diese immer weiter um sich greift, sondern auch was geheimgehalten wird. Apodiktisch formuliert Connelly seine Einsicht auf Seite 319: „Most ‚secret intelligence‘ is not very secret, and much of what remains secret is not very intelligent.“ Die schiere Masse an Informationen, die nicht besonders geheim sind, aber dennoch einen „secret“ Stempel tragen, droht das gesamte System zu verstopfen und zu überfordern. Connelly präsentiert atemberaubende Belege für unintelligente Geheimhaltung: Baupläne des neuen NSA-Headquarters in Ford Mead waren frei zugänglich (S. 118), die Existenz der Wasserstoffbombe wurde von einem US-Senator im TV ausgeplaudert (S. 83) und die streng-geheimen Analysen zu internationalen Konflikten, die verschiedene Geheimdienste zusammenstellen und Politikern vorlegen, bestehen oft nur aus gesammelten Zeitungsartikeln (S. 326). Connelly kritisiert in diesem Zusammenhang auch scheinbar sensationelle Leaks und die Berichterstattung dazu: Die von Wikileaks 2010 veröffentlichten Dokumente aus dem State Department waren schlecht aufbereitet und bestanden mehrheitlich aus alten Zeitungskonvoluten (S. 329). Auch von den seinerzeit heiß diskutierten E-Mails von Hillary Clinton, deren mangelnder Schutz die Öffentlichkeit so sehr besorgten, können maximal 6 Prozent als sensibel gewertet werden (S. 339).
Geheim gehaltene Informationen sind außerdem oftmals nicht sehr intelligent. Einem großen Teil des klassifizierten Materials geht es um die Geheimhaltung selbst oder das Gewinnen geheimer Informationen. Der zweite große Bereich geheimer Informationen besteht aus der Vertuschung von Dummheit und Inkompetenz. Auch hier wartet Connelly mit einer Vielzahl spektakulärer Beispiele auf. So bestand etwa der streng geschützte Autorisierungscode, mit denen ein US-Präsident in die Lage versetzt wird, einen nuklearen Angriff einzuleiten, über Jahre hinweg einfach aus acht Nullen (S. 130)!
Connellys Buch ist ein inspirierendes Beispiel für die produktive Anwendung digitaler Methoden für die Zeitgeschichte und ihr spezifisches Problem eines Überflusses an historischen Quellen, die zudem zunehmend rein digital vorliegen.1 Zusammen mit seinem Team am History Lab hat Connelly einen großen Datensatz ehemals geheimer diplomatischer Quellen sowie anderer Regierungsdokumente angesammelt und eine Reihe von Methoden der Data Science daran erprobt.2 Fast alle Kapitel enthalten neben der Analyse einer bestimmten Praxis, einer Akteursgruppe oder einem Gegenstand der Geheimhaltung die Schilderung von Experimenten, mit denen das Team des History Labs versuchte, das Geheimnis zu knacken oder zumindest empirisch zu vermessen. So wird schon im ersten Kapitel Textanalyse mit Computer-Vision kombiniert, um durch den systematischen Vergleich von (ehemals) geschwärzten Dokumenten und Stellen und ihren freigegebenen Versionen entscheidende Dokumente zu identifizieren (S. 39, S. 257). Ein ähnliches Verfahren wird in Kapitel 7 in Kombination mit Named Entity Recognition (NER) angewandt, um „America‘s Most Redacted“ zu identifizieren (S. 263): Es handelt sich um den Multimillionär, Erdöllobbyisten und Geschäftsmann William Pawley, der den enormen Einfluss des Kapitals auf die US-Außenpolitik und deren enge Verquickung mit privaten Geschäftsinteressen personifiziert. In den Digital Humanities weitverbreitete Methoden des distant reading wie topic modelling und words in context werden von Connellys Team mehrfach eingesetzt, um zu evaluieren, welche Politikfelder und Themen am ehesten und am meisten klassifiziert werden (S. 61f., S. 253). Die Forschenden des History Lab experimentieren auch mit Zugängen des Data Mining. So vermessen sie, wie viele Dokumente die aufeinander folgenden Präsidenten und Administrationen jeweils als geheim einstuften, oder analysieren Kommunikationsverläufe, von denen ihnen nur die Metadaten vorlagen (S. 203f., S. 276). Diese traffic analysis entspricht dem Verfahren, mit dem die NSA automatisiert sämtliche elektronische Kommunikation auf dem Planeten auswertet, wie wir dank Eduard Snowden seit 2013 wissen. Hier tritt die „Declassification Engine“ in ihrer ersten und primären Bedeutung zutage, als eine Sammlung von in machine learning trainierter Algorithmen, die in der Lage sind, große Datenbestände zu durchforsten sowie zu analysieren und somit dem Deep State einige seiner bestgehüteten Geheimnisse zu entreißen. Der Begriff „Declassification Engine“ hat allerdings noch eine zweite Bedeutung: Connelly und sein Team können auf Grundlage ihrer Erkenntnisse ihre Maschine auch „rückwärts“ laufen lassen: Machine learning lässt sich auch nutzen, um den Prozess der Klassifizierung und Deklassifizierung von Regierungsdokumenten zu rationalisieren und zu beschleunigen. Der Gewinn läge nach Connelly darin, dass der enorme Berg an sinnlos geheim gehaltenen Informationen abgebaut würde und was übrig bliebe, „besser geschützt, besser geheimgehalten, und intelligenter“ wäre (S. 346).
Geschichtswissenschaft als Data Science (S. 398), wie sie Connelly in seinem Buch eindrucksvoll demonstriert und propagiert, hat allerdings zur Voraussetzung, dass Dokumente und Datensätze überhaupt in Archive gelangen und dort aufbewahrt sowie der Forschung zugänglich gemacht werden. Diese Voraussetzung ist im Zeitalter der Digitalisierung nicht mehr gegeben: Erstens lässt sich digitale Kommunikation wesentlich leichter löschen als die klassische Aktenführung auf Papier; zweitens werden trotz steigendes Volumens immer weniger Korrespondenzen bei den Archiven abgeliefert, wie die Affären um den privaten Server von Hillary Clinton und die vertraulichen Dokumente in der Toilette von Donald Trump oder der Garage von Joe Biden zeigen. Drittens häuft sich ein enormer Backlog an unsortierten elektronischen Korrespondenzen an, weil die Archive – in diesem Fall das US-amerikanische Nationalarchiv – an einem alarmierenden Personalmangel leiden. Dieser Problemlage widmet Connelly ein ganzes Kapitel, denn wenn die Archive ihren Aufgaben nicht mehr nachkommen können, droht tatsächlich das „Ende der Geschichte“ (S. 387).
Connellys Buch inspiriert. Neben der methodischen Innovation und dem spannenden Thema enthält es einen politischen Appell an die Zunft und die Rolle der Zeitgeschichte. Mehrfach spricht er vom „Gerichtshof der Geschichte“, vor dem Regierungen und Politiker zur Rechenschaft gezogen werden können müssen. Die Gesellschaft muss in einem demokratischen Staatswesen nachvollziehen können, was ihre Regierung in ihrem Namen unternommen hat. Ist diese Möglichkeit nicht mehr gegeben, leidet das Vertrauen in das Regierungshandeln und gefährdet die Demokratie. Die Aufgabe der Zeitgeschichtsforschung ist es demnach, wie Staatsanwälte Beweise zu sammeln und den Anklagesatz zu verfassen. Connelly ergänzt diese ehrenvolle Rollenzuschreibung für die Zeitgeschichtsforschung mit einem weitaus weniger schmeichelhaften Porträt der gängigen Forschungspraxis. Mit Verweis auf den viel zitierten Text von Lara Putnam konstatiert auch er, dass die Verengung des Blicks auf Archivbestände durch den schmalen Schlitz der Keyword-Suche zu einer zunehmend oberflächlichen Forschung führe – und dies, wie er explizit hinzufügt, noch bevor originär digitale Quellen in die Analyse einbezogen werden (S. 397).3 Matthew Connelly gelingt es mit „The Declassification Engine“ zu demonstrieren, weshalb sich die Zeitgeschichtsforschung weiter in Richtung einer Daten getriebenen Sozialwissenschaft entwickeln muss und welches Potential darin liegt: Nur „History as Data Science“ ist imstande, die rapide wachsende Menge an digitalen Quellen zu bewältigen, anstatt im Überfluss zu ertrinken.
Anmerkungen:
1 Vgl. Ian Milligan, History in the Age of Abundance? How the Web Is Transforming Historical Research, Montreal 2019.
2 Vgl. History Lab, http://history-lab.org (10.10.2024).
3 Vgl. Lara Putnam, The Transnational and the Text-Searchable. Digitized Sources and the Shadows They Cast, in: The American Historical Review 121 (2016), S. 377–402, https://doi.org/10.1093/ahr/121.2.377 (10.10.2024). Siehe auch Konrad Becker u.a. (Hrsg.), Deep Search. Politik des Suchens jenseits von Google, Innsbruck 2009.