Digitalisierung, Big Data und die Aufgabe der Theorie

Digitalisierung, Big Data und die Aufgabe der Theorie

Veranstalter
Deutsche Gesellschaft für Geschichte der Medizin, Naturwissenschaft und Technik e.V.
Veranstaltungsort
Institut für Medizingeschichte und Wissenschaftsforschung, Königstraße 42
Ort
Lübeck
Land
Deutschland
Vom - Bis
16.09.2016 - 18.09.2016
Von
Susan Splinter

Der Vorstand der Deutschen Gesellschaft für Geschichte der Medizin, Naturwissenschaft und Technik e.V. lädt ein zu Vortrags- und Sektionsanmeldungen für die Jahrestagung in Lübeck vom 16. - 18. September 2016 mit dem Rahmenthema
DIGITALISIERUNG, BIG DATA UND DIE AUFGABE DER THEORIE
Die neuen Möglichkeiten der Informationstechnologien verändern die Wirklichkeit, sie bestimmen den Alltag und greifen längst auch in die Arbeitsbedingungen historischen Arbeitens ein. Das Bearbeiten gigantischer Datenmengen, die noch vor kurzem unvorstellbar waren, ist in vielen Wissenschaftszweigen zur Selbstverständlichkeit geworden, und die wachsenden digitalen Archive eröffnen auch der Medizin-, Wissenschafts- und Technikgeschichte neue Perspektiven – bzw. stellen sie vor neue Herausforderungen. Zu den Einsatzfeldern von Big Data gehören genetische Sequenzen oder Klimadaten ebenso wie die Textcorpora der Literaturwissenschaften, historische Zeitschriften- und Buch-Bestände oder digitalisierte Archivalien.
2008 ging Chris Anderson, der damalige Chefredakteur der Zeitschrift Wired, so weit, angesichts von Big Data „das Ende der Theorie“ auszurufen, weil nun die ganze Welt in ihren Daten gesammelt und diese Daten von Computern bearbeitet werden können, ohne einen Umweg über abstrahierende Theorien nehmen zu müssen. Was ehemals als starke Theorie sein Recht behauptet habe, erscheine im Licht der neuen Technik als problematische Verkürzung komplexer Sachzusammenhänge, Theorie würde schlicht obsolet. Wissenschafts- und Technikgeschichte steht solchen Thesen allein schon deswegen skeptisch gegenüber, weil es in den verschiedensten Wissenschaften und Praxisfeldern schon seit langer Zeit sehr große Datensammlungen gab und die Klage über die Informationsexplosion so alt ist wie die Informationsmedien. Aber (a) welche Aufgabe hat heute Theorie angesichts von Big Data, (b) wie sind die aktuellen Diskussionen historisch einzuordnen, (c) welche Veränderungen kommen auf unsere Fächer zu und (d) wie können wir profitieren, ohne uns in den Datenmengen zu verlieren?

(a) Big Data als Zäsur
Tatsächlich wird heute diskutiert, ob gegenwärtig ein Strukturwandel der Wissenschaften zu beobachten ist, der vom klassischen Theorie-Ideal der Neuzeit wegführt zum technischen Können. Dazu lässt sich nicht nur auf die Konjunktur der Bio-, Technik-, Material- und Umweltwissenschaften verweisen oder auf die Partizipation der klassischen Naturwissenschaften an der Nanotechnologie, sondern auch die Sozialwissenschaften sind auf „datengetriebene Forschung“ eingeschwenkt, in den Geisteswissenschaften erfreut sich die „grounded theory“ weiter Verbreitung als dezidiert antispekulative Neuausrichtung der Hermeneutik und in der Medizin werden in Genetik, Klinischen Studien und Neurowissenschaften große Datenmengen generiert, um aus der Menge der Daten die Muster bislang unbekannter Korrelationen und Interaktionen hervortreten zu lassen. Was bedeuten diese Entwicklungen für die Theorie? Wie haben sich ihre Aufgaben, vielleicht auch ihre Möglichkeitsbedingungen und Potenziale angesichts von Big Data verändert?

(b) Historische Distanz und Big Data als Praxis
Die Aktualität des Themas mit seinen noch weitgehend unausgeloteten Effekten im Wissenschaftsbetrieb fordert zu historischer Tiefenschärfe heraus, um nicht vorschnell dem gegen-wärtigen Hype um Big Data aufzusitzen. Große Datenmengen waren immer schon das Kennzeichen von Bibliotheken und Archiven, deren praktische Expertise zugleich im Umgang mit ihnen lag und im 19. Jahrhundert zu nationalen Initiativen der Informationsverwaltung führte. Dazu zählten auch die Museen und Sammlungen, die sich seit ihrer Gründung den Sachen selbst verschrieben – als nicht weniger gigantische Speicher. Technische Projekte und ganze Forschungszweige der verschiedensten Disziplinen der Natur-, Geistes- und Sozialwissenschaften fußten auf der Handhabung sehr großer Datenmengen. Welche neuen Sichtweisen auf diese lange Geschichte der Datensammlung eröffnen sich aus der gegenwärtigen Konjunktur von Big Data? Welche neuen Probleme und Herausforderungen ergeben sich aus den digitalen Möglichkeiten für historische Projekte? Welche Praktiken von Big Data lassen sich aus einer historischen Perspektive mittlerer und langer Reichweite identifizieren. Und was kann Wissenschafts-, Medizin- und Technikgeschichte zu den aktuellen Diskussionen beitragen?

(c) Reflexive Nähe
Das Thema soll nicht nur auf der Ebene des Gegenstands, sondern auch reflexiv hinsichtlich der in der DGGMNT versammelten Fächer mit ihren jeweiligen methodischen und praktischen Orientierungen entfaltet werden: Nach einer „heißen Phase“ der Theorie-Debatten in der Wissenschaftsforschung, aber auch in der Medizin-, Wissenschafts- und Technikgeschichte mit ihren verschiedenen Turns dominieren nun Zugänge, die – freilich oft aus präzisen theoretischen Erwägungen heraus – situierte Praktiken, konkrete Materialitäten und mediale Vermittlungen ins Zentrum der Analyse und Reflexion rücken. Welche Effekte haben Big Data und Digitalisierungsprojekte für die Orientierung unserer Fächer? Welche Auswirkungen ergeben sich daraus für die Rolle von Theorie?

(d) Digital Humanities & Big Data als Methode
Unter dem Stichwort Digital Humanities wird Big Data zunehmend zu einer Forschungsrealität auch von Wissenschafts-, Medizin- und Technikgeschichte. Was aber genau „Big Data“ in den Geschichtswissenschaften heißt und was davon zu erwarten ist, bleibt vorerst unklar. Unstrittig scheint dagegen zu sein, dass sich die Potenziale von Big Data nur verwirklichen lassen, wenn die Methodenfrage geklärt ist. Die Fragen, die sich an uns als Scientific Community richten, sind: Was können Wissenschafts-, Medizin- und Technikgeschichte von Big Data-Arbeitsweisen erwarten? Welche technischen und methodischen Standards brauchen wir? Welche Strategien gibt es, nicht schon an den technischen und finanziellen Herausforderungen zu scheitern? Was sind die Erfahrungen, auch hinsichtlich rechtlicher Rahmenbedigungen und der Publikationspraxis? Wie bringen wir in Zukunft „Big Data“ in der Lehre ein? Welche Aufgaben kommen auf Institute, Fachverbände und Fachgesellschaften zu?

Im Rahmen dieser Überlegungen will der Vorschlag zu Vorträgen auffordern, die sich in vielfältiger Weise mit dem Thema auseinandersetzen.

Programm

Freitag, 16. 09. 2016

12.00-18.00 Uhr
Registrierung im Tagungsbüro, Institut für Medizingeschichte und Wissenschaftsforschung, Königstraße 42

13.30-14.30 Uhr
Treffen des Fachverbands Wissenschaftsgeschichte, Dachgeschoss, Institut für Medizingeschichte und Wissenschaftsforschung, Königstraße 42

14.30-17.30 Uhr
Mitgliederversammlung der DGGMNT, Hörsaal,
Institut für Medizingeschichte und Wissenschaftsforschung, Königstraße 42

18.30 Uhr
Eröffnung der DGGMNT-Jahrestagung
Audienzsaal des Lübecker Rathauses, Breite Straße 42

Begrüßung durch den Vorsitzenden der DGGMNT, Friedrich Steinle
Grußworte seitens der Hansestadt, Kultursenatorin Kathrin Weiher
Grußworte seitens des Präsidenten der Universität zu Lübeck, Hendrik Lehnert
Begrüßung durch die örtliche Tagungsleitung, Cornelius Borck

19.00 Uhr
Eröffnungsvortrag: Sabina Leonelli, University of Exeter
What difference does quantity make? Remarks from the epistemology of data-centric biology and biomedicine
(Einführung: Cornelius Borck, Lübeck)

anschließend Empfang

Samstag, 17. 09. 2016
08.30-19.00 Uhr
Registrierung im Tagungsbüro, Musikhochschule, Große Petersgrube 21

9.00-10.00 Uhr
Plenarvortrag, Kammermusiksaal: Christine von Oertzen, Berlin
Die Historizität der Verdatung. Konzepte, Werkzeuge und Praktiken im 19. Jahrhundert
(Einführung: Friedrich Steinle, Berlin)

10.00-10.30 Uhr
Kaffeepause

10.30-12.30 Uhr
Sektion I
Von Daten getrieben? Meteorologische und klimatologische
Theoriebildung in historischer Perspektive
Moderation: N. N.
Kammermusiksaal

Linda Richter, Frankfurt/Main
Witterungslehre(n) um 1800: Akteure, Methoden und Wissensbestände

Franziska Hupfer, Zürich
Zwischen Nützlichkeit und Erkenntnis: Wissensproduktion staatlicher Wetterdienste, 1850-­1920

Dania Achermann, Aarhus
Die Einführung der numerischen Wettervorhersage in Deutschland und die Folgen für die Klimatologie

Manuel Kaiser, Zürich
Von Wolkendaten zu „Datenwolken“: Zum Verhältnis von Theorie, Empirie und Datenerhebung in der Wolkenphysik

10.30-12.30 Uhr
Sektion II
Small Data. Wissen machen mit kleinen Datenmengen in der Medizin
Moderation: Heiner Fangerau, Düsseldorf
Opernprobebühne (Raum 181)

Volker Hess, Berlin
Datum magnum: Der irreduzible Fall in der Konsilien-Literatur der Frühen Neuzeit

J. Andrew Mendelsohn, London
Cases in Motion

Hannes Kassar, Berlin
Mistrusting numbers

Alexa Geisthövel, Berlin
Medizinische Daten in der Unfallversicherung (1890-1935)

10.30-12.30 Uhr
Sektion III
Moderation: Christina Brandt, Bochum
Raum 39

Marco Tamborini, Berlin
Archäologie der modernen Datenpraktiken: Von einer bloßen Anhäufung von bürokratischen Daten zur paläontologischen Statik

Christian Sammer, Münster/Bielefeld
Vergleichende Therapie im Zweiten Weltkrieg
Paul Martini, Kurt Gutzeit und die „mathematische Methode“ der medizinischen Therapieforschung

Julia Inthorn, Mainz und Rudolf Seising, Jena
Evidenzbasierte Medizin und der Einfluss von Big Data auf die handlungspraktische Relevanz medizinischer Studien

Alina Bothe, Berlin
Big Data und lebensgeschichtliche Interviews: Chancen, Scheitern, Ambivalenzen

12.30-13.30 Uhr
Mittagspause

13.30-14.15 Uhr
Informationsveranstaltung zu DFG-Fördermöglichkeiten.
Mit Torsten Fischer (DFG), Cornelius Borck (DFG-Fachkollegium Geschichtswissenschaften) und Helmuth Trischler
Opernprobebühne (Raum 181)

14.15-15.45 Uhr
Big Data in den Geisteswissenschaften: Digital Humanities nach dem „langen Sommer der Theorie“?
Podiumsdiskussion mit Andreas Fickers, Gabriele Gramelsberger, Heiko Weber und Helmuth Trischler
Moderation: Cornelius Borck
Kammermusiksaal

15.45-16.15 Uhr
Kaffeepause

16.15-18.15 Uhr
Sektion IV
Infrastruktur, Epistemologie und Perspektiven von Big Data in der Wissenschafts- und Zeitgeschichte
Moderation: N. N.
Kammermusiksaal

Manfred D. Laubichler und Erick Peirson, Arizona State University
Detecting and Explaining Innovations in Science with Big-Data Computational Methods and Modeling

Florian Schmaltz, Berlin
Zur Infrastruktur, Epistemologie und Perspektiven der Digialisierungsstrategien des Forschungsprogramms Geschichte der Max-Planck-Gesellschaft

Ulrike Thoms, Berlin
Die MPG, ihre Wissenschaft und die Öffentlichkeit. Möglichkeiten und Grenzen der Inhaltsanalyse zur Aufklärung eines komplexen Verhältnisses

16.15-18.15 Uhr
Sektion V
Der Nobelpreis. Konstruktion und Kommunikation wissenschaftlicher Exzellenz im 20. Jahrhundert zwischen Einzelstudie und ‚Big Data‘
Moderation: Nils Hansson, Düsseldorf und Thorsten Halling, Köln
Opernprobebühne (Raum 181)

Heiner Fangerau und Nils Hansson, Düsseldorf
„‚Big Data‘ und Visualisierung in der Wissenschaftsgeschichte:
Die Netzwerke des Physiologen und Nobelpreisaspiranten Jacques Loeb“ oder „How Not to win a Nobel Prize“

Axel C. Hüntelmann, Berlin
Datenverwaltung und Netzwerken. „Grundlagenforschung“ wissenschaftlicher Arbeit – Paul Ehrlich und der Nobelpreis

Lisa‐Maria Packy, Aachen, Matthis Krischel und Friedrich Moll, Düsseldorf
„Vom Nobody zum Nobelpreisträger? Werner Forßmann und die deutsche Urologie“

Nils Hansson, Düsseldorf und Thorsten Halling, Köln
„Akademien der Wissenschaften: Netzwerke für künftige Nobelpreisträger?“

16.15-18.15 Uhr
Sektion VI
Moderation: Alexander von Schwerin, Berlin
Raum 39

Vanessa Cirkel-Bartelt, Wuppertal
"Citizen Science" und die konzeptuellen Anfänge von "Big Data" in traditionellen Datensammlungen: das Beispiel des Atomic Gardening

Martin P. M. Weiss, Bremerhaven
Analoge Datenverarbeitung am Beispiel der ostdeutschen Gezeitenrechenmaschine von 1955

Eugenio Bertozzi, Flensburg
Computing bubbles: a new era for data-handling in particle physics experiment.

Ab 19.00 Uhr
Die 99. Tagung feiert Humanities im Zeichen von Big Data
Institut für Medizingeschichte und Wissenschaftsforschung, Königstraße 42
19.30 Uhr
Preisverleihung des NTM Artikelpreises und des Nachwuchspreises der DGGMNT
Im Anschluss
Konferenzdinner und -party

Sonntag, 18. 9. 2016

Musikhochschule, Lübeck, Große Petersgrube 21

9.00-11.00 Uhr
Sektion VII
Modellieren, Simulieren, Muster finden
Historische, anthropologische und philosophische Reflexionen
Moderation: Rudolf Seising, Jena
Opernprobebühne (Raum 181)

Ulf Hashagen, München
The Computation of Nature. or: Does the Computer Drive Science?

Gerard Alberts, Amsterdam/München
Mathematical Modeling as Second Nature

Arianna Borrelli, Berlin
Monte Carlo Simulationen als Medium der Theorie in der frühen Teilchenphysik

Matthias Heymann, Aarhus
Von heuristischer Computersimulation zu einer Voraussagekultur: Wie Klimamodelle zu politischen Instrumenten wurden

9.00-11.00 Uhr
Sektion VIII
Moderation: Hans-Georg Hofer, Münster
Raum 39

Nadine Metzger, Erlangen
"Insgesamt wurden 1864 Mann vermessen" – Anthropometrische Daten und konstitutionspathologische Fragestellungen nach dem Ersten Weltkrieg

Carola Oßmer, Lüneburg
„Atlas of Infant Behavior“ oder: Bilder von idealen Kindern und idealer Wissenschaft

Vera Faßhauer, Frankfurt/Main
Johann Christian Senckenbergs Tagebuchaufzeichnungen als historische Big Data und editorische Herausforderung

Kevin Liggieri, Bochum
„Sinnfälligkeit der Bewegung“ – Zur objektpsychotechnischen Anpassung der Arbeitsgeräte an den Menschen

9.00-11.00 Uhr
Sektion IX
Metaphern der Datenverarbeitung
Moderation: N.N.
Kammermusiksaal

Staffan Müller-Wille, Exeter
Labyrinth, Bienenstock, Archiv: Francis Bacon’s Nachleben in der Naturgeschichte um 1800

Anna Echterhölter, Washington D.C.
Unparteiische Richter. Zur Verdatung der Materialität an der Stadtwaage Stralsund (c. 1840)

Gregor Halfmann, Exeter
„Datenflüsse“: Zum Zusammenspiel von Infrastrukturen und Technologien in der Ozeanographie des 20. Jahrhunderts

Sandra Pravica, Berlin
Daten-„Behältnisse“ und „Echtzeitverarbeitung“: Bezeichnungen und Epistemologie digitaler Datenbankmodelle im Kontext militärischer Forschung

11.30-13.30 Uhr
Sektion VII – Fortsetzung
Modellieren, Simulieren, Muster finden
Historische, anthropologische und philosophische Reflexionen
Moderation: Rudolf Seising, Jena
Opernprobebühne (Raum 181)

Gabriele Gramelsberger, Lüneburg/Darmstadt
Datenvielfalt - Qualitative, quantitative und in-silico Daten in der Biologie

Anne Dippel, Jena
Dealen, Spielen und Wissen produzieren mit Big Data am CERN

Hans Dieter Hellige, Bremen
Die soziale Genese von Big Data und ihr Einfluss auf sozialtechnokratische Politikmodelle und „Social Engineering“- Konzepte

11.30-13.30 Uhr
Sektion X
›Den Wald sehen und jeden einzelnen Baum kennen‹ – Zum Umgang mit Massendaten über die Bevölkerung am Beispiel des Statistikers und Demographen Robert René Kuczynski (1876-1947)
Moderation: Sabine Schleiermacher, Berlin
Raum 39

Ursula Ferdinand, Berlin
Administrative und wissenschaftliche Bevölkerungsstatistik: Vom Sammeln zur Prognose – die Geburt der NRR

Morgane Labbé, Paris
Die Wirkungskraft der NRR in der jungen Republik Polen – Methodologische Auseinandersetzungen

Lukas Cladders, Berlin
»wild guess«, »reasoned guess« und »estimation« – Kuczynskis Kritik an der Erhebung und Verwendung von bevölkerungsspezifischen Daten im kolonialen Kontext der 1930er Jahre

Sabine Schleiermacher, Berlin
Kommentar

Kontakt

Prof. Dr. Cornelius Borck

Inst. für Medizingeschichte u. Wissenschaftsforschung, Uni Lübeck, Königstraße 42, 23552 Lübeck

sekretariat@imgwf.uni-luebeck.de


Redaktion
Veröffentlicht am
25.07.2016
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprach(en) der Veranstaltung
Deutsch
Sprache der Ankündigung