KI-Systeme gestalten und erfahren. Konzepte, Werte, Anwendungen

KI-Systeme gestalten und erfahren. Konzepte, Werte, Anwendungen

Veranstalter
Bernhard G. Humm (Hochschule Darmstadt), Stephan Lingner (IQIB), Jan C. Schmidt (Hochschule Darmstadt), Karsten Wendland (KIT)
PLZ
76133
Ort
Karlsruhe
Land
Deutschland
Vom - Bis
19.01.2021 -
Deadline
22.02.2021
Von
TATuP Redaktion, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS), Karlsruher Institut für Technologie (KIT)

KI-Systeme gestalten und erfahren. Konzepte, Werte, Anwendungen

Künstliche Intelligenz (KI) und die damit verknüpften Ermöglichungs- und Infrastrukturtechnologien wie maschinelles Lernen oder Big Data sind derzeit von einer großen Entwicklungsdynamik mit hohem gesellschaftlichen und wissenschaftlichen Veränderungspotential gekennzeichnet.

Designing, shaping and experiencing AI systems. Concepts, values, applications

Currently, Artificial Intelligence (AI)—and its associated enabling, emerging and infrastructure technologies: e.g., machine learning or big data—are rapidly growing fields of technological innovation with high potentials for transforming society and science.

KI-Systeme gestalten und erfahren. Konzepte, Werte, Anwendungen

Vor dem Hintergrund möglicher Folgen und Konsequenzen für Lebenswelt und Kultur, Wirtschaft und Politik sowie für Wissenschaft und Forschung erscheint es geboten, KI-Forschung und -Entwicklung entsprechend übergeordneter Zielvorstellungen und Werte zu rahmen und zu gestalten. Dies betrifft nicht nur die Implementierung und Anwendungsfelder von bereits entwickelten KI-Technologien, sondern insbesondere die vorgelagerte, im öffentlichen KI-Diskurs oft vernachlässigte Ebene der (Techno-)Wissenschaften selbst, also der Forschung an, mit und durch KI-Systeme sowie deren Entwicklungsprozesse. In diesen Frühphasen, die sich vielfach auf Techno-Visionen mit Narrationen, Sprache und (Welt-, Menschen- und Gesellschafts-) Bildern sowie auf zentrale Aspekte des technowissenschaftlichen Kerns von KI beziehen, ist Technikfolgenabschätzung mit besonderen methodischen Herausforderungen konfrontiert. Mögliche Fragen stellen sich auf mehreren Ebenen:

Ansätze für eine prospektive und gestaltungsorientierte Beurteilung von KI

- Wie können Szenarien lebensweltlicher KI-Zukünfte mit Foresight-Methoden und anderen geeigneten Verfahren bereits für die Entwürfe von KI-Systemen, ihrer Architekturen und Konzepte zugänglich gemacht werden? Welche Rollen spielen neuere Ansätze wie hermeneutische TA, Value Sensitive Design, Responsible Research and Innovation oder prospektive TA?
- Wie kann eine Innovations- und Technikanalyse von KI den technowissenschaftlichen Kern hochgradig lernfähiger und adaptiver KI-Systeme angemessen adressieren und wie kann sie mit adäquaten Beurteilungs-Kriterien ausgestattet werden? Spielen hier bislang kaum adressierte Aspekte von Komplexität, Nichtlinearität, Selbstorganisation und Instabilität eine Rolle? Sind folglich Konzepte komplexer Systeme in die TA lernfähiger KI mit einzubeziehen?
- Wie ist die zu erwartende Autonomie, Kreativität, Komplexität und Opazität künstlicher „intelligenter“ Systeme im gesellschaftlichen Alltag sowie in der Forschungspraxis aus Sicht der TA zu beurteilen?

Gestaltungserfordernisse für KI in Politik, Wirtschaft und Gesellschaft

- Welche neuen Politik-nahen Regulationsansätze stehen in Aussicht? Welche Maßnahmen sollten wünschbare KI-Entwicklungen im Wege der F&E-Förderung und auf gesetzlicher Ebene flankieren? Welche Rolle spielen dabei ethisch orientierte Guidelines (via Dt. Datenethikkommission, Plattform Lernende Systeme u.a.)? Wie kann sich politikberatende TA hier positionieren?
- Wie kann es gelingen, in der Gesellschaft ein KI-Verständnis zu stärken, in dem Bürgerinnen und Bürger Möglichkeiten und auch Risiken von KI-Systemen besser einschätzen können und in Bewertungen, Handlungen und Entscheidungen aufgreifen können („KI-Diskurs“, „KI-Aufklärung“)? Wie lassen sich ungerechtfertigt überhöhende KI-Zuschreibungen entmystifizieren?
- Wie lassen sich Einstiegsszenarien für Unternehmen (insbesondere KMU) in das Anwendungsfeld KI so gestalten, dass sie von Impulsen aus dem Feld der TA und Technikethik begleitet werden?
- Neben theoretischen Überlegungen sind auch Analysen anhand von Fallbeispielen willkommen, so z. B. zu KI in Diagnose und Therapie von Krankheiten, zu KI im Hochfrequenzhandel an der Börse oder zu Anwendungsfeldern von KMU.

Weitere Perspektiven der KI-Diskussion

- Welche Aspekte bisher vernachlässigter Diskussionslinien, etwa die Ressourcen- bzw. ökologische Problematik ist in die Bewertung von KI einzubeziehen? Können Verbindungen hergestellt werden zu den Sustainable Development Goals der UN (2015)?
- Bewirken autonome und lernfähige KI-Systeme einen epochalen Wandel in der grundlegenden Struktur sowie in der lebensweltlichen Erfahrung einer nunmehr „nachmoderner“ oder „transklassischer“ Technik?

Wir laden Autorinnen und Autoren zu entsprechenden konzeptionellen, methodologischen, interdisziplinären und/oder fachspezifischen sowie anwendungsorientierten Beiträgen ein. Die Beiträge sollten Ansätze für eine produktive, allgemein zustimmungsfähige und nachhaltige Entwicklung von KI aus Sicht der TA und verwandter Verfahren erkennen lassen. Dabei sind ggf. Gestaltungserfordernisse und -strategien in den Bereichen der Forschung, Wirtschaft, Politik oder Gesellschaft zu adressieren sowie epistemische Zugänge und normative Kriterien darzulegen.

Einreichung
- Bitte senden Sie Ihr Abstract bis spätestens 22. Februar 2021 per E-Mail an redaktion@tatup.de;
- Länge des Abstracts: max. 1,5 Seiten;
- Die Redaktion führt die Korrespondenz mit derjenigen Autorin/demjenigen Autor, die/der das Abstract eingesendet hat;
- Bitte nennen Sie alle beteiligten Autorinnen und Autoren mit vollständigem Namen, E-Mail-Adresse und institutioneller Anbindung.

Ungefährer Redaktionsablauf
22. Februar 2021: Frist für die Einreichung Ihres Abstracts.
Anfang/Mitte März 2021: Entscheidung über Einladungen zur Einreichung eines Manuskriptes.
Anfang/Mitte Juni 2021: Frist für die Einreichung des Manuskriptes, anschließend double non-blind Peer-Review-Verfahren.
Ende August/Anfang September: Rückmeldungen aus dem Begutachtungsprozess, anschließend ggf. Überarbeitungen durch die Autorinnen und Autoren bis Ende September.
Anfang Oktober 2021: Rückmeldungen auf die Überarbeitungen.
Mitte Oktober 2021: Ende der Überarbeitungsphase.
Dezember 2021: Veröffentlichung (Print und online).

Gast-Herausgeber dieses TATuP-Themas: Bernhard G. Humm (Hochschule Darmstadt), Stephan Lingner (IQIB), Jan C. Schmidt (Hochschule Darmstadt), Karsten Wendland (KIT).

Designing, shaping and experiencing AI systems. Concepts, values, applications

Taking this huge relevance for the future(s) of society into account, it is necessary to shape AI research and development according to overarching societal goals and values regarding the possible effects, impacts and consequences of AI for life-worlds, e.g. for culture, economy and politics as well as for science and research. Since AI systems have such a high transformative potential, shaping AI at the level of implementation, diffusion and application of already developed AI technologies is important, but it does not seem to be efficient and far reaching enough. Moreover, a more fundamental approach concerns particularly the upstream level of (techno)scientific research on, with and through AI systems and their development processes themselves. This early-phase perspective is often neglected in the public AI discourse and it challenges the methodological concepts of technology assessment (TA), too. TA, therefore, seems to have to rely on techno-visions formed by narrations, language and images of the world, humanity and society—or to some central aspects of the technoscientific core itself. The following questions for the assessment of AI might therefore arise, among others:

Approaches for a prospective and design-oriented assessment of AI

- In which way and by applying what kind of criteria can foresight methods and other appropriate approaches develop scenarios of future AI life-worlds that are already accessible for emerging AI systems, their architectures and concepts? Which roles will more recent approaches like hermeneutic TA, Value Sensitive Design, Responsible Research and Innovation (RRI) or prospective TA play here?
- How could an innovation and technology analysis of AI appropriately address the technoscientific core of highly adaptive AI systems? And how can adequate assessment criteria support this analysis? Do aspects of complexity, non-linearity, self-organization and instability that are often inherent to AI systems play a role here? Does this mean that concepts of complex systems should be included into the TA of adaptive AI?
- How should one assess the expected autonomy, creativity, complexity and opacity of artificial “intelligent” systems in everyday social life and in research practice from the perspective of TA?

Design and shaping requirements for AI in politics, business and society

- Which new policy-related regulatory approaches are in prospect? Which measures should support desirable AI developments by way of R&D funding and at legal levels? Which roles will ethically oriented guidelines from AI-related committees and platforms play here? How can political advisory TA come in here?
- How could we succeed in strengthening an understanding of AI in society, which enables citizens to better estimate the possibilities and also the risks of AI systems and how should we take them up in corresponding assessments, actions and decisions ("AI discourse", "AI-Enlightenment")? How can we demystify any unjustifiably excessive AI ascriptions?
- How can we design entry scenarios for companies (especially SMEs) into the domain of AI in such a way that they might capture useful inputs from the fields of TA and technology ethics?
- In addition to theoretical considerations, case study-based analyses are also highly welcome here. Non-disclosing examples are AI in diagnosis and therapy of diseases, AI in high-frequency trading on the stock exchange or specific AI-application fields of SMEs.

Further perspectives on the AI discussion

- Which aspects of previously neglected lines of discussion, such as resource or ecological problems, should be included into the assessment of AI? Are there useful links to the UN Sustainable Development Goals (2015)?
- Do autonomous and adaptive AI systems cause an epochal change in the basic structure as well as in the everyday experience of a technology that is now becoming “late-modern” or “trans-classical”?

The subject editors are inviting interested authors to make corresponding conceptual, methodological, interdisciplinary and/or subject-specific and application-oriented contributions. The contributions should / propose and apply ideas for a productive, generally acceptable and sustainable development of AI from the perspectives of TA and other related approaches. If applicable, design requirements and shaping strategies in the areas of research, economy, politics or society should to be addressed as well as epistemic doorways and normative criteria.

Submissions:
- Please send your abstract not later than 22 February 2021 by email to redaktion@tatup.de;
- Length of the abstract: max. 1.5 pages;
- The editorial office conducts the correspondence with the author who submitted the abstract;
- Please name all participating authors with full names, email addresses and institutional affiliations.

Approximate schedule:
22 February 2021: deadline for submitting your abstract
Beginning/middle of March 2021: decision on inviting authors to submit a full manuscript
Beginning/middle of June 2021: deadline for submitting your full manuscript, followed by a double non-blind review process
End of August/beginning of September 2021: feedback from the reviewers, followed by authors’ revisions until late September
Beginning of October 2021: feedback on revisions
Mid-October 2021: end of revision period
December 2021: publication (print and online).

Guest editors of this TATuP special topic: Bernhard G. Humm (University of Applied Sciences, Darmstadt); Stephan Lingner (Institut für qualifizierende Innovationsforschung und -beratung, Bad Neuenahr-Ahrweiler); Jan C. Schmidt (University of Applied Sciences, Darmstadt); Karsten Wendland (Karlsruhe Institute of Technology).

Kontakt

redaktion@tatup.de

https://tatup.de/index.php/tatup/announcement/view/30
Redaktion
Veröffentlicht am
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprach(en) der Veranstaltung
Deutsch
Sprache der Ankündigung