"Don't let me be misunderstood": Critical AI literacy for the constructive use of AI technology

Abstract: Gesellschaftlicher Diskurs sowie Forschung und Entwicklung zu Risiken künstlicher Intelligenz (KI) fokussieren oft einseitig entweder auf praxisferne ethische Aspekte oder auf technokratische Ansätze zur Bewältigung gesellschaftlicher Risiken allein durch Technologie. Es bedarf jedoch praktikabler, problemorientierter Perspektiven. Dieser Beitrag konzentriert sich daher auf ein zentrales Meta-Risiko von KI‑Systemen: Deep Automation Bias. Es wird davon ausgegangen, dass Diskrepanzen zwischen Systemverhalten und Nutzungspraktiken in bestimmten Anwendungskontexten aufgrund KI‑basierter Automatisierung zentrale Auslöser von Bias und gesellschaftlichen Risiken sind. Der Beitrag stellt zentrale Faktoren von (Deep) Automation Bias vor und entwickelt einen analytischen Rahmen mit Indikatoren zur Erkennung von Diskrepanzen in KI‑Systemen. Dieser Ansatz will durch Stärkung von Problembewusstsein und kritischer KI-Kompetenz auch praktischen Nutzen erzielen

Alternative title
"Don't let me be misunderstood": Kritische KI‑Kompetenz für den konstruktiven Umgang mit KI‑Technologie
Location
Deutsche Nationalbibliothek Frankfurt am Main
Extent
Online-Ressource
Language
Englisch
Notes
Veröffentlichungsversion
begutachtet (peer reviewed)
In: TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis / Journal for Technology Assessment in Theory and Practice ; 30 (2021) 3 ; 44-49

Event
Veröffentlichung
(where)
Mannheim
(who)
SSOAR, GESIS – Leibniz-Institut für Sozialwissenschaften e.V.
(when)
2021
Creator
Strauß, Stefan

DOI
10.14512/tatup.30.3.44
URN
urn:nbn:de:0168-ssoar-80065-9
Rights
Open Access; Der Zugriff auf das Objekt ist unbeschränkt möglich.
Last update
14.08.2025, 10:49 AM CEST

Data provider

This object is provided by:
Deutsche Nationalbibliothek. If you have any questions about the object, please contact the data provider.

Associated

  • Strauß, Stefan
  • SSOAR, GESIS – Leibniz-Institut für Sozialwissenschaften e.V.

Time of origin

  • 2021

Other Objects (12)