Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2020 — 2021

DOI Kapitel:
C. Die Forschungsvorhaben
DOI Kapitel:
III. Drittmittel-geförderte Projekte
DOI Kapitel:
22. Künstliche Intelligenz und Haftungsrecht
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.61621#0275
Lizenz: Freier Zugang - alle Rechte vorbehalten

DWork-Logo
Überblick
loading ...
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
22. Künstliche Intelligenz und Haftungsrecht

rekt von der KI erfahren? Kommt Ärzten eine neue Rolle zu, wenn eine KI mit
einer höheren Genauigkeit entscheidet als sie?
Ausgangspunkt der zu klärenden Rechtsfragen ist die fehlende Erklärbar-
keit und Autonomie der KI (sog. „Blackbox-Phänomen“). Wie mit diesen Eigen-
schaften juristisch umzugehen ist, betrifft zum einen das Thema Datenschutz,
andererseits auch die sog. Produzentenhaftung, die Haftung von Herstellern für
Medizinprodukte und das Arzthaftungsrecht. Zu prüfen ist, inwieweit sich diese
neuen Fragen in bestehende Haftungsregime einordnen lassen. Die Kl-Anwen-
dung muss hierfür zunächst einmal für das Haftungsrecht erklärbar werden. Eine
weitere Herausforderung neben der „Blackbox“ ist die Vielzahl von Akteuren. Mit
Blick auf den Datenschutz ist dieses Problem übrigens geringer. Die DSGVO hält
prinzipiell Antworten auf den Umgang mit automatischer Datenverarbeitung (von
Gesundheitsdaten) bereit.
Die rechtswissenschaftliche Literatur hat die Herausforderungen von KI-
basierten Entscheidungen und selbstlernenden Eigenschaften von Kl-basierten
Systemen bisher addressiert, indem sie entweder eine Zurechnung durch zusätz-
liche Kriterien konstruiert oder das Erfordernis der Zurechnung und Kausalität
entfallen lässt. Zu den am häufigsten vertretenen Lösungen gehören die Produ-
zentenhaftung nach § 823 Abs. 1 BGB, die Gesamtanalogie zu Gefährdungshaf-
tungstatbeständen, die Gefährdungshaftung des Betreibers oder des Herstellers
sowie ein obligatorisches Versicherungssystem vergleichbar mit der KFZ-Versiche-
rung. Ferner werden nach wie vor eine Lösung über § 823 BGB analog oder die
e-Persönlichkeit vertreten.
Die meisten dieser Lösungen setzen einen rechtspolitischen Gestaltungs-
willen voraus, doch auch in der aktuellen Rechtslage können Zurechnungs- und
Kausalitätsfragen im Rahmen der bestehenden Vorschriften und Grundsätze gelöst
werden, indem die möglichen Fehlerquellen analysiert werden.
Wie dem Bedürfnis nach einer höheren Rechtssicherheit in der Entwicklung
und Anwendung von KI Rechnung getragen werden kann, wird auf absehbare Zeit
zu den spannenden Fragen in unserem Bereich zählen.
Publikationen:
F Molnär-Gäbor. AI in Healthcare: Doctors, patients and Liabilities. In: Th. Wischmeyer/T.
Rademacher (eds.) Regulating Artificial Intelligence, Springer 337-360 (2020).
F. Molnär-Gäbor, F. Rostalski, T. Rademacher. Stellungnahme zu den EU Ethics Guidelines
for Trustworthy AI der High-Level Expert Group on Artificial Intelligence. In: Verant-
wortungKI - Künstliche Intelligenz und gesellschaftliche Folgen. #Vertrauenswürdige
KI? Vorausschauende Politik! 1/2020.
F. Molnär-Gäbor. Die Rolle des Arztes bei medizinischen Kl-Anwendungen. In: J. Taeger/
Deutsche Stiftung für Recht und Informatik (Hrsg.) Die Macht der Daten und der Algo-
rithmen - Regulierung von IT, loT und KI, Edewecht, 277-288 (2019).
275
 
Annotationen
© Heidelberger Akademie der Wissenschaften