Künstliche Intelligenz in der Medizinethik
Die Nutzung Künstlicher Intelligenz (KI) im Gesundheitswesen wirft seit Jahren viele ethische Fragen auf. Die öffentliche Diskussion konzentriert sich dabei vor allem auf die Implikationen des KI-Einsatzes für Patienten, Ärzte und die Gesellschaft. Es geht um Themen wie mangelnde Transparenz und Erklärbarkeit von KI-Systemen (“Black Box”), Diskriminierungsrisiken durch verzerrte Datensätze und die möglichen Auswirkungen auf die Rolle des ärztlichen Personals. In den letzten Jahren ist aber parallel eine zweite Debatte entstanden, die sich mit der Nutzung von KI als Werkzeug in der Medizinethik selbst beschäftigt. Künstliche Intelligenz könnte hier unterstützend für verschiedene Aufgaben eingesetzt werden – von der ethischen Forschung bis hin zur Entscheidungsfindung im klinischen Alltag. Dies wirft jedoch auch viele neue Fragen nach Grenzen und Risiken auf. Der vorliegende Artikel diskutiert Chancen und Herausforderungen des KI-Einsatzes in der Medizinethik. KI-Methoden als Unterstützung in der ethischen Arbeit In den letzten Jahren wurden verschiedene Ansätze diskutiert, wie KI-Methoden die Medizinethik unterstützen könnten. Hier eine Übersicht über die wichtigsten Ideen: Um Einstellungen und moralische Urteile zu erforschen, könnten neue digitale Methoden hilfreich sein. Beispiele sind die Datenerhebung über “serious moral games”, also Spielumgebungen mit ethischen Entscheidungssituationen. Oder die teilautomatisierte Auswertung von Argumenten in Social Media-Diskussionen, etwa zur Genomeditierung. Operationalisierung ethischer Prinzipien Für die klinische Praxis wurde bereits ein “proof of concept” für die Nutzung ethischer Prinzipien in Entscheidungsmodellen vorgestellt. Dabei werden Prinzipien wie Autonomie operacionalisiert und algorithmisch auf Patientenfälle angewendet. Ob dies sinnvoll einsetzbar ist, muss sich aber erst zeigen. Personalisierte Texterstellung Auch für das Verfassen bioethischer Texte könnten große Sprachmodelle wie GPT-3 eingesetzt werden. Denkbar wäre eine personalisierte Unterstützung für wissenschaftliches Schreiben, angepasst an den individuellen Autor. Planer kaufen Planer kaufen Vorhersage von Patientenpräferenzen Umstritten, aber auch viel diskutiert ist die mögliche Vorhersage von Patientenwünschen durch Auswertung klinischer Daten mit KI. Dies könnte in Ausnahmesituationen eine Hilfe sein, wirft aber auch schwierige Fragen auf. Insgesamt zeigt sich, dass KI-Methoden sehr verschiedene Einsatzmöglichkeiten in der medizinethischen Arbeit bieten könnten – von der Forschung bis zur Entscheidungsunterstützung. Doch die Ideen werfen auch kritische Fragen auf. Intransparente “Black Boxes” Auch in der Medizinethik sind intransparente KI-Systeme (“Black Boxes”) abzulehnen. Nachvollziehbarkeit, Erklärbarkeit und Überprüfbarkeit der Entscheidungsfindung sind unverzichtbar. Sonst besteht die Gefahr technischer Artefakte und Verzerrungen ohne Kontrollmöglichkeit. Datenschutzprobleme Manche vorgeschlagenen Anwendungen wie die Präferenzvorhersage machen eine Verknüpfung unterschiedlicher Patientendaten nötig, was datenschutzrechtlich heikel sein kann. Zudem besteht die Gefahr der Diskriminierung durch verzerrte Daten. Ethische Verantwortung bleibt beim Menschen Auch bei einem begrenzten KI-Einsatz darf die ethische Verantwortung nicht auf Algorithmen übertragen werden. Die Reflexion und Bewertung der Ergebnisse muss weiterhin durch Menschen erfolgen. Sonst entsteht die Gefahr einer Abgabe moralischer Urteilsfähigkeit. Fazit: KI mit Augenmaß integrieren Zusammenfassend lässt sich sagen, dass der potenzielle Nutzen von KI in der Medizinethik sorgfältig gegen die Risiken abgewogen werden muss. KI-Systeme können die menschliche Urteilsbildung unterstützen, aber nicht ersetzen. Entscheidend sind wissenschaftliche Begleitung, kritischer Diskurs und die Wahrung der Letztverantwortung durch den Menschen. Dann kann KI eine sinnvolle Bereicherung für die Medizinethik darstellen. Blinden Technikenthusiasmus gilt es aber zu vermeiden. Literatur: Salloch, S. (2023): Künstliche Intelligenz in der Ethik?. Ethik Med 35, 337–340. https://doi.org/10.1007/s00481-023-00779-1