Natürlich künstlich

Zu guter Letzt
Ausgabe
2022/48
DOI:
https://doi.org/10.4414/saez.2022.21250
Schweiz Ärzteztg. 2022;103(48):82

Publiziert am 30.11.2022

In den letzten Wochen und Monaten wird – auch in dieser Zeitschrift – viel über künstliche Intelligenz nachgedacht. Automatisierungen, Digitalisierungen, algorithmisches Entscheiden, Deep Learning, Machine Learning – man hat Mühe, die ganzen Begriffe und Konzepte zu verstehen. Fakt ist, sowohl die Digitalisierung als auch der Einsatz von künstlicher Intelligenz könnte die Medizin optimieren und effizienter machen. Gewisse Ängste werden aber auch schnell laut: «Wir wollen ja nicht, dass die Computer irgendwann für uns entscheiden!» Darin scheinen sich eigentlich alle Ärzte und Ärztinnen im Moment einig zu sein. Man will grundsätzlich auch nicht, dass die Computer irgendwann Arbeitsplätze ersetzen, obwohl wir das wohl kaum vermeiden werden können. Und, ein anderes Beispiel, man hat Angst, dass es würdelos sein könnte, wenn zum Beispiel ein intelligenter Pflegeroboter irgendwann eine demente alte Dame pflegt, und die Dame vielleicht gar nicht versteht, dass der Pflegende kein Mensch ist. Man stelle sich dieses Szenario mal vor. Aber bleiben wir doch kurz mal nur bei den Entscheidungen und der Würde.
Rouven Porz
Prof. Dr., Medizinethik und ärztliche Weiterbildung, Insel Gruppe, Inselspital Bern
Zum Thema Entscheidungen: Wenn mir mein Navigationsgerät im Auto auf einer Urlaubsreise in einer fremden Stadt eine Tankstelle in meiner Nähe heraussucht und mich dorthin führt, trifft dann das Navigationssystem nicht auch schon eine Entscheidung für mich? Wenn mir mein Musik-Streaming-Anbieter Spotify ein Lied heraussucht, basierend auf meinem Hörverhalten der letzten Monate, und es mir vorschlägt, trifft dann das algorithmische System nicht auch schon eine Entscheidung für mich? Nein, werden Sie vermutlich sagen. Das sind ja beides keine wirklichen Entscheidungen, das sind ja nur Vorschläge. Ich bin mir da nicht mehr so sicher. Ich glaube, das könnten tatsächlich schon «Entscheidungen» sein, aber es kommt halt darauf an, wie man «Entscheidungen» definiert, und darüber redet in der aktuellen Diskussion leider fast niemand. Wir alle glauben zu wissen, was eine Entscheidung ist. Aber ist das Ergebnis einer komplexen Rechenleistung nicht vielleicht doch schon eine Entscheidung? Insbesondere dann, wenn die Rechenleistung des Deep-Learning-Systems so komplex ist, dass ich sie weder verstehen, noch nachvollziehen, noch selbstständig interpretieren kann? Oder, ist eine Entscheidung erst dann eine Entscheidung, wenn ein Mensch sie emotional eingeordnet hat? Zum Beispiel: «Oh nein, dieses vorgeschlagene Lied gefällt mir nicht, es erinnert mich an meine erste unglückliche Liebe.»
Jetzt noch kurz zur Würde: Irgendwie sind wir uns auch alle einig, dass einem System mit künstlicher Intelligenz wohl nie die Würde zukommen kann, die wir Menschen per se zusprechen, richtig? Auch da bin ich mir nicht mehr so sicher. Ich bin mir deshalb nicht mehr sicher, weil die Unterschiede zwischen «künstlich» und «natürlich» im Moment stark verwischen. Was macht denn das «Natürliche» besser als das «Künstliche»? War Dolly das Schaf ein schlechteres Schaf als die anderen, nur weil es geklont auf die Welt gekommen ist? Ich ahne schon, Sie denken jetzt, das passt ja gar nicht: Klonen ist doch nicht dasselbe wir künstliche Intelligenz erzeugen. Nein, klar, ist es das nicht, aber es trägt dieselbe Handschrift. Beide Techniken tragen die Handschrift eines möglichen Dual-Use-Dilemmas: Je nachdem, wie wir die Errungenschaften einsetzen, interpretieren und nutzen, kann das entweder gute oder schlechte Folgen haben. Und das ist nicht trivial.