Viele Technik-Enthusiasten haben das Ziel einer künstlichen Superintelligenz – und die öffentliche Diskussion werde so geführt, als sei diese unausweichlich, sagt die österreichische Philosophin Janina Loh. In ihrer wissenschaftlichen Einführung in die Roboterethik regt sie jedoch einen kritischeren Ansatz an, in dem nicht nur die Frage nach dem technisch Machbaren gestellt wird, sondern auch jene nach dem moralisch Wünschbaren.
Dieser Artikel erschien am 4. Januar 2020 auf Innovation Origins
In der philosophischen Disziplin der Roboterethik geht es um moralische Fragen, die der Bau von und der Umgang mit Robotern aufwirft. Im englischsprachigen Raum in der akademischen Philosophie bereits etabliert, ist Roboterethik im deutschsprachigen Raum noch keine allgemein anerkannte Disziplin. Technik sei ein neutrales Wesen und Ethik befasse sich nur mit menschlichem Handeln, so lautet ein geläufiges Gegenargument, das in der Rechtsphilosophie als Neutralitätsthese gehandelt wird. Dahinter steht nicht zuletzt die Frage nach dem rechtlichen Verantwortungsträger.
Neutralitätsthese
Roboterethiker lehnen die Neutralitätsthese ab, weil Technik von Menschen geschaffen ist und als solches einen Ausdruck menschlicher Intentionen, Normen und Gründe darstellt. Zudem gehen die Auswirkungen der von Menschen für Menschen geschaffenen Technik weit über die menschliche Sphäre hinaus und betreffen alle möglichen Wesen und Dinge: Tiere, Pflanzen, Häuser, Autos, Smartphones, Landschaften und ganze Ökosysteme. Auch habe es schon vor Robotern unbelebte Dinge gegeben, denen ein Wert und mitunter sogar Rechte zugestanden werden, so die Roboterethiker.
Subjekt vs Objekt
Janina Loh gibt in ihrem Buch einen Überblick über den Forschungsstand in der Roboterethik und führt in die zentrale Frage ein: Sind Roboter moralische Subjekte oder lediglich Objekte moralischen Handelns?
Sind Roboter moralische Subjekte oder lediglich Objekte moralischen Handelns?
Neben dieser klassischen Unterscheidung geht sie auch auf die jüngste Denkrichtung in der Roboterethik ein: inklusive Ansätze.
Dieser Artikel könnte Sie auch interessieren: Gefahren der Digitalisierung
In der Diskussion um den Roboter als Objekt moralischen Handelns, wird der dieser als Werkzeug des Menschen verstanden. Die moralische Kompetenz bleibt beim Menschen der ihn nutzt und beim Hersteller, beziehungsweise der gesetzlichen Regelung, der dieser unterworfen ist. Der Hersteller entscheidet über etwaige Rahmenwerte und –prinzipien, die in der Programmierung vorgegeben sind und von den Nutzenden nicht verändert werden können.
Moralische Subjekte
Die Diskussion um Roboter als Subjekte moralischen Handelns ist vergleichsweise klein – weil nur Menschen die Fähigkeit zum moralischen Handeln zugestanden wird – zumindest in zentristischen Ansätzen. Sowohl das moralische Subjekt als auch das Objekt moralischen Handelns gehen aus zentristischen Ansätzen hervor und werden häufig einem Anthropozentrismus zugeordnet, in dem nur Menschen ein Eigenwert beigemessen wird.
„Der Einbezug von Robotern in den Horizont der mit einem Eigenwert ausgestatteten Dinge, könnte eine weitere zentristische Perspektive eröffnen, einen Mathenozentrismus etwa (von griechisch matheno (lernen)), der all das mit einem Eigenwert bemisst, was in einer spezifischen Weise gesteuert, programmiert oder lernfähig ist.“ Janina Loh, 2019, S. 37)
Forderung nach Inklusion
Zentristische Theorien sind durchwegs exkludierend und laufen dadurch Gefahr diskriminierend zu verfahren – so der Vorwurf von Vertretern inklusiver Theorien. Denn Ausgangspunkt bleibe immer der Mensch, der den ethischen common sense vorgibt. Damit berufen sich zentristische Theorien implizit auf anthropozentrische Theorien, die auf Aristoteles und dessen Verständnis vom Menschen zurückgeht. Im Anthropozentrismus wird nur Menschen ein Eigenwert beigemessen.
So erklärt sich der dritte und jüngste Ansatz in der Roboterethik, der mit der Forderung nach Inklusion entstand. Darin werden die tradierten und zumeist humanistischen Dichotomien in Frage gestellt, die wesentlich zur Entstehung unseres gegenwärtigen Menschen- und Weltbilds beigetragen haben: wie Mann/Frau, Tier/Mensch, Natur/Kultur und Objekt/Subjekt. Es sind kritische Posthumanist*innen wie Donna Haraway, die mit konventionellen Kategorien und dem damit einhergehenden Denken brechen, um an einen philosophischen Standort jenseits eines spezifischen und für die Gegenwart essenziellen Verständnisses des Menschen zu gelangen. Mit dieser radikalen Hinterfragung des Humanismus wird die Deutungshoheit von Wissenskulturen, die in der Regel westlich, weiß und männlich sind, einer umfassenden Revision unterzogen.
Demgemäß umfasst die Forderung nach Inklusion postfeministische, poststrukturalistische, postkoloniale und kritisch-posthumanistische Positionen. Die philosophische Auseinandersetzung mit konventionellen Kategorien soll verhindern, dass Technologien ein Menschenbild bestätigen, in dem Minderheiten der politische, gesellschaftliche, moralische, und rechtliche Status über Jahrhunderte aberkannt wurde.
Feministische roboterethische Ansätze
Ein Beispiel dafür sind feministische roboterethische Ansätze, in denen man davon ausgeht, dass der Schöpfer des Roboters vorrangig westlich, weiß, heterosexuell, aristotelisch und männlich ist. Woraus ein tradiertes Menschenbild entsteht, in dem die Frau exkludiert oder benachteiligt wird.
Bezeichnend für feministische roboterethische Positionen ist die Ablehnung des Roboters als moralisches Subjekt. Auch gibt es den Willen, manche Arten von Robotern vollständig zu verbieten. Kathleen Richardson, Professorin für Ethik und Kultur von Robotern und Künstliche Intelligenz an der De Montfort University, Leicester, Großbritannien, etwa, spricht sich generell gegen Sexroboter aus, weil mit diesen heteronormative, patriarchale und diskriminierende Strukturen bestätigt werden.
Das Trolley-Problem
Als Grundlage der Roboterethik nennt Janina Loh das Werk Moral Machines (2009) von Wendell Wallach und Colin Allen. Darin schlagen die Autoren vor, einfach allen Wesen Moralfähigkeit zuzuschreiben, die moralische Entscheidungen treffen. Als Beispiel für eine moralische Entscheidung nennen sie Gleise, auf denen sich Menschen befinden, die der Zug zu überrollen droht. Der Zug urteile, indem er programmiert ist, unverzüglich zu stoppen, wenn sich Menschen auf den Gleisen aufhalten. Schwieriger wird es allerdings, wenn der Zug nur ausweichen kann und entscheiden muss, ob er eine kleinere oder größere Menschenansammlung auf einem der beiden Gleise überrollt … Das Beispiel ist als Trolley-Problem oder der Weichenstellerfall bekannt.

Moralische Maschine
Wie gelangt die Moral überhaupt in die Maschine? Ist eine weitere Frage, die in der Roboterethik ebenso diskutiert wird. Loh bearbeitet diese Frage wieder nach Wallach und Allen. Die Autoren unterscheiden drei Prinzipien, wenn es um die Ausstattung künstlicher Systeme mit Moralität geht: Top-down-Ansätze, Bottom-up-Ansätze und hybride Ansätze.
Mangel an gesundem Menschenverstand
Im Rahmen der Top-down-Ansätze werden einem Roboter eine Reihe von Prinzipien oder Regeln einprogrammiert, wie etwa Immanuel Kants Kategorischer Imperativ oder die Asimov’schen Robotergesetze.
Dabei ist zumindest mit zwei Schwierigkeiten zu rechnen:
- Die Interpretation ethischer Regeln ist kontextsensitiv. Die Programmierung bedarf jedoch einer eindeutigen Interpretation.
- Es kann ein Konflikt zwischen den einzelnen Regeln auftreten. Je konkreter die moralischen Prinzipien formuliert sind, desto eher ist das System in der Lage, einen Fall in der Praxis anzuwenden. Mit der Konkretheit steigt aber auch die Zahl der Regeln und somit die Gefahr des Regelkonflikts. Janina Lohs Resümee: Der reine Top-Down-Ansatz hat einen Mangel an gesundem Menschenverstand.
Mangelnde Kreativität
Bei Bottom-up-Ansätzen werden keine moralischen Regeln vorgegeben, sondern basale Kompetenzen implementiert. Roboter entwickeln durch verschiedene Formen des Lernens moralisches Verhalten. Dabei unterscheidet man zwischen Evolutionsmodellen und Modellen menschlicher Sozialisation.
Bei Modellen menschlicher Sozialisation wird in zwei Formen von Mitgefühl differenziert:
- Perzeptuelle Empathie ist bereits dann gegeben, wenn das Beobachten einer Emotion eine vergleichbare Reaktion beim Gegenüber auslöst.
- Imaginative Empathie erfordert einen Perspektivenwechsel in Form von sich in das Gegenüber hineinversetzen.
Einige Denkerinnen stehen besonders den Bottom-up-Ansätzen kritisch gegenüber, weil die potenzielle Lernfähigkeit zu Kontrollverlust führen kann. Hubert Dreyfus sah das Problem der KI in der mangelnden Kreativität der Maschinen. Hingegen seien diese hervorragend für das Rechnen von komplexen Rechenvorgängen geeignet. Dreyfus war Kritiker Künstlicher Intelligenz und Autor des Buches What computers can’t do.
Moralische Verantwortlichkeit ausmachen
Im Hauptteil ihres Buchs widmet sich Janina Loh der neuen Verantwortung, die mit menschenähnlich agierenden Robotern auf Gesellschaft, Politik und Gesetzgebung zukommt. Dabei unterscheidet sie zwischen exklusiven und inklusiven roboterethischen Ansätzen, die nicht ganz konfliktfrei sind. So gehen Vertreter exklusiver Ansätze davon aus, dass es die mit den Robotern befassten Menschen sind, welche die Verantwortung tragen sollen. Gegebenenfalls sehen sie die Verantwortung auch klar im Roboter als moralisch handelndem Subjekt.
Vertreter inklusiver roboterethischer Ansätze haben ein anderes Objekt- und Subjektverständnis. Sie nehmen nicht an, dass Menschen jemals vollständig Kontrolle über Natur und Kultur sowie Menschen und Nichtmenschen erlangen können. Vielmehr haben sie den Anspruch, konstruktive Strategien zu finden, um mit den Unsicherheiten umzugehen, Verantwortlichkeiten auszumachen und Rechenschaftspflicht in komplexen Sachverhalten zu schaffen.
Der Mensch als Cyborg
Die Naturwissenschaftshistorikerin und Frauenforscherin Donna Haraway postuliert, dass wir alle diese Trennung zwischen Organismus und Maschine in uns selbst aufgehoben haben und folglich Cyborgs seien. Auch die Unterscheidungen zwischen anderen wichtigen Dichotomien wie etwa Natur und Kultur, Tier und Mensch sowie Physikalischem und Nicht-Physikalischem gingen in uns verloren, so Haraway.
Aber auch die Vertreter inklusiver roboterethischer Ansätze lassen nicht vollständig vom Roboter als Subjekt moralischen Handelns. Haraway etwa hält an der Vorstellung von klar definierbaren handelnden Subjekten fest. Allerdings entsprechen diese nicht mehr dem humanistischen Ideal des autarken, unabhängig von seiner Umwelt existierenden (westlichen, weißen, männlichen) Menschen.
Mark Coeckelbergh, der an der Universität Wien unterrichtende belgische Technologiephilosoph begreift den moralischen Status als etwas, das einem Wesen nicht essenzialistisch zugeschrieben, abgesprochen oder von vornherein verweigert werden kann. Vielmehr versteht er den moralischen Status als etwas, das in der Interaktion zwischen Wesen entsteht. Schließlich könne eine Entität ohne Bezugnahme auf ihre Beziehungen nicht definiert werden. In seinem Text Robot Rights (2010a) schlägt er vor, moralische Relevanz weder dem Objekt noch dem Subjekt zuzuweisen, sondern der Relation zwischen beiden (108). In dieser Denkweise ist der soziale Kontext des Roboters dessen Beziehung zu anderen Wesen, seine Situiertheit, Geschichte und sein Ort sowie seine natürliche, materielle, soziale und kulturelle Eingebettetheit.
In ihrem Schlusswort plädiert die Janina Loh für die Eröffnung eines kritischen Diskurses und die Öffnung für inklusive Modelle. Voraussetzung dafür sei eine Politik, die ein Bildungssystem errichtet, in dem Roboterethik einen festen Platz hat.
Janina Loh ist Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Universität Wien.
Originalpublikation