Roboterethik, Janina Loh, moralisch, Roboter

Die Philosophin Janina Loh regt einen kritischen Diskurs zu Roboterethik an

Eine künstliche Superintelligenz ist das Ziel vieler Technik-Enthusiasten und die öffentliche Diskussion wird so geführt, als sei diese unausweichlich, sagt die österreichische Philosophin Janina Loh. Sie regt in ihrer wissenschaftlichen Einführung in die Roboterethik einen kritischeren Ansatz an. Darin soll nicht nur die Frage nach dem technisch Machbaren gestellt werden, sondern auch jene nach dem moralisch Wünschbaren.

Dieser Artikel erschien am 4. Januar 2020 auf Innovation Origins

In der philosophischen Disziplin der Roboterethik geht es um moralische Fragen, die der Bau von und der Umgang mit Robotern aufwirft. Im englischsprachigen Raum in der akademischen Philosophie bereits etabliert, ist Roboterethik im deutschsprachigen Raum noch keine allgemein anerkannte Disziplin. Technik sei ein neutrales Wesen und Ethik befasse sich nur mit menschlichem Handeln, so lautet ein geläufiges Gegenargument, das in der Rechtsphilosophie als Neutralitätsthese gehandelt wird. Dahinter steht nicht zuletzt die Frage nach dem rechtlichen Verantwortungsträger.

Neutralitätsthese

Roboterethiker lehnen die Neutralitätsthese ab, weil Technik von Menschen geschaffen ist  und als solches einen Ausdruck menschlicher Intentionen, Normen und Gründe darstellt. Zudem gehen die Auswirkungen der von Menschen für Menschen geschaffenen Technik weit über die menschliche Sphäre hinaus und betreffen alle möglichen Wesen und Dinge: Tiere, Pflanzen, Häuser, Autos, Smartphones, Landschaften und ganze Ökosysteme. Auch habe es schon vor Robotern unbelebte Dinge gegeben, denen ein Wert und mitunter sogar Rechte zugestanden wurden, so die Roboterethiker.

Subjekt vs Objekt

Janina Loh gibt in ihrem Buch einen Überblick über den Forschungsstand in der Roboterethik und führt in die zentrale Frage ein:

Sind Roboter moralische Subjekte oder lediglich Objekte moralischen Handelns?

Neben dieser klassischen Unterscheidung geht sie auch auf die jüngste Denkrichtung in der Roboterethik ein: inklusive Ansätze.

Dieser Artikel könnte Sie auch interessieren: Gefahren der Digitalisierung

In der Diskussion um den Roboter als Objekt moralischen Handelns, wird der Roboter als Werkzeug des Menschen verstanden. Die moralische Kompetenz bleibt beim Menschen der ihn nutzt und beim Hersteller, beziehungsweise dem Recht. Der Hersteller entscheidet über etwaige Rahmenwerte und –prinzipien, die in der Programmierung vorgegeben sind und von den Nutzenden nicht verändert werden können.

Moralische Subjekte

Die Diskussion um Roboter als Subjekte moralischen Handelns ist vergleichsweise klein – weil nur Menschen die Fähigkeit zum moralischen Handeln zugestanden wird – zumindest in zentristischen Ansätzen. Sowohl das moralische Subjekt als auch das Objekt moralischen Handelns gehen aus  zentristischen Ansätzen hervor und werden häufig einem Anthropozentrismus zugeordnet, in dem nur Menschen ein Eigenwert beigemessen wird.

„Der Einbezug von Robotern in den Horizont der mit einem Eigenwert ausgestatteten Dinge, könnte eine weitere zentristische Perspektive eröffnen, einen Mathenozentrismus etwa (von griechisch matheno (lernen)), der all das mit einem Eigenwert bemisst, was in einer spezifischen Weise gesteuert, programmiert oder lernfähig ist.“ Janina Loh, 2019, S. 37)

Forderung nach Inklusion

Zentristische Theorien sind durchwegs exkludierend und laufen dadurch  Gefahr  diskriminierend zu verfahren – so der Vorwurf von Vertretern inklusiver Theorien. Denn Ausgangspunkt bleibe immer der Mensch, der den ethischen common sense vorgibt. Damit berufen sich zentristische Theorien implizit auf anthropozentrische Theorien, die auf Aristoteles und dessen Verständnis vom Menschen zurückgeht. 

So erklärt sich der dritte und jüngste Ansatz in der Roboterethik, der mit der Forderung nach Inklusion entstand. Darin werden die tradierten und zumeist humanistischen Dichotomien in Frage gestellt, die wesentlich zur Entstehung unseres gegenwärtigen Menschen- und Weltbilds beigetragen haben: wie Mann/Frau, Tier/Mensch, Natur/Kultur und Objekt/Subjekt. Es sind kritische Posthumanist*innen wie Donna Haraway, die mit konventionellen Kategorien und dem damit einhergehenden Denken brechen, um an einen philosophischen Standort jenseits eines spezifischen und für die Gegenwart essenziellen Verständnisses des Menschen zu gelangen. Mit dieser radikalen Hinterfragung des Humanismus wird die Deutungshoheit von Wissenskulturen, die in der Regel westlich, weiß und männlich sind, einer umfassenden Revision unterzogen. 

Demgemäß umfasst die Forderung nach Inklusion postfeministische, poststrukturalistische, postkoloniale und kritisch-posthumanistische Positionen. Die philosophische Auseinandersetzung  mit konventionellen Kategorien soll verhindern, dass Technologien ein Menschenbild bestätigen, in dem Minderheiten der politische, gesellschaftliche, moralische, und rechtliche Status über Jahrhunderte aberkannt wurde.

Anthropozentrismus zugeordnet, in dem nur Menschen ein Eigenwert beigemessen wird.

Feministische roboterethische Ansätze

Ein Beispiel dafür sind feministische roboterethische Ansätze, in denen man davon ausgeht, dass der Schöpfer des Roboters vorrangig westlich, weiß, heterosexuell, aristotelisch und männlich ist. Woraus ein tradiertes Menschenbild resultiert, in dem die Frau exkludiert oder benachteiligt wird.

Bezeichnend für feministische roboterethische Positionen ist die Ablehnung des Roboters als moralisches Subjekt. Auch gibt es den Willen,  manche Arten von Robotern vollständig zu verbieten. Kathleen Richardson, Professorin für Ethik und Kultur von Robotern und Künstliche Intelligenz an der De Montfort University, Leicester, Großbritannien, etwa, spricht sich generell gegen Sexroboter aus, weil mit diesen heteronormative, patriarchale und diskriminierende Strukturen bestätigt werden.

Das Trolley-Problem

Als Grundlage der Roboterethik nennt Janina Loh das Werk Moral Machines (2009) von Wendell Wallach und Colin Allen. Darin schlagen die Autoren vor, einfach allen Wesen Moralfähigkeit zuzuschreiben, die moralische Entscheidungen treffen. Als Beispiel für eine moralische Entscheidung nennen sie Gleise, auf denen sich Menschen befinden, die der Zug zu überrollen droht. Der Zug urteile, indem er programmiert ist, unverzüglich zu stoppen, wenn sich Menschen auf den Gleisen aufhalten. Schwieriger wird es allerdings, wenn der Zug nur ausweichen kann und entscheiden muss, ob er eine kleinere oder größere Menschenansammlung auf einem der beiden Gleise überrollt … Das Beispiel ist als Trolley-Problem oder der Weichenstellerfall bekannt.

Janina Loh, Roboterethik, Trolley Problem,
Trolley Problem (c) Von !Original: McGeddonVektor: Zapyon – Eigenes Werk, basierend auf: Trolley problem.png von McGeddon Dieses Diagramm enthält Elemente, die von folgender Datei entnommen oder adaptiert wurden: BSicon TRAM1.svg (von BjørnN). Dieses Diagramm enthält Elemente, die von folgender Datei entnommen oder adaptiert wurden: Rozjazd pojedynczy.svg (von Orem). Dieses Diagramm enthält Elemente, die von folgender Datei entnommen oder adaptiert wurden: Person icon BLACK-01.svg (von MCruz (WMF))., CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=67107784

 

Moralische Maschine

Wie gelangt die Moral überhaupt in die Maschine? Ist eine weitere Frage, die in der Roboterethik diskutiert wird. Loh bearbeitet diese Frage wieder nach Wallach und Allen. Diese unterscheiden drei Prinzipien, wenn es um die Ausstattung künstlicher Systeme mit Moralität geht: Top-down-Ansätze, Bottom-up-Ansätze und hybride Ansätze.

Mangel an gesundem Menschenverstand

Im Rahmen der Top-down-Ansätze werden einem Roboter eine Reihe von Prinzipien oder Regeln einprogrammiert, wie etwa Immanuel Kants Kategorischer Imperativ oder die Asimov’schen Robotergesetze.

Dabei ist mit zumindest zwei Schwierigkeiten zu rechnen:

  • Die Interpretation ethischer Regeln ist kontextsensitiv. Die Programmierung bedarf jedoch einer eindeutigen Interpretation.
  • Es kann ein Konflikt zwischen den einzelnen Regeln auftreten. Je konkreter die moralischen Prinzipien formuliert sind, desto eher ist das System in der Lage, einen Fall in der Praxis anzuwenden. Mit der Konkretheit steigt aber auch die Zahl der Regeln und somit die Gefahr des Regelkonflikts. Janina Lohs Resümee: Der reine Top-Down-Ansatz hat einen Mangel an gesundem Menschenverstand.

Mangelnde Kreativität

Bei Bottom-up-Ansätzen werden keine moralischen Regeln vorgegeben, sondern basale Kompetenzen implementiert. Roboter entwickeln durch verschiedene Formen des Lernens moralisches Verhalten. Dabei unterscheidet man zwischen Evolutionsmodellen und Modellen menschlicher Sozialisation.

Bei Modellen menschlicher Sozialisation wird in zwei Formen von Mitgefühl differenziert:

  • Perzeptuelle Empathie ist bereits dann gegeben, wenn das Beobachten einer Emotion eine vergleichbare Reaktion beim Gegenüber auslöst.
  • Imaginative Empathie erfordert einen Perspektivenwechsel in Form von sich in das Gegenüber hineinversetzen.

Einige Denkerinnen stehen besonders den Bottom-up-Ansätzen kritisch gegenüber, weil die potenzielle Lernfähigkeit  zu Kontrollverlust führen kann. Hubert Dreyfus sieht das Problem der Künstlichen Intelligenz in der mangelnden Kreativität der Maschinen. Hingegen seien diese hervorragend für das Rechnen von komplexen Rechenvorgängen geeignet. Dreyfus ist Autor des Buches What computers can’t do.

Moralische Verantwortlichkeit ausmachen

Im Hauptteil ihres Buchs widmet sich Janina Loh der neuen Verantwortung, die mit menschenähnlich agierenden Robotern auf Gesellschaft, Politik und Gesetzgebung zukommt. Dabei unterscheidet sie zwischen exklusiven und inklusiven roboterethischen Ansätzen, die nicht ganz konfliktfrei sind. So gehen Vertreter exklusiver Ansätze davon aus, dass es die mit den Robotern befassten Menschen sind, welche die Verantwortung tragen sollen. Gegebenenfalls sehen sie die Verantwortung auch klar im Roboter als moralisch handelndem Subjekt.

Vertreter inklusiver roboterethischer Ansätze haben ein anderes Objekt- und Subjektverständnis. Sie nehmen nicht an, dass Menschen jemals vollständig Kontrolle über Natur und Kultur sowie Menschen und Nichtmenschen erlangen können. Vielmehr haben sie den Anspruch, konstruktive Strategien zu finden, um mit den Unsicherheiten umzugehen, Verantwortlichkeiten auszumachen und Rechenschaftspflicht in komplexen Sachverhalten zu schaffen.

Der Mensch als Cyborg

Die Naturwissenschaftshistorikerin und Frauenforscherin Donna Haraway postuliert, dass wir alle diese Trennung zwischen Organismus und Maschine in uns selbst aufgehoben haben und folglich Cyborgs seien. Auch die Unterscheidungen zwischen anderen wichtigen Dichotomien wie etwa Natur und Kultur, Tier und Mensch sowie Physikalischem und Nicht-Physikalischem  gingen in uns verloren, so Haraway.

Aber auch die Vertreter inklusiver roboterethischer Ansätze lassen nicht vollständig vom Roboter als Subjekt moralischen Handelns. Haraway etwa hält an der Vorstellung von klar definierbaren handelnden Subjekten fest. Allerdings entsprechen diese nicht mehr dem humanistischen Ideal des autarken, unabhängig von seiner Umwelt existierenden (westlichen, weißen, männlichen) Menschen.

Mark Coeckelbergh, der an der Universität Wien unterrichtende belgische Technologiephilosoph begreift den moralischen Status als etwas, das einem Wesen nicht essenzialistisch zugeschrieben, abgesprochen oder von vornherein verweigert werden kann. Vielmehr versteht er den moralischen Status als etwas, das in der Interaktion zwischen Wesen entsteht. Schließlich könne eine Entität ohne Bezugnahme auf ihre Beziehungen nicht definiert werden. In seinem Text Robot Rights (2010a) schlägt er vor, moralische Relevanz weder dem Objekt noch dem Subjekt zuzuweisen, sondern der Relation zwischen beiden (108). In dieser Denkweise ist der soziale Kontext des Roboters dessen Beziehung zu anderen Wesen, seine Situiertheit, Geschichte und sein Ort sowie seine natürliche, materielle, soziale und kulturelle Eingebettetheit. 

In ihrem Schlusswort plädiert die Janina Loh für die Eröffnung eines kritischen Diskurses und die Öffnung für inklusive Modelle. Voraussetzung dafür sei eine Politik, die ein Bildungssystem errichtet, in dem Roboterethik einen festen Platz hat.

Janina Loh ist Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Universität Wien.

Originalpublikation

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s