Roboethik: Die auf Roboter angewandte Humanethik

Wer oder was wird zur Verantwortung gezogen, wenn ein autonomes System versagt oder einen Menschen schädigt?

Robotik und die Humanethik
Robotik und die Humanethik

In den 1940er Jahren entwickelte der amerikanische Schriftsteller Isaac Asimov die Drei Gesetze der Robotik, in denen er argumentierte, dass intelligente Roboter so programmiert werden sollten, dass sie im Konfliktfall die folgenden drei Gesetze befolgen:

  • Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt
  • Ein Roboter muss die Befehle befolgen, die ihm von Menschen gegeben werden, es sei denn, diese Befehle würden dem ersten Gesetz widersprechen
  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz kollidiert

Isaac Asimovs Gesetze der Robotik wurden erstmals in der Science-Fiction-Kurzgeschichte Runaround (PDF) vorgestellt, die in der März-Ausgabe 1942 der Astounding Science Fiction veröffentlicht wurde.

Spulen wir fast 80 Jahre in die Gegenwart vor, so stellen Asimovs Drei Gesetze der Robotik heute mehr Probleme und Konflikte für Robotiker dar, als sie lösen.

Unter Robotikern, Philosophen und Ingenieuren gibt es eine anhaltende Debatte über Maschinenethik. Maschinenethik oder Roboethik ist ein praktischer Vorschlag, wie man Roboter gleichzeitig konstruieren und mit ethischen Sanktionen versehen kann.

Wer oder was wird zur Verantwortung gezogen, wenn ein autonomes System versagt oder einen Menschen schädigt?

Derzeit verfolgen Forscher einen Trend, der darauf abzielt, das Design und die Implementierung von künstlichen Systemen mit eingebettetem moralisch akzeptablem Verhalten zu fördern.

Über Ethik und Roboethik

Ethik ist der Zweig der Philosophie, der menschliches Verhalten, moralische Bewertungen, die Konzepte von Gut und Böse, Richtig und Falsch, Gerechtigkeit und Ungerechtigkeit untersucht. Das Konzept der Roboethik bringt eine grundlegende ethische Reflexion hervor, die sich auf bestimmte Fragen und moralische Dilemmas bezieht, die durch die Entwicklung von Roboteranwendungen entstehen.

Roboethics – auch Maschinenethik genannt – befasst sich mit dem Verhaltenskodex, den Robotik-Designer in die Künstliche Intelligenz eines Roboters implementieren müssen. Durch diese Art der künstlichen Ethik müssen Robotiker garantieren, dass autonome Systeme in der Lage sind, ethisch akzeptables Verhalten in Situationen zu zeigen, in denen Roboter oder andere autonome Systeme wie autonome Fahrzeuge mit Menschen interagieren.

Ethische Fragen werden weiter zunehmen, solange fortschrittlichere Robotik ins Spiel kommt. In The Ethical Landscape of Robotics (PDF) von Pawel Lichocki et al., veröffentlicht im IEEE Robotics and Automation Magazine, listen die Forscher verschiedene ethische Probleme auf, die in zwei Gruppen von Roboteranwendungen auftreten: Serviceroboter und tödliche Roboter.

Serviceroboter werden geschaffen, um friedlich mit Menschen zu leben und zu interagieren, während tödliche Roboter geschaffen werden, um als Militärroboter auf das Schlachtfeld geschickt zu werden.

Laut The Ethical Landscape of Robotics argumentiert Noel Shanky, dass „die kognitiven Fähigkeiten von Robotern nicht mit denen von Menschen übereinstimmen, und daher sind tödliche Roboter unethisch, da sie leichter Fehler machen können als Menschen.“ Und Ronald Arkin glaubt, dass „ein unbemanntes System zwar nicht in der Lage sein wird, sich auf dem Schlachtfeld perfekt zu verhalten, aber es kann ethischer handeln als ein Mensch.“

Die Frage nach der Moral des Einsatzes von Robotern auf dem Schlachtfeld beinhaltet zum Teil Festlegungen zur Fähigkeit und Art der in Frage kommenden Künstlichen Intelligenz.

Roboter im Militär: Entwickelt, um zu töten und moralische Verantwortlichkeit

Militärroboter sind sicherlich nicht nur eine Sache der Gegenwart. Sie stammen aus dem Zweiten Weltkrieg und dem Kalten Krieg. Der deutsche Goliath verfolgte Minen und die sowjetischen Teletanks. Militärroboter können eine Waffe abfeuern, Bomben entschärfen, verwundete Soldaten tragen, Minen aufspüren, Raketen abfeuern, fliegen und so weiter.

Heute werden viele weitere Einsatzmöglichkeiten für Militärroboter entwickelt, indem andere Technologien auf die Robotik angewendet werden. Das US-Militär wird bis 2020 mit einem Fünftel seiner Kampfeinheiten rechnen, die vollständig automatisiert sind.

Welche Art von Roboethik wird in Militärroboter eingebettet werden und wer wird darüber entscheiden? Asimovs Gesetze können nicht auf Roboter angewandt werden, die dafür ausgelegt sind, Menschen zu töten.

Ebenfalls im Jahr 2020 wird die US-Armee gepanzerte Roboterfahrzeuge live testen. Eine Demonstration fand im Mai in Texas statt.

Werden Roboter in Zukunft zu moralischen Agenten?

Roboethics wird zunehmend an Bedeutung gewinnen, da wir in eine Ära eintreten, in der fortschrittlichere und hochentwickelte Roboter sowie Künstliche Allgemeine Intelligenz (AGI) zu einem integralen Bestandteil unseres täglichen Lebens werden.

Daher muss die Debatte über ethische und soziale Fragen in der fortgeschrittenen Robotik immer wichtiger werden. Das aktuelle Wachstum der Robotik und die rasanten Entwicklungen im Bereich der künstlichen Intelligenz erfordern, dass Robotiker und Menschen im Allgemeinen eher früher als später darauf vorbereitet sind.

Während die Diskussion in der Roboethik voranschreitet, argumentieren einige, dass Roboter dazu beitragen werden, eine bessere Welt zu schaffen. Einige andere argumentieren, dass Roboter nicht in der Lage sind, moralische Agenten zu sein und nicht mit eingebetteten Fähigkeiten zur moralischen Entscheidungsfindung entwickelt werden sollten.

Schließlich, vielleicht noch nicht, aber in der Zukunft könnten Roboter zu moralischen Agenten mit zugeschriebener moralischer Verantwortung werden. Bis dahin müssen die Ingenieure und Designer von Robotern die Verantwortung für die ethischen Konsequenzen ihrer Kreationen übernehmen.

Mit anderen Worten: Ingenieure und Designer von Robotern müssen moralisch verantwortlich sein für das, was sie entwerfen und in die Welt bringen.