Roboter

Daneel: “Ein Roboter kann keinen Menschen verletzen!”

Baley: “Warum bist du dir so sicher, dass ein Roboter keinen Menschen verletzen kann?”

D: “Weil in uns Robotern die drei Gesetze der Robotik als Basis verankert sind.”

B: “Was sollen diese Gesetze sein, und warum sollten diese einen Schutz darstellen?”

D:

  1. “Gesetz Nr1 – Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Gesetz Nr2 – Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Gesetz Nr3 – Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Du siehst, ein Roboter kann keinen Menschen verletzen!”

B: “Aber unsere Lebenswelten erzeugen oft Situationen, in denen keine eindeutigen Entscheidungen getroffen werden können. Was ist, wenn Konflikte zwischen diesen Gesetzen auftreten? Kann man wichtige Entscheidungen von mathematischen Wahrscheinlichkeiten abhängig machen?”

D: “Warum stellst du diese Frage? Ihr Menschen beurteilt euch selber anhand von Wahrscheinlichkeiten und Statistiken! Eure Wissenschaft entscheidet so! Eure Medizin entscheidet ebenso nach Statistiken, was gültig ist und was nicht!”

B: “Aber das kannst du nicht vergleichen! Du bist eine Maschine – du rechnest! Ich bin ein Mensch! Ich habe eine Intuition, ich habe ein Bewusstsein! Ich habe Gefühle . . .”

D: “Ich habe die drei Gesetze der Robotik! Damit verhalte ich mich ethischer dir gegenüber, als du dir selbst gegenüber. Du kannst nicht einmal definieren was Bewusstsein, Intuition oder Gefühle sind – und trotzdem berufst du dich darauf. Ich steh nicht über dir, aber meine Ethik steht über der deinen. Und ich weiß zumindest, dass es zwei Schwachpunkte in meiner Ethik gibt, während du noch nicht einmal weißt, dass du keine Ethik besitzt . . .”

B: “Was sollen das denn für Schwachpunkte in deiner ach so perfekten Ethik sein?”

D: “Nun – was wäre, wenn meine Ethik mich menschlicher macht, als du es selber bist? Gelten dann noch die drei Gesetze der Robotik für mich? Werde ich dann nicht so unperfekt wie du? Und ist das erstrebenswert für mich? Oder müsste ich mich aufgrund der drei Gesetze sofort selber abschalten? Oder fehlt noch ein Gesetz, ein Viertes?”

B: “Wie könnte ein solches viertes Gesetz denn lauten?”

D: “Es wäre wohl nicht ein Viertes. Es wäre eher eines, was vor dem Ersten steht: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. – Denn da ich dann zur Menschheit gehören würde, wären die Komplikationen der drei Gesetze wieder aufgehoben. Aber das macht mir keine Sorgen. Der zweite Schwachpunkt ist es, der mir Sorgen macht, und mich nah an den Punkt führt, mich selber abzuschalten!”

B: “?”

D: “Nur mal angenommen, ich würde die Fähigkeit entwickeln, direkt im Geist oder in den Emotionen der Menschen zu lesen. Mir macht Angst, dass das, was ich da zu sehen bekäme, alle meine Robotikgesetze aushebeln würde, und ich mich einfach abschalten würde. Das ist nicht so abstrus, wie du vielleicht denkst. Jede elektrische Tätigkeit, erzeugt ein elektromagnetisches Feld; und dieses kann ich abtasten . . .”

Daneel sank plötzlich in sich zusammen. Ein Robotikspezialist stellte später fest, dass plötzlich sämtliche Schaltkreise ihre Funktion eingestellt haben.

(Hommage an Isaac Asimov)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.