Computergestützte Moral

Frau Gesicht Fantasy
Moral als künstliche Intelligenz? – Quelle: tweetyspics, Pixabay

Die Diskussion um das selbst fahrende Auto geht weiter. Soll so ein Auto im Zweifel an die Wand fahren, um so einer Gruppe Menschen, welche entgegen der Straßenverkehrsordnung den Fahrweg überqueren, das Leben zu retten? Der nicht selbst fahrende „Passagier“ des Autos würde dabei zu Tode kommen. Oder soll der Computer im Auto anders programmiert sein?

Die fachlichen Diskussionen sind lang und sollen hier nicht nacherzählt werden. Eine rein logische Überlegung sei aber erlaubt.
Das, was wir den Rechnern in den selbst fahrenden Autos einprogrammieren, sollte unseren moralischen Leitgedanken entsprechen. Dabei machen wir also nichts anderes, als unsere Normen und Werte handlungsleitend zu machen. Dazu gehört auch, dass wir nicht nur uns, sondern auch die Mitmenschen schützen sollen und wollen. Alles anderes wäre unmoralisch.

Wenn der Roboter im Auto so handelt, dann hält er sich – nebenbei bemerkt – an die Robotergesetze, die Isaac Asimov aufgesetzt hat.

  • Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  • Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  • Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

In „Aufbruch zu den Sternen“ wurde dann noch das Nullte Gesetz daraus abgeleitet und vorangestellt.
Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

Dieser kleine Ausflug in das Genre der Science-Fiktion sei hier erlaubt. Denn die so formulierten Gesetze genügen zunächst einmal dem kategorischen Imperativ. Der Mensch ist immer Zweck. Holte man die genannten Gesetze zurück in die Alltagswelt, dann wäre unsere Welt zumindest formal sehr viel moralischer als sie es jetzt ist.

Moralische Entscheidungen erfolgen jedoch nicht auf der Basis von Algorithmen. Menschen treffen Entscheidungen nicht nach Drehbuch. Moral als soziale Tatsache ist ein selbst lernendes System. Die Dynamik dieses selbst lernenden Systems ist offen.

tmd.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*