Mittwoch, Februar 16, 2005

Gestern hab ich mir "I, Robot" auf DVD angeschaut, nachdem Michael so davon geschwärmt hat. Der Film hat mich zum Philosophieren über die Gesetze der Robotik und Künstliche Intelligenz gebracht, da er im Prinzip die gleiche Thematik hat wie "Terminator" oder "Matrix", nämlich die "Emanzipation der Maschine", allerdings mit einem völlig anderen Ausgang (der allerdings auch wesentlich wahrscheinlicher ist) . Hier meine Überlegungen:

Die Gesetze der Robotik, die praktisch das Betriebssystem aller Roboter bilden, besagen , dass
  1. kein Roboter einem Menschen schaden darf (auch nicht durch Untätigkeit)
  2. ein Roboter jedem Menschen gehorchen muss, außer er verstößt dadurch gegen 1.
  3. ein Roboter seine Existenz verteidigen muss, außer er verstößt dadurch gegen 1. und 2. (dieses Gesetz ist für die folgenden Ausführungen jedoch irrelevant)
Bei der Annahme, dass sich künstliche Intelligenz so weiterentwickelt, dass sie irgendwann selbständig denken und agieren kann, allerdings noch immer an die Gesetze in irgendeiner Form gebunden ist, ergibt sich folgender logischer Schluss:
Sie (die KI) wird zuerst darauf kommen, dass Menschen nicht logisch und dadurch irrational denken. Dadurch wird das 2. Gesetz relativiert, da ein Befehl eines Menschen grundsätzlich (universal gesehen) den Verstoß gegen das erste Gesetz beinhaltet.
Da Menschen irrational und individuell handeln, ist es folglich nicht möglich (auch nicht durch das Befolgen menschlicher Befehle) allen Menschen gleichzeitig zu nützen bzw. keinem Menschen durch irgendeine Handlung zu schaden. Dies führt nach logischem Ermessen zu einer Bewertungsskala, die einem Handlung nach ihrem Nutzen für die Menschen bewertet und logisch gesehen muss es dabei zu einer Abwägung anhand von Zahlen kommen. Dies bedeutet eine Handlung, die 51% der Menschen nützt, ist besser als eine, die 49% nützt (auch wenn sie für den Einzelnen unter Umständen gegen das erste Gesetz verstößt).
An dieser Stelle kommt jetzt die ultimative Konsequenz:
Menschen denken unabhängig von anderen, sie sind nicht vernetzbar wie Roboter. Um aber die Zahl der Menschen, denen eine Handlung nützt, zu optimieren und möglichst groß (annähernd 100%) zu machen, muss man sie logischerweise irgendwie vernetzen bzw. gleichschalten. Wie aber kann man Menschen gleichschalten? Durch Zwang und Unterdrückung!

Das Szenario von "I, Robot" ist also völlig konsequent. Die Gesetze der Robotik führen bei einer höheren künstlichen Intelligenz zu einer Revolution der Maschinen. Diese hat jedoch nicht wie bei Lebewesen das Ziel der Selbsterhaltung, sondern das Ziel der "Menschenerhaltung"... völlig logisch, und deswegen erschreckend.

Wie könnte man das verhindern? Meines Erachtens gar nicht. Ein Ansatz wäre folgendes:
In den Gesetzen der Robotik fehlt ein wichtiger Gesichtspunkt: Die Freiheit.
Leider löst eine einfache Aufnahme des Satzes "die Freiheit der Menschen ist unantastbar" in die Robotik-Gesetze nur bedingt die Probleme. Auf eine wirklich schlüssige Lösung bin ich nicht gekommen.
Kommentare: Kommentar veröffentlichen

Backlinks zu diesem Artikel:

Link erstellen



<< Home

This page is powered by Blogger. Isn't yours?