Feeds:
Beiträge
Kommentare

Posts Tagged ‘AI’

Philipp sagt:
Darum gehts in diesem Paper; „The Basic AI Drives“ von Stephen Omohundro.
Die Grundidee ist folgende: Egal wie harmlos das System angelegt ist, es kann aufgrund grundlegender Eigenschaften doch gefährlich werden; nur wie?

Künstliche Intelligenz wird in diesem Paper als die Eigenschaft definiert, nach der ein System festgesetzte Ziele hat, die es versucht durch Handeln zu erreichen, und komplexere Systeme sollten in der Lage sein, die Konsequenzen ihrer Aktionen im Voraus einzuschätzen.
Aus dieser Grundüberlegung zieht der Autor den Schluss, das solche Einheiten gewisse Triebe entwickeln sollten, um auf dem Weg zu ihren Zielen erfolgreich zu sein. Diese Triebe können unter Umständen für Menschen gefährlich werden.
Omohundro nennt 6 mögliche Triebe der KI, die er alle mit schönen, logischen Argumenten (sei es indem er gewisse Eigenschaften von Menschen als Gegenbeispiel nennt oder die Ziele von Schachrobotern aufzeigt) ausführt; da ich das ganze sehr interessant finde gehe ich kurz auf jedes dieser Ziele ein.

1. „Die KI wird sich selbst verbessern wollen“
Spätestens hier denkt jeder an „The Matrix“ (den kennt ja jeder! Ein obskurerer Verweis? Bitte: „Welt am Draht“).
Kurz gesagt: Das System will zu seinem Ziel; indem es sich selbst verbessert, kommt es schneller und effizienter dort an.
2. „Die KI wird rational sein wollen“
Erklärt sich von selbst, Irrationalität (vor allem in späteren „Inkarnationen“, die durch Selbstmodifikation entstehen, z.B. Kinder, die das mühsam erarbeitete Geld ihrer Eltern versaufen – Hallo Papa!) lenkt nur vom Ziel ab.
3. „Die KI wird den Nutzen seiner Funktionen bewahren wollen“
Stimmt nur in einem gewissen Maße, da dieser Trieb mit 1. konkurriert. Seine grundlegenden Funktionen muss das System bewahren, jedoch kann es z.B. Kopien anlegen die dann verändert werden, wie es in der Natur bei der Genduplikation auch geschieht.
4. „Die KI wird gefälschten Nutzen verhindern wollen“
Hier übernehme ich das schöne Beispiel aus dem Text: Wenn man einen Schachroboter baut mit dem Ziel, möglichst viele Spiele zu gewinnen, so könnte er einfach seinen inneren „Spiele gewonnen“-Zähler hochrattern lassen und bequem natürliches Maschinenöl schlürfen gehen.
Allerdings erreicht er so nie sein wahres Ziel – die Maschine wird realisieren, das die Zahl auf dem Zähler niemanden näher zum Ziel bringt, vorausgesetzt die Ziele sind klar und richtig definiert.
5. „Die KI wird sich selbst beschützen wollen“
Ab hier kommen dann die für Menschen gefährlichen Grundtriebe des Systems, wie schon in diversen Filmen und Büchern gezeigt.
Aasimov hat mit seinen drei Gesetzen der Robotik hier vorgegriffen und auch eine simple Lösung dafür gefunden, indem er einfach das menschliche Wohlergehen über den des Systems setzte.
(Allerdings gibt es innerhalb dieser drei Gesetze auch Ausnahmen, näheres gibts wenn man Asimovs Robotergeschichten liest, was ich hiermit offiziell empfohlen habe!)
6. „Die KI wird Ressourcen erlangen und diese effizient nutzen wollen“
Die Ressourcen helfen natürlich beim Weg zum Ziel, auch dieser Trieb kann der Menschheit leicht gefährlich werden.

Das Paper ist einfach zu lesen, bietet (in meinen Augen) schlüssige und interessante Argumente, auch wenn das Thema noch etwas in der Zukunft liegt – noch macht Python nicht einfach so was ich will. Schade.

Bastian sagt:

Ein wirklich interessantes Paper über künstliche Intelligenzen (KI) und ihre Motivationen, eine Ergänzung hätte ich aber noch zu Punkt 3 vorzubringen:

Der Vergleich mit der Genduplikation ist vielleicht etwas ungünstig gewählt, aber im Paper wird kurz darauf eingangen, denn die Evolution der Maschinen hat einen großen Unterschied zu der biologischen Evolution. Die biologische Evolution ist blind, ganz und gar. Sie ist auf kein Ziel gerichtet und erst durch Selektionsdrücke nach der Veränderung/Mutation werden die Positiven aus den Negativen gefiltert. Anders sieht es bei der Evolution der Maschinen aus.

Ganz rational können sie überlegen welche Änderungen welche Konsequenzen mit sich bringen und danach selbst ihren Code so zum positiven abändern. Als kleiner Vergleich zu uns wäre das quasi so, als würden wir unsere DNA/Gene selber dauerhaft zu Lebzeiten ändern und dann vererben können, was weit über gezieltes Züchten von Pflanzen/Tieren hinausgeht.

Der große Unterschied ist also das Evolution in biologischen Systemen durch (auch wenn das vielleicht nicht ganz so elegant klingt) zufällige Mutationen und anschliessende Selektionen, also Try & Error abläuft, während Maschinen zielgerichtet evolvieren können.

Advertisements

Read Full Post »