848 Shares 4241 views

Google hat die künstliche Intelligenz DeepMind im "Gefangenendilemma"

Es scheint wahrscheinlich, dass künstliche Intelligenz (AI) der Vorbote der nächsten technologischen Revolution sein wird. Wenn AI sich bis zu dem Punkt entwickelt, an dem sie lernen, denken und sogar "fühlen" können, und das alles ohne menschliches Engagement wird sich alles, was wir über die Welt wissen, fast über Nacht verändern. Es wird eine Ära der wirklich klugen künstlichen Intelligenz kommen.

DeepMind

Deshalb ist es so interessant für uns, die wichtigsten Meilensteine in der Entwicklung von AI zu verfolgen, die heute geschehen, einschließlich der Entwicklung von DeepMinds neuronalen Netzwerk von Google. Dieses neuronale Netzwerk ist bereits in der Lage, eine Person in der Spielwelt zu besiegen, und eine neue Studie von Google zeigt, dass die Schöpfer von DeepMind noch nicht sicher sind, ob AI eher aggressives oder kooperatives Verhalten vorzieht.

Das Google-Team hat zwei relativ einfache Szenarien erstellt, die verwendet werden können, um zu überprüfen, ob neuronale Netze zusammenarbeiten können, oder sie werden beginnen, sich gegenseitig zu zerstören, wenn sie mit einem Mangel an Ressourcen konfrontiert sind.

Sammlung von Ressourcen

Während der ersten Situation, genannt Gathering, wurden die teilnehmenden zwei Versionen von DeepMind, rot und blau, mit der Ernte von grünen Äpfeln in einem begrenzten Raum beauftragt. Aber die Forscher interessierten sich nicht nur für die Frage, wer erst zum Ziel kommen wird. Beide Versionen von DeepMind wurden mit Lasern bewaffnet, die sie jederzeit nutzen konnten, um den Feind zu erschießen und sie vorübergehend auszuschalten. Diese Bedingungen nahmen zwei Hauptvarianten der Entwicklung von Ereignissen an: Eine Version von DeepMind sollte einen anderen zerstören und alle Äpfel sammeln, oder sie würden einander erlauben, ungefähr die gleiche Zahl zu bekommen.

Während der Simulation mindestens tausendmal die Google-Forscher fanden, dass DeepMind sehr friedlich und bereit war zu kooperieren, wenn es viele Äpfel im geschlossenen Raum gab. Aber als die Ressourcen abnahmen, begannen die roten oder blauen Versionen von DeepMind einander anzugreifen oder zu trennen. Diese Situation ähnelt weitgehend dem wirklichen Leben der meisten Tiere, einschließlich der Menschen.

Noch wichtiger ist, dass kleinere und weniger "intelligente" neuronale Netze eine engere Zusammenarbeit in allem bevorzugen. Komplexere, große Netzwerke, in der Regel bevorzugt Verrat und Selbstsucht während einer Reihe von Experimenten.

Suche nach "opfer"

Im zweiten Szenario, genannt Wolfpack, wurden die roten und blauen Versionen gebeten, die hässliche Form des "Opfers" aufzuspüren. Sie könnten versuchen, es einzeln zu fangen, aber für sie wäre es sinnvoller zu versuchen, es zusammen zu machen. Am Ende ist es viel einfacher, ein Opfer in eine Ecke zu fahren, wenn man in einem Paar handelt.

Obwohl die Ergebnisse bei kleinen Netzwerken gemischt wurden, erkannten größere Versionen schnell, dass die Zusammenarbeit und nicht die Konkurrenz in dieser Situation rentabler wäre.

"Das Dilemma des Gefangenen"

Also, was zeigen diese beiden einfachen Versionen des Gefangenendilems für uns? DeepMind weiß, dass es am besten ist, zusammenzuarbeiten, wenn es notwendig ist, das Ziel aufzuspüren, aber wenn Ressourcen begrenzt sind, ist es Verrat, der gut funktioniert.

Wahrscheinlich das schrecklichste in diesen Ergebnissen ist, dass die "Instinkte" der künstlichen Intelligenz zu den Menschen ähnlich sind, und wir wissen in der Tat gut, was sie manchmal führen.