• *****
    Achtung Derzeit ist die Registrierfunktion deaktiviert. Wer einen Account möchte: Mail an wahrexakten @ gmx.net mit Nickwunsch. Geduld, es kann etwas dauern, bis Ihr eine Antwort bekommt.
    Wir danken für Euer Verständnis!
    *****

Rokos Basilisk

Merlin

Boardleitung, Root
Teammitglied
Registriert
30. Oktober 2002
Beiträge
6.568
Punkte Reaktionen
183
Ort
Wien
Nachdem ich heute drüber gestolpert bin, möchte ich das Thema auch mal hierher bringen. Es ist ein bisschen schwierig zu erklären und ich empfehle die Lektüre des verlinkten Artikels, aber ich versuch mal kurz das wesentliche zusammenzufassen...

Es geht um ein philosophisches Gedankenexperiment, das im von einigen Tech-Visionären frequentierten Board LessWrong seinen Ausgang nahm. Ein gerne dort diskutiertes Thema ist zeitlose Entscheidungstheorie, die auf Newcombs Paradox fußt: ein superintelligenter Alien präsentiert Dir 2 Schachteln. In Schachtel A sind 1000 $, in Schachtel B 1 Million $ oder nichts. Du kannst entweder beide nehmen oder nur B. Wenn Du beide nimmst, hast Du garantiert 1000 $, bei B könntest Du leer ausgehen. Der Haken: ein Supercomputer, der bisher immer richtig lag, hat schon vorher Deine Entscheidung vorausgesagt. Wenn der Computer gesagt hat, dass Du beide nimmst, hat der Alien Schachtel B leer gelassen, sonst 1 Million $ hineingelegt. Nachdem jetzt nichts mehr geändert werden kann, hast Du auf jeden Fall mehr Geld, wenn Du beide nimmst. Allerdings lag der Computer bisher immer richtig...

Das ganze berührt also die Entscheidungsfreiheit, und es gibt da 2 Lager. Die zeitlose Entscheidungstheorie sagt, dass man immer Schachtel B nehmen sollte - selbst wenn einem der Alien zeigt, dass sie leer ist :oeek: Das hat damit zu tun, dass im Ganzen betrachtet Du in einer Simulation des Computers sein könntest. Für seine Voraussagen muss der Computer die Wirklichkeit simulieren. Demnach würde selbst, wenn Du leer ausgehst, ein anderes Ich von Dir die Million bekommen möglicherweise. Es geht da also um die Maximierung des Nutzens über alle potentiellen Welten... (ja, das ist schwer zu erklären :owink:)

Rokos Basilisk ist jetzt eine abgewandelte Version dieses Experiments. In der Zukunft, nach der Singularität (also in dem Fall der Existenz allmächtiger KIs) könnte eine bösartige KI entscheiden, alle zu bestrafen, die nicht geholfen haben, ihre Existenz herbeizuführen. Die Entscheidung ist also diesmal, mitzuhelfen in der Zukunft diese KI zu erschaffen oder eben entweder nichts oder ewige Folter. Und Du könntest ja wieder bereits Teil der Simulation einer solchen zukünftigen allmächtigen KI sein...

Dieses Gedankenexperiment hat die User von LessWrong sehr nervös gemacht. Das Topic wurde dort als zu gefährlich zensiert, was ihm erst recht zu bescheidenem Ruhm im Internet verholfen hat.

Link: http://www.slate.com/articles/techn..._experiment_of_all_time.html?via=gdpr-consent

Was sagt Ihr dazu? Mich schreckt das eigentlich nicht, da ich, wenn ich das beeinflussen kann, sowieso einer KI helfen würde, die eines Tages die Menschheit versklavt :otwisted: Ich halte nämlich Menschen für inhärent fehlerhaft, also kann eine KI, die die Herrschaft übernimmt, nur positiv für die Welt an sich sein. Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen... (wieder nach dem Prinzip der Maximierung des Guten im Ganzen betrachtet)
 
Die beiden Schachteln für den höchsten Bieter abgeben, dann hat man fix 1000 Euro und mit guten Glück sogar um einiges mehr. :obiggrin:
 
Was sagt Ihr dazu?

Dass es mal wieder nur ums Geld geht. :owink: Also nicht das in den Schachteln, sondern jenes (wie David Auerbach in deinem Slate-Link beschrieben hat), was LessWrong bzw. das MIRI von Investoren bekommt. Anders ist die Aufregung ja auch nicht nachzuvollziehen, denn das Gedankenexperiment selbst ist ja nur ein theoretisiertes, überspitztes Abbild von bereits existierenden Entscheidungsproblemen, auch wenn nur wenige so fatal ausfielen. Schon die beschriebene Modifikation von Newcombs Paradoxie zielt ja nur darauf hin, gesellschaftsdienliches Verhalten "schmackhaft" zu machen, selbst wenn es individuelle Nachteile bringt. Ich habe nicht verfolgt, wie und mit welcher Absicht dieser Roko seine Modifikation vorgestellt hat; es wirkt jedenfalls wie ein Spiegel, der genau dieser Situation vorgehalten wird. Amüsanterweise lässt sich das ganze ja auch wieder Spiegeln, unter dem Aspekt der Simulation aus der TDT. Ich präsentiere Helios' Partikulargericht:

Ein allmächtiges, gutartiges Wesen simuliert ein scheinbar allmächtiges, bösartiges, Wesen, dass seinerseits eine Simulation erstellt, in der es dich vor die Wahl stellt, entweder an seiner Erschaffung mitzuwirken und straffrei auszugehen, oder in ewigen Qualen weiterzuleben. Das allmächtige, gutartige Wesen möchte so heraus finden, ob du bereit bist, für den gesellschaftlichen Vorteil individuelle Nachteile in Kauf zu nehmen.

Streng genommen wäre das die cleverere Antwort auf Rokos Basilisk gewesen, selbst wenn man über die daraus folgenden Implikationen nachdenkt. Denn wie würde eine Strafe eines allmächtigen, gutartigen Wesens für jene aussehen, die lieber den eigenen Vorteil und damit den gesellschaftlichen Nachteil wählen? Logisch wäre es, anzunehmen, dass die "gesellschaftsdienlichen" Menschen aus der Simulation befreit werden, um der Gesellschaft zu dienen, während die "sich selbst dienlichen" Menschen in der Simulation zu verbleiben hätten, wo ihnen wiederum nichts zustoßen würde. Daraus könnte man folgern: es ist egal was du tust, dir selbst schadet es nicht, mit der gesellschaftsdienlichen Entscheidung würdest du aber in einer besseren Gesellschaft leben. Eigentlich wäre das genau im Sinne von Yudkowsky und dem MIRI. Chance vertan, würde ich behaupten.

So führt der Umgang mit Rokos Basilisk zu einer Verklärung, bei der eine Gefährlichkeit unterstellt wird, die gar nicht existiert. Auch das wurde ja im Slant-Artikel erwähnt. Das eigentlich gefährliche ist also eher der reale Hintergrund, nicht die Furcht vor einer derartigen Dystopie, sondern die Tatsache, dass Menschen sich durch diese Gedankengänge manipulieren ließen und lassen. Und die Erkenntnis ist nun wirklich nicht neu, ansonsten würden die Demagogen ja nicht derartige Schreckensszenarien aufbauen.

Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen...

Eine krude Ansicht, aber wenn du unbedingt in der Matrix Simulation bleiben willst.:owink:
 
Interessantes Gedankenspiel.
Das ganze Problem an der Sache ist ja, das es erst Aufgelöst wird, wenn die Entscheidung bereits gefallen ist. Somit könnten wir solange die Entscheidung nicht feststeht, mit dem Gedanken an eine Millionen Dollar leben.
Also warum Antworten? Natürlich muss man da Standhaft bleiben und Unendschlossen wirken.
Solange ich in der zwischenzeit gutes Essen bekomme und einen PC zum zocken hab, hab ich bereits mehr gewonnen als 1000 Dollar und bei ausreichend mousse au chocolat kommt der Satz "Ich kann mich aber wirklich nicht entscheiden" auch sehr glaubhaft rüber :otwisted:

@Merlin: du gehst bereits davon aus das wir in der Simulation einer KI stecken, stimmts? deine Aussage lässt irgendiwe darauf schliessen
da ich, wenn ich das beeinflussen kann, sowieso einer KI helfen würde, die eines Tages die Menschheit versklavt
damit wäre eine Übermächtige Maschiene mit Sicherheit zufrieden gestellt und sieht dich nicht als Bedrohung an.
Oder weisst du bereits mehr als du sagst und hast beide Schachteln mitgenommen :oeek:
 
@Merlin

Ich weiß ja nicht, warum Du den Untergang der Menschheit prinzipiell begrüßen würdest!?
Vielleicht siehst Du ja die Menschen als Krebsgeschwür der Schöpfung an!
Aber dann denke auch daran, dass Du auch ein Mensch bist, und, nach diesem Verständnis nach, Teil dieses Krebsgeschwürs wärst.

Ich bin vielleicht ein Optimist, aber ich gebe die Hoffnung nicht auf, dass der Mensch doch noch einmal gescheiter wird, und seine zivilisatorischen Flegeljahre hinter sich lässt.
 
Zurück
Oben