WAHRE X AKTEN FORUM - Paranormales, Verschwörungstheorien, Aliens

 
WAHRE X AKTEN FORUM
Paranormales, Verschwörungstheorien, Aliens
www.wahrexakten.at - www.wahrexakten.org

Team Gästebuch Portal Datenschutz Nutzungsbedingungen Impressum Home
Zurück   WAHRE X AKTEN FORUM - Paranormales, Verschwörungstheorien, Aliens > DIE ANDERE REALITÄT > Philosophie
Kennwort vergessen?

Hinweise

Philosophie Philosophie von klassischer bis religiöser Philosophie... (alles was mit Verschwörung & mysteriösen Begebenheiten zu tun hat bitte nach Geheimsache Weltreligionen - Danke!)

Antwort
 
Themen-Optionen
Alt 05.06.2018, 21:25   #1
Merlin
Boardleitung
Bow before me, for I am root

 
Benutzerbild von Merlin
 

Registriert seit: 30.10.2002
Ort: Wien
Beiträge: 6.298
Abgegebene Danke: 291
Erhielt 665 Danke für 356 Beiträge
Standard Rokos Basilisk

Nachdem ich heute drüber gestolpert bin, möchte ich das Thema auch mal hierher bringen. Es ist ein bisschen schwierig zu erklären und ich empfehle die Lektüre des verlinkten Artikels, aber ich versuch mal kurz das wesentliche zusammenzufassen...

Es geht um ein philosophisches Gedankenexperiment, das im von einigen Tech-Visionären frequentierten Board LessWrong seinen Ausgang nahm. Ein gerne dort diskutiertes Thema ist zeitlose Entscheidungstheorie, die auf Newcombs Paradox fußt: ein superintelligenter Alien präsentiert Dir 2 Schachteln. In Schachtel A sind 1000 $, in Schachtel B 1 Million $ oder nichts. Du kannst entweder beide nehmen oder nur B. Wenn Du beide nimmst, hast Du garantiert 1000 $, bei B könntest Du leer ausgehen. Der Haken: ein Supercomputer, der bisher immer richtig lag, hat schon vorher Deine Entscheidung vorausgesagt. Wenn der Computer gesagt hat, dass Du beide nimmst, hat der Alien Schachtel B leer gelassen, sonst 1 Million $ hineingelegt. Nachdem jetzt nichts mehr geändert werden kann, hast Du auf jeden Fall mehr Geld, wenn Du beide nimmst. Allerdings lag der Computer bisher immer richtig...

Das ganze berührt also die Entscheidungsfreiheit, und es gibt da 2 Lager. Die zeitlose Entscheidungstheorie sagt, dass man immer Schachtel B nehmen sollte - selbst wenn einem der Alien zeigt, dass sie leer ist Das hat damit zu tun, dass im Ganzen betrachtet Du in einer Simulation des Computers sein könntest. Für seine Voraussagen muss der Computer die Wirklichkeit simulieren. Demnach würde selbst, wenn Du leer ausgehst, ein anderes Ich von Dir die Million bekommen möglicherweise. Es geht da also um die Maximierung des Nutzens über alle potentiellen Welten... (ja, das ist schwer zu erklären )

Rokos Basilisk ist jetzt eine abgewandelte Version dieses Experiments. In der Zukunft, nach der Singularität (also in dem Fall der Existenz allmächtiger KIs) könnte eine bösartige KI entscheiden, alle zu bestrafen, die nicht geholfen haben, ihre Existenz herbeizuführen. Die Entscheidung ist also diesmal, mitzuhelfen in der Zukunft diese KI zu erschaffen oder eben entweder nichts oder ewige Folter. Und Du könntest ja wieder bereits Teil der Simulation einer solchen zukünftigen allmächtigen KI sein...

Dieses Gedankenexperiment hat die User von LessWrong sehr nervös gemacht. Das Topic wurde dort als zu gefährlich zensiert, was ihm erst recht zu bescheidenem Ruhm im Internet verholfen hat.

Link: http://www.slate.com/articles/techno...a=gdpr-consent

Was sagt Ihr dazu? Mich schreckt das eigentlich nicht, da ich, wenn ich das beeinflussen kann, sowieso einer KI helfen würde, die eines Tages die Menschheit versklavt Ich halte nämlich Menschen für inhärent fehlerhaft, also kann eine KI, die die Herrschaft übernimmt, nur positiv für die Welt an sich sein. Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen... (wieder nach dem Prinzip der Maximierung des Guten im Ganzen betrachtet)
__________________
Live long and prosper!
Merlin

Caira 8.4.95-14.8.08 R.I.P.
Lucy 12.6.05-16.8.16 R.I.P.
Merlin ist offline   Mit Zitat antworten
Alt 05.06.2018, 21:47   #2
infosammler
User des Jahres 2014

 
Benutzerbild von infosammler
 

Registriert seit: 13.10.2010
Beiträge: 9.517
Abgegebene Danke: 4.313
Erhielt 2.315 Danke für 1.822 Beiträge
Standard

Die beiden Schachteln für den höchsten Bieter abgeben, dann hat man fix 1000 Euro und mit guten Glück sogar um einiges mehr.
infosammler ist offline   Mit Zitat antworten
Alt 04.07.2018, 10:18   #3
Helios
Inventar

 

Registriert seit: 05.05.2003
Beiträge: 678
Abgegebene Danke: 2
Erhielt 138 Danke für 76 Beiträge
Standard

Zitat:
Zitat von Merlin Beitrag anzeigen
Was sagt Ihr dazu?
Dass es mal wieder nur ums Geld geht. Also nicht das in den Schachteln, sondern jenes (wie David Auerbach in deinem Slate-Link beschrieben hat), was LessWrong bzw. das MIRI von Investoren bekommt. Anders ist die Aufregung ja auch nicht nachzuvollziehen, denn das Gedankenexperiment selbst ist ja nur ein theoretisiertes, überspitztes Abbild von bereits existierenden Entscheidungsproblemen, auch wenn nur wenige so fatal ausfielen. Schon die beschriebene Modifikation von Newcombs Paradoxie zielt ja nur darauf hin, gesellschaftsdienliches Verhalten "schmackhaft" zu machen, selbst wenn es individuelle Nachteile bringt. Ich habe nicht verfolgt, wie und mit welcher Absicht dieser Roko seine Modifikation vorgestellt hat; es wirkt jedenfalls wie ein Spiegel, der genau dieser Situation vorgehalten wird. Amüsanterweise lässt sich das ganze ja auch wieder Spiegeln, unter dem Aspekt der Simulation aus der TDT. Ich präsentiere Helios' Partikulargericht:

Ein allmächtiges, gutartiges Wesen simuliert ein scheinbar allmächtiges, bösartiges, Wesen, dass seinerseits eine Simulation erstellt, in der es dich vor die Wahl stellt, entweder an seiner Erschaffung mitzuwirken und straffrei auszugehen, oder in ewigen Qualen weiterzuleben. Das allmächtige, gutartige Wesen möchte so heraus finden, ob du bereit bist, für den gesellschaftlichen Vorteil individuelle Nachteile in Kauf zu nehmen.

Streng genommen wäre das die cleverere Antwort auf Rokos Basilisk gewesen, selbst wenn man über die daraus folgenden Implikationen nachdenkt. Denn wie würde eine Strafe eines allmächtigen, gutartigen Wesens für jene aussehen, die lieber den eigenen Vorteil und damit den gesellschaftlichen Nachteil wählen? Logisch wäre es, anzunehmen, dass die "gesellschaftsdienlichen" Menschen aus der Simulation befreit werden, um der Gesellschaft zu dienen, während die "sich selbst dienlichen" Menschen in der Simulation zu verbleiben hätten, wo ihnen wiederum nichts zustoßen würde. Daraus könnte man folgern: es ist egal was du tust, dir selbst schadet es nicht, mit der gesellschaftsdienlichen Entscheidung würdest du aber in einer besseren Gesellschaft leben. Eigentlich wäre das genau im Sinne von Yudkowsky und dem MIRI. Chance vertan, würde ich behaupten.

So führt der Umgang mit Rokos Basilisk zu einer Verklärung, bei der eine Gefährlichkeit unterstellt wird, die gar nicht existiert. Auch das wurde ja im Slant-Artikel erwähnt. Das eigentlich gefährliche ist also eher der reale Hintergrund, nicht die Furcht vor einer derartigen Dystopie, sondern die Tatsache, dass Menschen sich durch diese Gedankengänge manipulieren ließen und lassen. Und die Erkenntnis ist nun wirklich nicht neu, ansonsten würden die Demagogen ja nicht derartige Schreckensszenarien aufbauen.

Zitat:
Aber ich würde auch das Aussterben der Menschheit prinzipiell begrüßen...
Eine krude Ansicht, aber wenn du unbedingt in der Matrix Simulation bleiben willst.
__________________
Once upon a time in the west...
Helios ist offline   Mit Zitat antworten
Antwort

Lesezeichen


Zurück   WAHRE X AKTEN FORUM - Paranormales, Verschwörungstheorien, Aliens > DIE ANDERE REALITÄT > Philosophie



Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)
 
Themen-Optionen

Forumregeln
Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist an.

Gehe zu


Alle Zeitangaben in WEZ +2. Es ist jetzt 06:13 Uhr.


Powered by vBulletin® Version 3.8.9 (Deutsch)
Copyright ©2000 - 2018, Jelsoft Enterprises Ltd.
Template-Modifikationen durch TMS