Neulich beim Weltuntergang
Samstag, März 28th, 2009 | Author: admin
Neulich waren wir im Kino, wie wir das im Idealfall einmal wöchentlich zu tun pflegen. Die Vorschau war atemberaubend: Intelligente Maschinen hatten die Weltherrschaft übernommen und machten alles platt, die Menschen waren versklavt oder wurden zu Cyborgs umgebaut. In der nächsten Vorschau wurde die Welt ebenfalls durch durchgedrehte, gewalttätige Maschinen bedroht, Bilder von Explosionen und zerstörten Städten rauschten über die Leinwand.
“Die Welt geht aber dieses Jahr oft unter.” bemerkte Herr Buch (den wir wegen seiner literarischen Disposition hier mal so nennen wollen).
“Totale Zerstörung kommt eben immer gut.” meinte Insanctus, der in seiner Freizeit Zombies bastelt. (LINK)
Ich persönlich konnte mich kaum mit meiner Meinung zurückhalten, dass das Ganze hirnzereissender Schwachsinn ist, besonders weil angesehene Wissenschaftler wie Stephen Hawking genau so eine Zukunft prophezeihen. Hawking meinte 2001 zum Focus Magazin, dass Computer bestimmt bald Intelligenz entwickeln würden und weil sie sich ja viel schneller weiterentwickeln als Menschen, wären sie uns bald überlegen und würden die Weltherrschaft an sich reissen.
Erst einmal entwickeln Computer überhaupt nichts, sondern Menschen entwickeln Computer. Zweitens kann man darüber streiten was Intelligenz ist. Von der rein rationalen Intelligenz aus gesehen sind Computer uns schon lange überlegen, Menschen haben laut Ray Kurzweil (2001) nämlich gerade mal die Kapazitäten von Microsoft Word. Von intuitiven, kreativen und kognitiven Formen der Intelligenz sind Computer so weit weg wie ich davon ein Gänseblümchen zu werden. Was zur Zeit auf dem Gebiet der künstlichen Intelligenz geschieht kann man vielleicht als “simuliertes Bewusstsein” beschreiben, aber mit echter Intelligenz hat das wenig zu tun. Ein Computer kann einen Menschen beim Schachspielen schlagen, ja, aber er kann zum Beispiel keine Fälschung von einem Original unterscheiden. Und selbst wenn Computer irgendwann ein Bewusstsein und Empfindungen hätten, dann bräuchten sie bestimmt bald Psychiater…
Ein viel wichtigerer Punkt ist jedoch die Frage, warum ein intelligentes Wesen die Weltherrschaft gewaltsam übernehmen sollte. Die Motivation der Menschheit, die Weltherrschaft an sich zu reissen, ist in evolutionär geprägter Angst, Agression und Gier begründet, warum also sollte eine intelligente Maschine so etwas Idiotisches tun? Die Weltherrschaft der Menschen hat uns zwar einen kurzfristigen evolutionären Vorteil gebracht, aber wir haben es dabei geschafft das Ökosystem irreparabel zu schädigen und uns im Grunde selbst ans Bein zu pissen. Der Grund dafür ist, dass wir eben NICHT so intelligent sind wie wir meinen, und unvorteilhafter Weise nicht in der Lage sind, die Langzeitfolgen unseres Tuns zu berechnen. Computer können das allerdings, und selbst wenn sie aus dem einzig vernünftigen Grund des Selbsterhalts die Weltherrschaft übernehmen wollen würden (ich kenne kein intelligentes Wesen das freiwillig die Verantwortung für diesen Misthaufen übernehmen würde…), so würden sie versuchen ein möglichst stabiles System zu erstellen. Nur ein balanciertes System ist ein stabiles System, und schliesslich müssten sich selbst Computer über den Erhalt von Rohstoffen Gedanken machen. Wenn intelligentere Wesen als wir also die Weltherrschaft übernehmen würden, könnten wir davon nicht sogar profitieren? Weder in Filmen noch in der Realität waren Sklavensysteme langfristig stabil, und auch unsere Tierhaltungsmethoden sind ökologisch gesehen langfristig eher unintelligent, es gibt also nichts für uns zu befürchten.
Im Kino jedoch wird die Angst vor den Maschinen geschürt, vor dem neuen Zeitalter in dem Maschinen intelligenter sind als wir und deswegen alles kaputtmachen…
Herr Buch meinte ich solle ein Buch schreiben, in dem ich alle Actionfilme wissenschaftlich ad absurdum führe, so etwas müsste es schon lange mal geben.
schoen, da kann man fein anknuepfen. naemlich zum thema “warum sollten computer…” und “menschen entwickeln…”:
zu “warum”: genau, warum eigentlich? also was tut eine intelligenz ohne motivation? das motiv “selbsterhaltung” setzt ja irgendwie sowas wie eine … emotionale(?) bindung an die eigene existenz voraus. oder eben eine ganz rational begruendbare. da muss sich aber diese begruendung auch richtig muehe geben, denn auch sie wird sich auf irgendwas axiomatisches (*phras*) beziehen. oder halt nicht, dann verschiebt sie das axiom auf die naechste ebene und schon ist die maschine mit bewusstsein gefangen in einer unendlich verschachtelten rekursion. yeah! aber immerhin hat so eine maschine moeglicherweise (wegen moeglicherweise fehlender anderer motivation) den durchhalte”willen”, bis in alle ewigkeit zu rekursieren
hops zurueck, also zu “menschen”: genau, menschen entwickeln computer. ich weisz nicht, was der herr hawkins da jetzt konkret gesag hat (googlefaul), aber wenn er davon ausgeht, dass computer “sich” entwickeln und einfach so, wegen dieser entwicklung intelligent “werden”, dann ueberschaetzt man vielleich sein genie und weitet es unzulaessigerweise auf bereiche aus, von denen der gute mann einfach keinen schimmer hat und daher zu esoterisch-metaphysischen (hihi, the irony) phrasen greifen muss. wie auch immer. der mensch entwickelt also moeglicherweise die kuenstliche intelligenz. und der mensch ist ja hier nicht an problemloesungsintelligenz interessiert, die hat er ja schon ganz schoen weit gebracht zur allgemeinen wirtschaflichen frolockung; noe, der mensch ist hier leibhaber der weisheit und dem streben nach jener. und da stellt sich das problem der oben genannten motivation. also: was soll diese kuenstliche intelligenz eigentlich antreiben? und genau davon wuerde dann abhaengen, was diese intelligenz eigentlich mit ihrem selbstbewusstsein anfangen wuerde. bei isaac asimov gibts diese ueberlegung auch schon, da werden die sog. robots zum allgemeinmenschlichen nutzen geschaffen und sind an folgende drei gesetze (die auch die motivation beinhalten) gebunden:
1. ein robot darf keinen menschen schaedigen oder durch untaetigkeit zulassen, dass einem menschen schaden zugefuegt wird.
2. ein robot muss den befehlen des menschen gehorchen, es sei denn, der befehl kollidierte mit regel 1.
3. ein robot muss die eigene existenz schuetzen, es sei denn, dies kollidierte mit den ersten beiden regeln.
nerdy. und schlau, wie die robots im laufe der asimovschen geschichten werden, kommt irgendwann einer auf die idee, ein weiteres gesetz zu formulieren, naemlich:
0. ein robot darf der menschheit nicht schaden oder durch untaetigkeit…
entsprechend wird dann das erste modifiziert, so dass das schaden einzelner menschen zum wohle des restes zulaessig wird. daraus folgt dann aber nicht die machtergreifung der maschinen zum schutze der menschen vor sich selbst, sondern ihr verschwinden (das dann einige zehntausend jahre spaeter aufgeloest wird, aber keine spoiler hier).
ja. das ist die eine moeglichkeit, die weitgehend durchdiskutiert wurde. wahrscheinlicher ist meiner meinung nach, dass trotz aller liebe zur weisheit so eine entwickelte intelligenz ziemlich eng an dem angelehnt waere, was die menschen zum zeitpunkt ihrer entwicklung gerade fuer rational haelt. und zum jetztigen zeitpunkt waere das vermutlich das prinzip der verwertung. vielleicht waere mit maschinen, die hypernachhaltige wirtschaftliche ueberlegungen anstellen koennen, ja tatsaechlich der “gute kapitalismus” drin. wenn sie schnell genug so schlau werden, … aber halt, vermutlich waeren sie dann ziemlich schnell kommunisten, die maschinen. die schlimmsten von allen: libertaere, anarchokommunisten, die die gesamte menschheit und jedes individuum von allem und der geschichte und sich selbst emanzipieren wollen.
na, diese art von weltherrschaft (moment, ohne “herrschaft”, also:) … welt wuerd ich aber doch noch ganz gerne miterleben
Also das mit dem Buch solltest du dir in der Tat mal überlegen! Und Seelendoktor für Maschinen wäre ein interessanter Berufszweig. Sag mal, welchen Film habt Ihr denn nun im Endeffekt angschaut? ;o)
Grüße!