.
Unsere Abhängigkeit von der Computertechnologie nimmt Tag für Tag zu. Nicht alle Möglichkeiten sind ohne Risiko, wir haben in den vergangenen Monaten und Jahren erlebt, wie z.B. unsere Privatsphäre von der zunehmenden Möglichkeit der Datensammlung bedroht ist - noch nur durch Algorithmen die von Menschen erdacht sind.
Das muß aber so nicht bleiben, denn die Forschung zur Erzeugung von sogenannter "Künstlicher Intelligenz" schreiten rasch fort. Irgendwann werden die Maschinen sich selbst erzeugen und verbessern - und spätestens dann gerät das außer Kontrolle, weil Menschen nicht so schnell denken können wie Maschinen.
Vor diesen Gefahren warnt Prof. Stephen Hawking, was schon deswegen außergewöhnlich ist, weil er selbst wegen seiner Behinderung schon lange auf Maschinen angewiesen ist um sich zu artikulieren. Man sollte möglicherweise gerade deswegen seine Warnung nicht auf die leichte Schulter nehmen.
Prof. Stephen Hawking:
Artificial Intelligence Could Spell Doom for Humans
Och, da bin ich entspannt, was die KI betrifft. Ja, Roboter bauen schon längst Roboter und manche Software ist mittlerweile so gut, dass sie lernt. Aber ob die KI irgendwann in der Lage sein wird, die Weltherrschaft an sich zu reißen, wage ich zu bezweifeln.
Nur ein Beispiel; unsere Sprache.
"Er winkte dem Mann mit dem Hut."
An diesem Satz wird jede KI noch eine ganze Weile lang scheitern. Denn es ist nicht klar, ob der Mann mit seinem Hut winkte oder ob er einem Mann mit einem Hut auf dem Kopf zuwinkte. Sprache ist komplex und kann zwischen den Zeilen agieren. Es gibt einen Kontext - oder mehrere - und eine menschliche, unter Umständen stillschweigende Vereinbarung, welcher Kontext gilt.
Auch so irrationale Dinge wie Bauchgefühl, Intuition, Spontanität, Kreaitivität, Angst, Zweifel und Verzweiflung, Mut, Waghalsigkeit oder auch Hinterfotzigkeit sind Dinge, an der die KI noch lange Zeit scheitern dürfte, die uns Menschen, bei allen möglichen "weltherrschaftlichen" Bestreben der KI, Vorteile verschaffen würden.
Insofern ist es egal, ob Menschen langsamer denken als Maschinen. Sie werden Wege und Strategien finden, an die sich die KI dann auch erstmal anpassen müsste.
Der evolutionäre Kampf für uns Menschen würde zweifelsohne härter werden. Aber wer ihn dann gewinnen würde, Mensch oder Maschine, ist meiner Meinung nach nicht vorhersehbar.
@ Olaf
Es stellt sich die Frage, ob die Erbauer der Roboter dies auch so sehen oder ob sie sich damit zufrieden geben 'so in etwa' dahin gekommen zu sein. Der Gedanke "Erster" zu sein mag die Vorsicht überwiegen.
Ich erinnere mich noch daran, dass in unserer gesamten Straße EIN Telefon war, da mußte man noch über ein "Fräulein vom Amt" den gewünschten Teilnehmer anwählen lassen, die maßgebliche Entwicklung hat dann in den letzten zehn Jahren stattgefunden - ein typischer Fall von "exponentiellem Wachstum", warum sollte das nicht bei Robotern genauso laufen?
@ Olaf: das mit der KI mag stimmen. Allerdings: wenn der Roboter mit großen Waffen ausgestattet ist und in Massen hergestellt wird, dann ist es auch egal, ob der Roboter Shakespeare versteht oder nicht.
@ Doctor Snuggles: *lach* da ist was dran. Das einzige, was mir dazu einfällt ist:
wir haben doch Arni... ;o)
@ Olaf: im übrigen glaube ich, dass ein halbwegs intelligentes System die Erde nicht endlos mit Bomben überziehen würde, sondern es würde erst den Großteil der Menschen mit Bomben plätten und danach einfach die Biowaffenarsenale plündern und alles freilassen, was da so rumliegt. Damit bekämen sie dann auch noch den Rest. Damit wäre die Erde ganz schnell entvölkert - bis vielleicht auf ein paar U-Boote. Aber auch die müssen irgendwann mal wieder an Land um Nachschub zu holen.
Auch hier gilt: die Dosis macht das Gift.
Wird nicht bereits KI in einer gewissen Art im Kraftfahrzeug eingesetzt? Eine "lernende" Automatik, die sich dem Fahrverhalten des Fahrers anpasst und entsprechend die Schaltpunkte setzt. Alter Hut, wird mancher sagen.
Meine Bedenken liegen darin, dass die Entwickler keinen Not-Aus-Schalter einbauen, da sie ja ganz klein anfangen und er da nicht benötigt wird. Sukzessive aber wird immer ein wenig verbessert, addiert, und plötzlich steht man vor dem Problem, dass man sich selbst überlistet hat und nun einen Ausschalter braucht, den aber, im Extremfall, die KI nicht mehr zulässt.
Fortschritt ist etwas Schönes, zweifellos, aber trotzdem muss nicht jede Erfindung gemacht werden. Da wird mir Robert Oppenheimer bestimmt zustimmen.
@ Doktor Pé
Es gibt in "science fiction" diese sogenannten "Robotergesetze" - das wäre doch ein Ansatz zu weiteren Sicherheitsüberlegungen.
Wie z.B. in den folgenden Zeilen [Zitat] " .. was angesichts des aktuellen Forschungsstands geradezu lächerlich ist – doch die Diskrepanz zwischen Realität und Fantasie führt dazu, dass wir die realen Risiken, die es durchaus gibt, übersehen. Die liegen zum Beispiel darin, dass man uns mit K.I. online leichter überwachen und manipulieren kann, auch darin, dass wir der Software Gebiete überlassen, die meiner Ansicht nach in den Händen von Menschen bleiben sollten. .. " zu lesen. Das Blog ist auch ansonsten lesenswert.
Es gilt wohl - wie in anderen Bereichen der Computerei - wachsam zu bleiben und zu schauen, wo uns die handlungsfreiheit von Maschinen streitig gemacht wird.
Also ist es wahr. Der Mensch ist ein Fehler der Natur, der sich selbst berichtigen wird. Oder anders gesagt: Wir sind so intelligent um intelligente Maschinen bauen zu können, aber nicht intelligent genug, um an einen Notausschalter zu denken.
"Faszinierend."
(Commander Spock)