Chance oder Bedrohung?

.
Unse­re Abhän­gig­keit von der Com­pu­ter­tech­no­lo­gie nimmt Tag für Tag zu. Nicht alle Mög­lich­kei­ten sind ohne Risi­ko, wir haben in den ver­gan­ge­nen Mona­ten und Jah­ren erlebt, wie z.B. unse­re Pri­vat­sphä­re von der zuneh­men­den Mög­lich­keit der Daten­samm­lung bedroht ist - noch nur durch Algo­rith­men die von Men­schen erdacht sind. 

Das muß aber so nicht blei­ben, denn die For­schung zur Erzeu­gung von soge­nann­ter "Künst­li­cher Intel­li­genz" schrei­ten rasch fort. Irgend­wann wer­den die Maschi­nen sich selbst erzeu­gen und ver­bes­sern - und spä­te­stens dann gerät das außer Kon­trol­le, weil Men­schen nicht so schnell den­ken kön­nen wie Maschinen.

Vor die­sen Gefah­ren warnt Prof. Ste­phen Haw­king, was schon des­we­gen außer­ge­wöhn­lich ist, weil er selbst wegen sei­ner Behin­de­rung schon lan­ge auf Maschi­nen ange­wie­sen ist um sich zu arti­ku­lie­ren. Man soll­te mög­li­cher­wei­se gera­de des­we­gen sei­ne War­nung nicht auf die leich­te Schul­ter nehmen.

Prof. Ste­phen Hawking:
Arti­fi­ci­al Intel­li­gence Could Spell Doom for Humans

Kommentare

  1. Och, da bin ich ent­spannt, was die KI betrifft. Ja, Robo­ter bau­en schon längst Robo­ter und man­che Soft­ware ist mitt­ler­wei­le so gut, dass sie lernt. Aber ob die KI irgend­wann in der Lage sein wird, die Welt­herr­schaft an sich zu rei­ßen, wage ich zu bezweifeln. 

    Nur ein Bei­spiel; unse­re Sprache.

    "Er wink­te dem Mann mit dem Hut." 

    An die­sem Satz wird jede KI noch eine gan­ze Wei­le lang schei­tern. Denn es ist nicht klar, ob der Mann mit sei­nem Hut wink­te oder ob er einem Mann mit einem Hut auf dem Kopf zuwink­te. Spra­che ist kom­plex und kann zwi­schen den Zei­len agie­ren. Es gibt einen Kon­text - oder meh­re­re - und eine mensch­li­che, unter Umstän­den still­schwei­gen­de Ver­ein­ba­rung, wel­cher Kon­text gilt.

    Auch so irra­tio­na­le Din­ge wie Bauch­ge­fühl, Intui­ti­on, Spon­ta­ni­tät, Kre­ai­ti­vi­tät, Angst, Zwei­fel und Ver­zweif­lung, Mut, Wag­hal­sig­keit oder auch Hin­ter­fot­zig­keit sind Din­ge, an der die KI noch lan­ge Zeit schei­tern dürf­te, die uns Men­schen, bei allen mög­li­chen "welt­herr­schaft­li­chen" Bestre­ben der KI, Vor­tei­le ver­schaf­fen würden.

    Inso­fern ist es egal, ob Men­schen lang­sa­mer den­ken als Maschi­nen. Sie wer­den Wege und Stra­te­gien fin­den, an die sich die KI dann auch erst­mal anpas­sen müsste. 

    Der evo­lu­tio­nä­re Kampf für uns Men­schen wür­de zwei­fels­oh­ne här­ter wer­den. Aber wer ihn dann gewin­nen wür­de, Mensch oder Maschi­ne, ist mei­ner Mei­nung nach nicht vorhersehbar.

    1. @ Olaf

      Es stellt sich die Fra­ge, ob die Erbau­er der Robo­ter dies auch so sehen oder ob sie sich damit zufrie­den geben 'so in etwa' dahin gekom­men zu sein. Der Gedan­ke "Erster" zu sein mag die Vor­sicht überwiegen.

      Ich erin­ne­re mich noch dar­an, dass in unse­rer gesam­ten Stra­ße EIN Tele­fon war, da muß­te man noch über ein "Fräu­lein vom Amt" den gewünsch­ten Teil­neh­mer anwäh­len las­sen, die maß­geb­li­che Ent­wick­lung hat dann in den letz­ten zehn Jah­ren statt­ge­fun­den - ein typi­scher Fall von "expo­nen­ti­el­lem Wachs­tum", war­um soll­te das nicht bei Robo­tern genau­so laufen?

  2. @ Olaf: das mit der KI mag stim­men. Aller­dings: wenn der Robo­ter mit gro­ßen Waf­fen aus­ge­stat­tet ist und in Mas­sen her­ge­stellt wird, dann ist es auch egal, ob der Robo­ter Shake­speare ver­steht oder nicht.

  3. @ Olaf: im übri­gen glau­be ich, dass ein halb­wegs intel­li­gen­tes System die Erde nicht end­los mit Bom­ben über­zie­hen wür­de, son­dern es wür­de erst den Groß­teil der Men­schen mit Bom­ben plät­ten und danach ein­fach die Bio­waf­fen­ar­se­na­le plün­dern und alles frei­las­sen, was da so rum­liegt. Damit bekä­men sie dann auch noch den Rest. Damit wäre die Erde ganz schnell ent­völ­kert - bis viel­leicht auf ein paar U-Boo­te. Aber auch die müs­sen irgend­wann mal wie­der an Land um Nach­schub zu holen.

  4. Auch hier gilt: die Dosis macht das Gift. 

    Wird nicht bereits KI in einer gewis­sen Art im Kraft­fahr­zeug ein­ge­setzt? Eine "ler­nen­de" Auto­ma­tik, die sich dem Fahr­ver­hal­ten des Fah­rers anpasst und ent­spre­chend die Schalt­punk­te setzt. Alter Hut, wird man­cher sagen.

    Mei­ne Beden­ken lie­gen dar­in, dass die Ent­wick­ler kei­nen Not-Aus-Schal­ter ein­bau­en, da sie ja ganz klein anfan­gen und er da nicht benö­tigt wird. Suk­zes­si­ve aber wird immer ein wenig ver­bes­sert, addiert, und plötz­lich steht man vor dem Pro­blem, dass man sich selbst über­li­stet hat und nun einen Aus­schal­ter braucht, den aber, im Extrem­fall, die KI nicht mehr zulässt.

    Fort­schritt ist etwas Schö­nes, zwei­fel­los, aber trotz­dem muss nicht jede Erfin­dung gemacht wer­den. Da wird mir Robert Oppen­hei­mer bestimmt zustimmen.

    1. @ Dok­tor Pé

      Es gibt in "sci­ence fic­tion" die­se soge­nann­ten "Robo­ter­ge­set­ze" - das wäre doch ein Ansatz zu wei­te­ren Sicherheitsüberlegungen.
      Wie z.B. in den fol­gen­den Zei­len [Zitat] " .. was ange­sichts des aktu­el­len For­schungs­stands gera­de­zu lächer­lich ist – doch die Dis­kre­panz zwi­schen Rea­li­tät und Fan­ta­sie führt dazu, dass wir die rea­len Risi­ken, die es durch­aus gibt, über­se­hen. Die lie­gen zum Bei­spiel dar­in, dass man uns mit K.I. online leich­ter über­wa­chen und mani­pu­lie­ren kann, auch dar­in, dass wir der Soft­ware Gebie­te über­las­sen, die mei­ner Ansicht nach in den Hän­den von Men­schen blei­ben soll­ten. .. " zu lesen. Das Blog ist auch anson­sten lesenswert.

      Es gilt wohl - wie in ande­ren Berei­chen der Com­pu­te­rei - wach­sam zu blei­ben und zu schau­en, wo uns die hand­lungs­frei­heit von Maschi­nen strei­tig gemacht wird.

  5. Also ist es wahr. Der Mensch ist ein Feh­ler der Natur, der sich selbst berich­ti­gen wird. Oder anders gesagt: Wir sind so intel­li­gent um intel­li­gen­te Maschi­nen bau­en zu kön­nen, aber nicht intel­li­gent genug, um an einen Not­aus­schal­ter zu denken.

    "Fas­zi­nie­rend."

    (Com­man­der Spock)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert