Was ist Bewusstsein?
Kann eine Maschine wirklich denken?
Besteht der Verstand nur
aus Neuronen im Gehirn
oder ist ein unfassbarer Funke
der Kern der Intelligenz?
Für viele sind diese
Überlegungen ausschlaggebend
für die Zukunft
der künstlichen Intelligenz.
Der britische Informatiker Alan Turing
entschied sich jedoch gegen diese Fragen
und stellte eine viel einfachere:
Kann ein Computer sich
unterhalten wie ein Mensch?
Diese Frage führte zu der Idee,
künstliche Intelligenz zu messen,
die als der Turing-Test
bekannt werden sollte.
In seiner Arbeit "Computer
und Intelligenz" von 1950
schlug Turing das folgende Spiel vor.
Ein menschlicher Richter unterhält sich
schriftlich mit unsichtbaren Spielern
und bewertet ihre Reaktionen.
Um den Test zu bestehen, muss
ein Computer einen der Spieler ersetzen,
ohne die Ergebnisse
wesentlich zu verändern.
Ein Computer gilt also als intelligent,
wenn dessen Unterhaltung sich schwer von
der eines Menschen unterscheiden lässt.
Turing sagte voraus, dass im Jahr 2000
Maschinen mit 100-MB-Speicher
seinen Test ohne Probleme bestehen würden.
Das war vielleicht etwas voreilig.
Die heutigen Computer verfügen
zwar über weit mehr Speicher,
aber es ist nur wenigen gelungen,
und die erfolgreichen Computer
konzentrierten sich eher darauf,
die Richter auf schlaue Art zu täuschen,
als ihre überwältigende
Rechenleistung einzusetzen.
Das erste Programm,
das als erfolgreich gelten könnte,
hieß ELIZA; es wurde allerdings
nie wirklich getestet.
Es täuschte mit einem relativ
einfachen Programm viele Tester,
indem es einen Psychologen nachahmte,
der sie ermutigte, mehr zu erzählen
und der ihre eigenen Fragen
an sie zurück stellte.
Ein weiteres frühes Programm, PARRY,
verfolgte den umgekehrten Ansatz,
indem es einen paranoid
Schizophrenen imitierte,
der das Gespräch immer wieder
auf seine programmierten Manien lenkte.
Diese Erfolge beim Täuschen der Tester
hob eine Schwäche des Tests hervor.
Menschen halten immer wieder
viele Dinge für intelligent,
die eigentlich nicht intelligent sind.
Trotzdem haben jährliche Wettbewerbe
wie der Loebner-Preis
den Test formaler gemacht:
Die Richter wissen vorher,
dass einige der Gesprächspartner
Maschinen sein werden.
Aber auch wenn sich
die Qualität verbessert hat,
nutzen viele Chatbot-Programmierer
ähnliche Strategien wie ELIZA und PARRY.
Catherine, der Gewinner von 1997,
konnte beeindruckend konzentrierte
und intelligente Gespräche führen,
allerdings vor allem dann,
wenn es um Bill Clinton ging.
Der aktuellere Gewinner Eugene Goostman
war als 13-jähriger Junge
aus der Ukraine konzipiert,
sodass die Richter seine unlogische
und ungeschickte Grammatik
als sprachliche und
kulturelle Unterschiede deuteten.
Andere Programme wie Cleverbot
nutzen derweil einen anderen Ansatz,
indem sie riesige Datenbanken mit
echten Gesprächen statistisch auswerten,
um die beste Antwort zu ermitteln.
Manche speichern auch
frühere Unterhaltungen,
um sich mit der Zeit zu verbessern.
Aber während einzelne Antworten von
Cleverbot sehr menschlich klingen mögen,
sind die uneinheitliche Persönlichkeit
und seine Unfähigkeit,
mit neuen Themen umzugehen,
sehr verräterisch.
Wer hätte zu Turings Zeiten vorhergesehen,
dass die heutigen Computer
Raumschiffe steuern,
komplizierte Operationen durchführen
und riesige Gleichungen lösen können,
aber immer noch am einfachsten
Smalltalk scheitern?
Die menschliche Sprache hat sich
als extrem komplex herausgestellt,
und nicht einmal das größte Wörterbuch
kann sie vollständig erfassen.
Chatbots können durch
einfache Pausen wie "ähm..."
oder Fragen ohne korrekte
Antwort verwirrt werden.
Einfache Alltagssätze wie
"Ich habe den Saft aus dem Kühlschrank
genommen und ihn ihm gegeben,
aber vergessen, nach dem Datum zu sehen"
verlangen viel Hintergrundwissen
und Intuition, um sie richtig zu deuten.
Um eine menschliche
Unterhaltung zu simulieren,
ist also mehr nötig als mehr
Speicher und Rechenleistung,
und während wir uns Turings Ziel nähern,
müssen wir uns vielleicht doch die großen
Fragen nach dem Bewusstsein stellen.