Alan Turing hatte unrecht

Die Diskussion über die Frage, ob, wann und wie "starke künstliche Intelligenz" entstehen kann und wird, ist vor allem von sehr unterschiedlichen Vorstellungen darüber geprägt, was "Intelligenz" eigentlich ist. Eine Definition hat der geniale Mathematiker Alan Turing versucht, indem er den nach ihm benannten Turing-Test beschrieb: Eine Testperson unterhält sich über eine Tastatur mit zwei Kandidaten. Der eine ist ein Mensch, der andere ein Computer. Die Testperson kann beiden beliebige Fragen stellen, kann jedoch nicht sehen, welche Antwort von wem stammt. Wenn diese Person nicht mehr in der Lage ist, zwischen Mensch und Computer zu unterscheiden, dann ist dieser "intelligent".

 

So sehr ich Alan Turing bewundere, halte ich diesen Test persönlich für wenig hilfreich. Einerseits ist es bereits heute relativ leicht, mit bestehender Technik so genannte Chatbots so zu gestalten, dass Laien glauben, sich mit einem Menschen zu unterhalten. Ist die Testperson ein Computerwissenschaftler, wird es deutlich schwieriger. Ein Gremium aus Personen unterschiedlicher Fachgebiete ist noch schwerer aufs Glatteis zu führen. Das aber bedeutet, dass der Turing-Test nicht (nur) die Intelligenz und das Wissen der Maschine misst, sondern (auch) die der Testperson(en). Somit lässt sich mit dem Turing-Test die Intelligenz des angeschlossenen Computersystems niemals schlüssig beweisen.

 

Das größere Problem seines Vorschlags liegt aber darin, dass er "Intelligenz" aus einer sehr anthropozentrischen Sicht definiert: Der Computer ist dann intelligent, wenn er sich möglichst genauso verhält, wie ein Mensch dies täte. Diesen Kardinalfehler, alles nur aus unserer eigenen Perspektive zu bewerten, begehen wir immer wieder. Die Intelligenz von Tieren, besonders Menschenaffen, wurde lange unterschätzt, weil diese nicht sprechen können. Erst, als man begann, Gorillas und Schimpansen Gebärdensprache beizubringen, stellte man fest, dass sich Menschenaffen sehr wohl "unterhalten" können, ein Ich-Bewusstsein und offenbar sogar Humor haben.

 

Nichtmenschliche Intelligenz könnte sich völlig anders äußern als darin, in einer Konversation möglichst "menschlich" zu wirken. Im Gegenteil würde eine wirkliche "Superintelligenz" in einem Turingtest sofort durchfallen, weil leicht erkennbar wäre, dass sie Probleme sehr viel schneller und besser lösen kann als ein Mensch. Es gibt daher verschiedene Varianten des Turing-Tests, die versuchen, diese Probleme zu umgehen.

 

Der entscheidende Punkt ist meines Erachtens aber, dass "echte Intelligenz" nicht mit "Denken wie ein Mensch" gleichgesetzt werden darf. Maschinen werden niemals so denken wie wir. Das wäre auch völlig unnütz, denn damit würden sie nur Beschränkungen unterliegen, die ihnen nicht beim Lösen ihrer Aufgaben helfen. Zum Beispiel prägt unser menschlicher Körper unser Lernen und Denken sehr stark - man kann nur wirklich wie ein Mensch denken, wenn man auch einen menschlichen Körper mit all seinen Stärken und Schwächen besitzt. Zwar ließe sich das im Computer simulieren, doch der Nutzen, KI derart zu "vermenschlichen", ist zweifelhaft. Maschinen müssen Aufgaben lösen, nicht Menschen imitieren (es sei denn als so gennante NPCs in Computerspielen).

 

Deshalb scheint mir ein allgemeinerer Intelligenzbegriff sinnvoller zu sein, um die Frage, wann Maschinen "intelligent" sind, zu beantworten. Ich schließe mich jenen Wissenschaftlern an, die die Qualität "Intelligenz" mit der Fähigkeit gleichsetzen, komplexe Aufgaben zu lösen beziehungsweise "sinnvolle" Entscheidungen zu treffen. Dies impliziert, das Maschinen in entsprechend eng definierten Aufgabenbereichen bereits heute "intelligent" sind. Ein Schachcomputer spielt nicht auf dieselbe Weise Schach wie ein Mensch, er "denkt" nicht wie ein Schachspieler. Aber er ist in der Lage, eine komplexe Aufgabe zu lösen, die kein anderes Lebewesen außer dem Menschen lösen kann. Deswegen würde ich ihm in diesem Spezialgebiet die Qualität "Spezialintelligenz" zugestehen, gern mit einem qualifizierenden Zusatz, wie etwa "Schachspiel-Spezialintelligenz". Entsprechend sind ein selbststeuerndes Auto, ein Börsenhandelssystem und sogar ein Navigationssystem in ihren engen Grenzen "spezialintelligent", denn sie können jeweils eine bestimmte Aufgabe besser lösen als der beste Mensch.

 

Die spannende Frage ist, ob man die jeweiligen Fähigkeiten solcher "spezialintelligenten" Systeme so erweitern kann, dass ein "allgemeinintelligentes" System entsteht. Dies wäre ein System, das nicht nur wenige eng definierte Aufgaben, sondern ein breites Spektrum von Problemen lösen kann. Dabei gilt: Je mehr unterschiedliche Aufgabenbereiche abgedeckt sind, desto "allgemeinintelligenter" ist das System, wobei für jedes einzelne Aufgabengebiet der Anspruch besteht, dass die Aufgabe mindestens so gut gelöst werden muss wie ein Durchschnittsmensch dies könnte. Beispiele für unterschiedliche Aufgabengebiete sind Autofahren, Gesichter erkennen, allgemeine und spezifische Fragen beantworten, sich sicher in einem Raum bewegen, Gefahrensituationen erkennen etc. Für jede dieser genannten Spezialaufgaben gibt es bereits spezialintelligente Systeme. Kann daraus ein "allgemeinintelligentes" System werden, das irgendwann nahezu alle Probleme besser löst als wir Menschen?

 

Ich glaube ja, und ich vermute, wie im vorigen Beitrag beschrieben, dass das vielleicht schneller passieren wird als viele glauben. Ein Kern eines solchen Systems könnte ein "multispezialintelligentes" System wie etwa Google sein. Die Google-Suchmaschine kann nicht nur Wisssen strukturieren und auf Webseiten verweisen, die Antworten auf Fragen liefern könnten, sondern "versteht" auch viele Eingaben und liefert direkt passende Antworten. Mit den integrierten Funktionen wie Google Maps, Google Bildersuche oder Google Translate verknüpt Google bereits eine ganze Reihe von künstlichen Spezialintelligenzen. Das ist von "starker" KI, die sich auf sehr breite Themenspektren anwenden lässt, immer noch weit entfernt. Aber die Fortschritte auf diesem Gebiet sind rasant, wie ich bereits darzulegen versucht habe.

 

Kann also Google irgendwann "denken"? Das hängt davon ab, wie man den Begriff "denken" definiert. Den Turing-Test wird Google wahrscheinlich niemals bestehen. Aber darauf kommt es auch gar nicht an.

Kommentar schreiben

Kommentare: 10
  • #1

    Ben (Sonntag, 20 Dezember 2015 23:13)

    Hallo Karl,

    wiese schreibst Du:
    "Das größere Problem seines Vorschlags liegt aber darin, dass er "Intelligenz" aus einer sehr anthropozentrischen Sicht definiert: Der Computer ist dann intelligent, wenn er sich möglichst genauso verhält, wie ein Mensch dies täte. "

    Deine zum Turing-Test genannte Quelle Wikipedia schreibt doch im ersten Satz schon:
    "Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat."

    Da steht doch nix von Intelligenz.
    Warum schiebst du Turing den Kardinalfehler "anthropozentrisch" unter? Hat er doch nicht verdient. Das viele Menschen diesen Fehler machen, bestreite ich nicht. Aber so ist's mir ein wenig zu reißerisch.

    Ben

  • #2

    Karl Olsberg (Montag, 21 Dezember 2015 19:40)

    @Ben: Zugegebenermaßen ist es gewagt und etwas provozierend, ein Genie wie Alan Turing des Irrtums zu bezichtigen. Aber wenn man einen Test so definiert, dass er dann bestanden wird, wenn man das Testsubjekt nicht von einem Menschen unterscheiden kann, dann ist das eindeutig anthropozentrisch. Vermutlich war sich Turing dessen durchaus bewusst, und er hat dies nicht als universalen Intelligenztest verstanden. D.h. er war vermutlich der Meinung, dass alle Maschinen, die den Test bestehen, intelligent sein müssen, aber nicht alle intelligenten Maschinen den Test zwingend bestehen müssen.

    Tatsache bleibt, dass dieser Test wie oben beschrieben nur eine Verhaltensähnlichkeit der Maschine zum Menschen misst und eben nicht "Denkvermögen", wie auch immer das definiert ist. Jeder intelligente Alien würde beim Turing-Test garantiert durchfallen.

  • #3

    Ben (Montag, 21 Dezember 2015 22:02)

    Hallo Karl,

    Du wirfst da Sachen zusammen, die hier nicht zusammen gehören. Du schreibst:
    "Aber wenn man einen Test so definiert, dass er dann bestanden wird, wenn man das Testsubjekt nicht von einem Menschen unterscheiden kann, dann ist das eindeutig anthropozentrisch."

    Turing ging es imho aber nicht um Testsubjekte im allgemeinen. Also eben auch nicht um einen allgemeinen Intelligenztest.
    Die Seite http://www.turing.org.uk/scrapbook/test.html schreibt dazu:
    "Turing argued that if the interrogator could not distinguish them by questioning, then it would be unreasonable not to call the computer intelligent,..."
    Auch, und gerade wenn, du berücksichtigst, dass Turing aus der "Computerecke" kommt, liegt - zumindest für mich - nahe, dass es eben genau um die Beurteilung geht, wann ein Computer als intelligent anzusehen ist.

    Du schreibst weiter:
    "Tatsache bleibt, dass dieser Test wie oben beschrieben nur eine Verhaltensähnlichkeit der Maschine zum Menschen misst und eben nicht "Denkvermögen", wie auch immer das definiert ist."
    Bei der ersten Aussage stimme ich dir hier zu. Wenn Du jedoch mal schaust, welchen "Versuchsaufbau" Turing original vorgeschlagen hat ("party game", s. z.B. hier https://en.wikipedia.org/wiki/Turing_test#Versions_of_the_Turing_test), wird imho auch Denkvermögen gefordert. Besonders erhellend fand ich dazu in dieser Quelle den Abschnitt "Emphasis on emotional and aesthetic intelligence"

    Dein letzter Satz verführt beim ersten flüchtigen Lesen zur Zustimmung. Wenn ich jedoch nur ein kleines bisschen länger drüber nachdenke, muss ich fragen: Warum sollte das so sein? Auf welcher Grundlage behauptest du das? Warum sollte ein intelligerter Alien uns Menschen nicht verstehen? Wir verstehen beispielsweise doch auch - zumindest teilweise - das Verhalten anderer Kulturen oder von Tieren.

    Bin gespannt auf Deine Antwort...

    Ben

  • #4

    Karl Olsberg (Dienstag, 22 Dezember 2015 10:21)

    @Ben: Ich sehe keinen Widerspruch zwischen meinem Beitrag/Kommentar und der Aussage, dass der Turing-Test als Intelligenztest angelegt ist. Ich stimme Turing insoweit zu, als ein Computer, der den Turing-Test besteht, als intelligent anzusehen sein muss, sofern die Tester hinreichend gut testen (das ist ein Problem dieses Ansatzes, wie oben beschrieben). Aber er misst eben nur diese eine Form von Intelligenz - so zu denken wie ein Mensch. Typischerweise bestehen Computer leichter einen Turing-Test, wenn sie Fehler machen, sich unklar ausdrücken und "nichtmenschliche Leistungsfähigkeit" - zum Beispiel extrem schnelles Antworten - vermeiden. Das bedeutet, eine echte Superintelligenz müsste sich bewusst "dumm stellen", um den Test zu bestehen. Selbst ein Alien, der uns gut versteht, hätte Schwierigkeiten, als "Mensch" durchzugehen - ein paar geschickte Fragen würden ihn schnell als Nichtmensch entlarven, egal wie intelligent er ist (es sei denn, er betrügt). Das ist das Problem mit diesem Test: Man besteht ihn nur, wenn man "so denkt wie ein Mensch", aber nicht, wenn man anders oder zum Beispiel wesentlich "besser" denkt als ein Mensch. Denn dann wäre der Computer oder Alien ja leicht als solcher zu identifizieren. Anders formuliert: Bloß weil ein Testsubjekt auf die Frage "Wie duftet eine Rose?" möglicherweise nicht sinnvoll antwortet, heißt das noch lange nicht, dass es nicht intelligent ist.

  • #5

    Ben (Mittwoch, 23 Dezember 2015 00:55)

    Hallo Karl,

    okay, vielleicht können wir uns ja einigen.
    Ich stimme dir zu, wenn Du sagst, der Turing Test ist nicht, oder zumindest nur bedingt, geeignet um Intelligenz festzustellen.
    Und du stimmst mir zu, dass Turing einen Test entworfen hat, "um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat".

    Was hälst Du davon? Dann sind wir uns nur noch uneinig, ob Turing damals einen Intelligenztest entwerfen wollte. Was ich, zumindest soweit ich bislang herausfinden konnte, nicht annehme.

    Ben

  • #6

    Karl Olsberg (Mittwoch, 23 Dezember 2015 10:02)

    @Ben: Da sind wir uns einig!

  • #7

    Till (Mittwoch, 23 Dezember 2015 19:31)

    Nachfrage:
    Die Maschine, die den Turing-Test besteht, zeigt doch eigentlich nicht, wie Menschen-ähnlich etwas ist, sondern wie Menschen-ähnlich es scheint, richtig? Und diese Täuschungsfähigkeit, menschliches Denkvermögen zu immitieren (=Spezialintelligenz?), nennt er intelligent.
    Ich wollte da deshalb noch mal nachhaken, weil Mensch-Immitations-Fähigkeit = intelligent weniger Antropozentrisch ist, als Menschen-Ähnlichkeit = intelligent. Immerhin handelt es sich bei dem Immitieren von Denkfehlern, Denkzeit usw. um nichts weiter, als eine komplexe Aufgabe.

  • #8

    Karl Olsberg (Donnerstag, 24 Dezember 2015 10:09)

    @Till: Das stimmt im Prinzip, wobei die Täuschungstricks an sich keine Intelligenz voraussetzen, bestenfalls Intelligenz beim Programmierer. Aber eine Maschine, die den Turing-Test gewinnt, weil sie überzeugend vortäuschen kann, ein Mensch zu sein, müsste zumindest nach Turings Definition intelligent sein. Ich glaube allerdings nicht, dass Turing es so gemeint hat. Es bleibt das Problem, dass offensichtlich nichtmenschliche Intelligenz beim Turing-Test durchfallen würde, falls sie eben nicht versucht, "zu betrügen", oder dazu nicht in der Lage ist.

    Wenn der Turing-Test ausschließlich auf Chinesisch durchgeführt würde, würde ich auch durchfallen. Das hat Turing zwar nicht so spezifiziert, aber im Prinzip wäre der Versuch eines Aliens oder eines superintelligenten Computers, "wie ein Mensch zu erscheinen", vergleichbar mit meinem Versuch, wie ein Chinese zu erscheinen. Wenn ich Chinesisch lerne, gelingt mir das vielleicht. Wenn nicht, falle ich durch, bin aber deswegen trotzdem nicht weniger intelligent.

  • #9

    Ben (Montag, 28 Dezember 2015 01:44)

    Hallo Karl,

    du sagst:
    "Aber eine Maschine, die den Turing-Test gewinnt, weil sie überzeugend vortäuschen kann, ein Mensch zu sein, müsste zumindest nach Turings Definition intelligent sein."
    Und zweifelst an, dass Turing das so gemein hat.

    Warum hast du da Zweifel? Es gibt doch Quellen (s. Beitrag #3), die genau das bestätigen:
    "Turing argued that if the interrogator could not distinguish them by questioning, then it would be unreasonable not to call the computer intelligent,..."

    Ich verstehe auch nicht warum du von "betrügen" schreibst. Das ist so negativ besetzt. Ist "immitieren" für dich nicht okay? Darum ging es Turing doch: um die Immitation menschlichen Verhaltens.

    Deinen Vergleich mit dem Chinesisch Lernen find ich gut und passend.
    Übertragen auf dieses Beispiel würde ich sagen:
    Wenn Du es schaffst, Chinesisch zu lernen und wie ein Chinese zu erscheinen, bist du sicher als intelligent anzusehen. Wie es um deine Intelligenz steht, wenn Du es nicht schaffst, bleibt offen. (Nicht dass ich deine Intelligenz anzweifele.)

    Imho war genau das Turings Intention: Ein Kriterium zu haben, das - wenn erfüllt - aussagt: Hier ist Intelligenz vorhanden. Und - wenn nicht erfüllt - eben (leider) offen lassen muss, ob Intelligenz vorhanden ist.

    Ben

  • #10

    Karl Olsberg (Montag, 28 Dezember 2015 11:56)

    @Ben: Ich glaube, wir sind uns weitgehend einig. Mein Zweifel an Turings Intention bezog sich nur auf das absichtliche Täuschen der Maschine für den Turing-Test. Ich glaube, er hat es so gemeint, dass eine Maschine eine Frage ebenso beantworten würde wie ein Mensch, weil sie eben genauso bzw. so ähnlich denkt, und nicht, weil sie so tun will, als sei sie ein Mensch. Aber das ist eine Spitzfindigkeit. Ich stimme dir zu: Ein bestandener Turing-Test ist ein starkes Indiz für Intelligenz, ein nicht bestandener dagegen nicht notwendigerweise ein Indiz für Nicht-Intelligenz. (Übrigens fallen in praktischen Turing-Tests auch Menschen gelegentlich durch und werden für Maschinen gehalten ;).