Künstliche Intelligenz und menschliche Intelligenz unterscheiden sich. Frau Professor Simon, welche Unterschiede zwischen beiden Formen der Intelligenz sind bedeutsam und warum?
Simon: Der Begriff der KI ist extrem weit besetzt. Zu Beginn der KI mit den Macy-Konferenzen und mit den Entwicklungen in den 40er und 50er Jahren wollte man menschliche Kognition verstehen, indem man sie simuliert. Es ging darum, wie ein Mensch denkt, und ob ich das menschliche Denken besser verstehen kann, wenn ich das mit einer Maschine nachbauen kann. Heute liegt ein großer Schwerpunkt der KI, auch in der Medizin, auf Methoden des maschinellen Lernens. Dabei geht es darum, durch eine bestimmte Art der statistischen Analyse Muster in großen Datenmengen zu erkennen. Das heißt, obwohl es maschinelles Lernen heißt, geht es hier lediglich um statistische Mustererkennung und nicht um eine maschinelle Kopie menschlicher Lernprozesse. Diese Systeme können dann meist eine Sache sehr gut, aber eben auch nur diese eine Sache. Sie decken in keiner Weise das gesamte Spektrum dessen ab, was wir unter menschlicher Intelligenz fassen.
Wer trägt die Verantwortung, wenn eine KI fehlerhaft ist oder falsch entscheidet?
Bei automatisierten Entscheidungsprozessen, also bei Expertensystemen in der Medizin, wo Software Prognosen erstellt, trägt nicht in letzter Instanz die Software die Verantwortung, sondern die Menschen, die sie entwickelt haben. Ein großes Problem ist allerdings, dass für Programmierer und natürlich erst recht für Anwender nicht klar ist, auf Basis welcher Kriterien das System wie entschieden hat. Die Berechnungen einer Deep-Learning-KI sind so komplex, dass man das nicht mehr nachvollziehen kann.
Weil Software oder Maschinen keine Verantwortung übernehmen können, können das immer nur die Organisationen oder Personen, die hinter der KI stehen. Je nach Kontext muss man unterscheiden, ob das der Hersteller ist oder der Anwender, denn Softwaresysteme können auch durch den Anwender falsch eingesetzt werden oder Dinge lernen, die Schäden verursachen. Wenn etwas schief geht, stellt sich also immer die Frage, ob das im Verantwortungsbereich des Entwicklers oder des Nutzers liegt. Die Verantwortung verschiebt sich nicht von den Menschen zur Technik, sondern nur zwischen verschiedenen menschlichen Akteuren.
Besteht nicht die Gefahr, dass zum Schluss viele verschiedene Menschen die Verantwortung tragen – also der Programmierer der KI, derjenige, der die KI trainiert hat, die Vertreter der Institution, die die KI entwickelt hat – und niemand mehr haftbar gemacht werden kann?
Das ist richtig, und das ist auch ein rechtliches Problem. Es geht ja oft darum, wie die Verantwortung verteilt wird, wenn verschiedene Akteure in verschiedenem Ausmaß an etwas beteiligt waren. Das ist kein komplett neues Problem. Auch in anderen Situationen, an denen viele Menschen beteiligt sind, muss man herausfinden, wer einen Schaden verursacht hat. Wenn unterschiedliche Leute handeln, tragen sie auch Verantwortung und in Gerichtsverfahren wird festgestellt werden, wer in welchem Maß verantwortlich und damit auch haftbar ist.
Wäre nicht der eigentliche Handlungsurheber für die Handlungen der KI derjenige, der den Auftrag erteilt hat, diese zu entwickeln und müsste nicht er die Verantwortung für ihre Entscheidungen allein tragen?
Ja, absolut, wenn Sie die KI selber entwickelt haben. Aber nehmen Sie an, Sie kaufen eine KI-
basierte Software von einer Firma und diese wird dann auf Ihren Daten und in Ihrem Unternehmen weiter trainiert. In diesem Fall wird festzustellen sein, ob das Problem bereits in dem von Ihnen gekauften Softwarepaket angelegt war oder ob die Probleme erst durch Ihren Einsatz entstanden sind. Wenn Sie aber die KI selber entwickeln und einsetzen, dann fällt die Verantwortung bei Ihnen zusammen.
Was unterscheidet Denken und Intelligenz?
Das ist eine Frage der Definition. Ich bin auch Psychologin und in der Psychologie gibt es die Redensart, dass Intelligenz das ist, was der Intelligenztest misst. Da gibt es einerseits Sprachkompetenz, mathematisches Denken, logisches Denken, man kann aber auch körperliche Fertigkeiten, wie Geschicklichkeit, unter Intelligenz fassen. Das hängt davon ab, wie breit ich dieses Spektrum aufmache. Auf der einen Seite verstehen wir unter Denken oft etwas, das in unserem Kopf geschieht, wir trennen es zum Beispiel vom Sprechen. Andererseits hängen Denken und Sprechen - oder auch Schreiben stark zusammen: Manchmal wird einem ja durch Sprechen oder Schreiben etwas klarer. Ich denke, die beiden Begriffe haben je nach Verwendungskontext Überlappungen, aber eben auch unterschiedliche Konnotationen.
Es gibt den Standpunkt, dass Denken nichts weiter sei als die Fähigkeit, Aufgaben nach Algorithmen abzuarbeiten. Daher sei Denken nicht an ein Gehirn gebunden und auch eine Maschine könne denken. Was halten Sie davon?
In den frühen Phasen der KI ging es darum, menschliches Denken zu verstehen, indem man es künstlich mit einer Maschine simuliert. Natürlich steckt da die Idee hinter, etwas ähnliches wie menschliches Denken mit einer Maschine nachzubauen. Das beinhaltet eine implizite Gleichsetzung. Aber natürlich macht es einen Unterschied, ob Denken in einem physischen Gehirn stattfindet. Wenn ich etwas mit meinem physischen Gehirn übersetzte, funktioniert das anders, als wenn eine Übersetzungssoftware einen Text übersetzt, die Prozesse unterscheiden sich. Nichtsdestotrotz sind bestimmte Funktionen des Denkens, wie z.B das Gedächtnis, sehr ähnlich zu technischen Funktionen. Eine Information kann ich auf der Festplatte oder im Gedächtnis „gespeichert“ haben, aber auch wenn wir in beiden Fällen von „abspeichern“ reden, bedeutet das nicht, dass die Prozesse die gleichen sind.
Interview: Roland Müller-Waldeck