Jeder macht mal Fehler. So heißt es gerne, wenn man jemanden ermutigen will, nicht aufzugeben oder sich nicht zu sehr selbst zu verurteilen, wenn dieser etwas gemacht hat, das im Nachhinein als falsch angesehen wird. Irren ist menschlich geht in eine ähnliche Richtung.
Und es stimmt natürlich, dass Menschen als biologische Wesen aus und wegen Fehlern entstanden sind, die wir heute als Evolution bezeichnen. Trial and Error eben.
Dieser Mechanismus, die Abweichung vom Bekannten auf die Gefahr hin, etwas falsches zu tun und im schlimmsten Fall daran zugrunde zu gehen, beschränkt sich jedoch nicht auf die Biologie. Der Historiker David Bates beschreibt auch das Phänomen der Aufklärung als eine Methode der Wahrheitssuche, die den Fehler nicht zum Makel, sondern zum Kern der Wissenssuche erklärt: „Error assumed a significant role not just in the definition of knowledge but in the very search for knowledge itself.“ Der Konflikt sei dabei vorprogrammiert gewesen. „The boundaries of error, marked only by the borders of truth itself, were never given in advance. And yet the promise of truth demanded an attempt to forge a path, to cut through established zones of knowledge and interest, despite the lack of any foundational legitimation.“
Wenn schon der moderne Mensch also nur über Fehler sich aus seiner „selbstverschuldeten Unmündigkeit“ heraustesten kann, er also nur durch gelegentliches Versagen – und eben das Lernen daraus – seine Vernunftbegabung unter Beweis stellen kann, wie sollte es da verwundern, dass es bei Algorithmen nicht anders ist?
Die Debatte darum, ob „Künstliche Intelligenz“ nun wirklich intelligent sein könne eines Tages, oder ob sie es in bestimmen Bereichen vielleicht sogar schon ist, wird nicht erst seit den letzten Jahren geführt. Es hilft dabei wohl, immer wieder auf den irreführenden Begriff der „künstlichen Intelligenz“ hinzuweisen, um zumindest ein Grundverständnis dessen zu entwickeln, was der Unterschied ist zwischen menschlicher Intelligenz und dem, was Maschinen tun können (schon Alan Turing präsentierte in den 1950er Jahren seinen berühmten Turing Test als kreative Antwort auf die damals schon gestellte Frage, ob Maschinen denken könnten.)
Matteo Pasquinelli meint dazu: „Technically speaking, it would be more accurate to call Artificial Intelligence machine learning or computational statistics but these terms would have zero marketing appeal for companies, universities and the art market.“ (How a Machine Learns and Fails – a Grammar of Error for Artificial Intelligence, S. 4) Virtuelle Maschinen, wie „Künstliche Intelligenzen“ sinnvollerweise verstanden werden sollten, sind informationsverarbeitende Systeme (Margaret A. Boden: Artificial Intelligence, 2018, S. 3). Sie beschäftigen sich mit dem Erkennen von Mustern. Wenn Maschinen lernen, erstellen sie Statistiken darüber, wie wahrscheinlich es ist, dass der Datensatz, den sie gerade vor sich haben, mit den Klassifikationen anderer Datensätze in ihrem System übereinstimmt. Wenn diese virtuellen Maschinen dabei Fehler machen, also etwa das Bild einer Katze mit der Klassifikation „Hund“ versehen, dann müssen sie darauf hingewiesen werden.
Als „die Fähigkeit, komplexe Ziele zu erreichen“, definiert Max Tegmark Intelligenz. Als komplex mag man die Unterscheidung zwischen Katzen und Hunden, zumindest für uns Menschen, intuitiv nicht bewerten. Aber sie ist eben ein Schritt hin zu jenem Traum, der die Menschheit seit Jahrtausenden umtreibt: der Erweckung toter Materie zu etwas, das uns zumindest genauso vorkommt wie ein homo sapiens.
Alma, die Protagonistin des Films „Ich bin dein Mensch“, muss gleich zu Beginn der Geschichte die Erfahrung machen, dass ein solches Wesen, das ihr in einer Bar voller tanzender und sich unterhaltender Hologramme vorgestellt wird, dieser elegante „Mann“ mit dem dezenten englischen Akzent, den die Wissenschaftlerin in den folgenden Wochen austesten soll, anfällig für Fehler ist. Mitten auf der Tanzfläche, wohin er die zurückhaltende, skeptische Alma bittet, tritt plötzlich eine cartesianische Störung auf, der Roboter ist gefangen in einer Sprachverarbeitungs-Schleife, in der er immer nur wieder die Worte „Ich bin“ wiederholen kann. Mitarbeiter müssen den so in der Sprache Gefangenen schließlich aus dem Raum tragen, um ihn einer Reparatur zu unterziehen, bevor sie ihn mit nach Hause nehmen kann.
Tom, wie die Mensch-Maschine heißt, ist genau auf sie abgestimmt, die sprachliche Varianz kommt etwa daher, dass sie zwar das Fremde, das Andersartige reizt, aber dann auch wieder nicht allzu extrem, ein wenig vertraut soll es trotzdem noch sein: England. Vielleicht auch ein leiser Verweis auf Turing.
Im Auto nach Hause kündigt er selbstbewusst an, dass bald alle Unstimmigkeiten zwischen Alma und ihm ausgeräumt seien. Es komme nur darauf an, dass er genügend Daten über sie sammeln kann, indem er eben ihre Reaktionen bewertet. Die Fehler, die er dabei macht, sind tatsächlich komisch geschrieben. So räumt er in der Nacht ihr chaotisches Wohnzimmer auf und sortiert ihre Bücher schön ordentlich nach Farben. Ihr Gesicht aber versteinert, als er ihr stolz seine Arbeit präsentiert. Sofort erkennt er, dass das wohl nicht gewünscht war und räumt alles in Windeseile zurück in den ursprünglichen Zustand. Nein, das Fenster kann dann doch ruhig sauber bleiben, meint sie noch, bevor sie zur Arbeit abrauscht.
Als Alma ihn während ihrer Arbeit an einem Projekt auf der Museumsinsel, bei dem sie nach Anzeichen von Lyrik in antiken Schrifttafeln sucht – sein Angebot, ihr behilflich zu sein, lehnt sie mit dem Verweis ab, er könne zwar vielleicht in einem Sekundenbruchteil die alten Sprachen erlernen, aber Lyrik erkennen, das sei für ihn doch nicht möglich – in einem Café lässt, damit er ihr nicht auf die Nerven geht, wohnt er einer Szene bei, die er nicht versteht: zwei junge Menschen fallen fast von ihren Stühlen vor Erheiterung über Videos, in denen Menschen scheitern. Fails nennt man das. Die Frau am Platz neben Tom jedenfalls kann es auch nicht so recht erklären, warum das eigentlich so lustig sein soll. Es ist eben einfach komisch.
Der Fehler ist also das Leitmotiv des Films und bestimmt folgerichtig auch den Verlauf der Handlung – wie vielleicht jede spannende oder lustige Storyline immer irgendeine Art von Fehler, von Unregelmäßigkeit enthält, eine Anomalie, die die Geschichte erst auslöst bzw. erzählenswert macht. Almas Plan, Tom im Laufe dieser zwei Wochen genauso kaltherzig zu begegnen wie in den ersten Stunden ihres Kennenlernens und sich auf das Ziel des Tests, nämlich sich in diesen Roboter zu verlieben, der genau dafür entworfen wurde, nicht einzulassen – sie hat schließlich zu arbeiten – geht nicht auf. Sie muss am Ende in einem emotionalen Gespräch mit ihm, das sie als Selbstgespräch erkennt, da er eben kein Mensch ist, feststellen, dass sie in die Falle getappt ist. Dass dieses künstliche Wesen es doch geschafft hat, ihr Innenleben komplett aufzuwühlen. All ihren Plänen zum Trotz hat sie Empathie entwickelt zu Tom. Es tut ihr ernsthaft Leid, als er ihr ruhig erklärt, dass er auseinandergebaut wird, nachdem sie ihn zurück in die Fabrik geschickt hat, weil sie erkennt, dass er ihr Leben durcheinander bringt.
Der Name der Protagonistin ist vielleicht eine Anspielung auf einen der bekanntesten Spielfilme über die „Künstliche Intelligenz“, „Ex machina“ von Alex Garland aus dem Jahr 2015. Darin hängt in dem Zimmer, in dem die vom Protagonisten zu testende Roboter-Frau lebt, ein Gemälde, das Margarethe Stonborough-Wittgenstein zeigt, die Schwester von Ludwig Wittgenstein. Gemalt hat das Werk Gustav Klimt, der eine Zeitlang der Geliebte von Alma Mahler-Werfel war. Der Wittgenstein-Verweis dient in Garlands Film dazu, die Frage aufzuwerfen, was denn eigentlich der Unterschied sei zwischen einer menschlichen, insbesondere kommunikativen Handlung und deren Imitation. Denn Wittgenstein, für den Sprache immer nur als Praxis verstanden werden kann („Der Gebrauch des Wortes in der Praxis ist seine Bedeutung“, „Wir können sagen, dass Denken im wesentlichen eine Tätigkeit des Operierens mit Zeichen ist“), meint, „dass die Person, von der wir sagen ‚Er hat Schmerzen‘, nach den Regeln des [Sprach-]Spiels die Person ist, die schreit, das Gesicht verzerrt etc.“ Wir müssen dem Menschen im Alltag immer irgendwie glauben, dass er tatsächlich Schmerz empfindet, denn wir können außerhalb eines Labors schließlich nicht messen, ob wirklich die Schmerzrezeptoren in seinem Gehirn aktiviert sind.
Wenn also der Roboter die Sprache und alle Kommunikation richtig anwendet, müssten wir ihn dann nicht aufnehmen in unsere Gemeinschaften? Wäre es nicht unethisch, anzusehen, oder etwa ein Kind ansehen zu lassen, wie ein solches Wesen, mit dem wir Empathie empfinden würden, wie Alma es tut, mit dem wir emotionale Verbindungen aufbauen würden – und das eben genau so aussieht wie wir, das ist ein entscheidender Zusatz – verschrottet wird? Wie ihm seine Gliedmaßen entfernt werden und sein Gesicht schmilzt? Aber stünde nicht andererseits einem Missbrauch solcher künstlicher Menschen Tür und Tor offen, die die Rechte eines Menschen bekommen, aber eben zu einem bestimmten Zweck programmiert werden, etwa um ein Verbrechen zu begehen?
„Ich bin dein Mensch“ begegnet diesen Fragen etwa im tatsächlich überaus spannenden Bereich der familiären Beziehungen. Alma hat nämlich vor einigen Jahren im dritten Monat ein Kind verloren. Der Vater, der keiner geworden ist, ein Arbeitskollege von ihr, erwartet im Verlauf des Films mit seiner neuen Partnerin nun wieder ein Kind, was Alma tief trifft, selbst wenn sie sich das natürlich nicht anmerken lassen will. Anders als sie es Tom vorwirft, versteht dieser ihren Schmerz durchaus, wenn er auch nicht gerade sensibel damit umgeht. „Es ist sehr leicht zu verstehen“, erklärt er ihr etwas kalt. Ihr wird klar, dass sie, wenn sie doch noch die Erfahrung machen möchte, ein Kind zur Welt zu bringen, sich nicht auf ein Leben mit Tom einlassen kann. Zumindest nicht ohne künstliche Befruchtung, was für sie aber keine Option zu sein scheint.
Der – wenn auch um einige Ecken angelegte – Verweis auf Alma Mahler kann aber auch in Bezug auf die Frage der „künstlichen Kunst“ gelesen werden, denn Mahler-Werfel, das merkt man ja dem Doppelnamen schon an, war mit gleich mehreren bedeutenden Künstlern des frühen 20. Jahrhunderts verheiratet, neben dem Komponisten Gustav Mahler und dem Dichter Franz Werfel auch mit dem Architekten und Bauhaus-Gründer Walter Gropius. Die Frage ist nicht nur in Almas Ablehnung von Toms Angebot der literaturwissenschaftlichen Hilfeleistung sichtbar, sondern auch in ihrer Reaktion darauf, dass Tom ihr einen Artikel anderer Wissenschaftler mit denselben Ergebnissen zeigt, der bald veröffentlicht werden wird, weshalb ihre eigene Arbeit für sie plötzlich sinnlos scheint. Es ist ein egoistischer Schmerz, muss Tom lernen, der Alma da zum Weinen bringt: zumindest ein Teil ihrer Bemühungen hat mit persönlichem Prestige zu tun. Ist das nicht vielleicht einer der Gründe für die menschliche Kreativität? Dass die oder der Kunstschaffende (oder in diesem Fall -dechiffrierende) auch immer irgendwie einen persönlichen Vorteil daraus zieht? Und könnten Maschinen ein solches Verlangen wirklich „entwickeln“?
Der Robotik-Wissenschaftler Hans Moravec hat für die Veranschaulichung dieses Problems die Metapher der „Landschaft menschlicher Kompetenz“ entwickelt. In dieser sind verschiedene Fähigkeiten an verschiedenen Positionen innerhalb einer Berglandschaft angesiedelt. Weit unten im Tal steht etwa die Arithmetik, etwas höher das Spiel „Go“ und Kunst und Wissenschaft thronen auf den Gipfeln. Die Fortschritte des Maschinenlernens sind in diesem Bild eine Flut, die immer weiter ansteigt. Relativ früh können die virtuellen Maschinen Rechenaufgaben gleich gut bzw. bald schneller lösen als die Menschen. Jahre später folgt der Sieg einer Maschine über einen Menschen im Go, einem der kompliziertesten Spiele überhaupt. Ob das Wasser aber einmal die Gipfel fluten wird, das steht noch nicht fest. Denn dazu gehört eben auch die Frage, ab wann das Werk einer virtuellen Maschine tatsächlich kreativ ist. Ada Lovelace, eine Pionierin auf diesem Feld, die sich diesen Fragen schon im 19. Jahrhundert widmete, hat dazu ein Äquivalent des Turing-Tests entwickelt: sie meinte, dass künstliche Kreativität dann gegeben sei, wenn die Programmierer, die das Werk „in Auftrag gegeben“ haben, nicht verstehen können, wie genau es entstanden ist. Aber es bleibt auch hier die bereits genannte Frage: reicht das Resultat, also in diesem Fall der Genuss des Kunstwerks? Oder gehört für uns Menschen nicht doch immer die Intention dazu; also die Sicherheit darüber, dass der „Künstler“ das eigene Werk doch „verstehen“, also „wertschätzen“ kann? Und wie stellt man das fest, wenn es sich um ein Programm auf einem Rechner handelt?
Gegen Ende des Films begegnet Alma einem Kollegen, der ganz verwandelt ist angesichts der Roboter-Frau an seiner Seite, die er hat testen dürfen, und die er nun zu „behalten“ sich anstrengt (der Aspekt des Besitzes, der im Titel des Films ja auch anklingt, ist ein weiteres Thema des Werks). „Ich bin dein Mensch“ bewahrt sich so eine gewisse Ambivalenz im Blick auf das Phänomen der künstlichen Begleiter von Menschen, die ohne diese unter Einsamkeit leiden würden und das schließlich alles andere als eine Frage der Zukunft ist, denn Care-Roboter insbesondere für alte Menschen existieren ja bereits.
Der intelligente Film, der zu vielerlei Fragen anregt über Vergangenheit, Gegenwart und Zukunft unserer nicht-menschlichen Begleiter, aber auch über die Bedeutung von Fehlern im Mensch-Sein, ist noch bis zum 25. Juni in der ARD Mediathek verfügbar.