Ich bin deine Partnerin in Crime: Wenn KI sprachlich zum Leben erwacht

von René Foidl

Im Rahmen meines Masterstudiums „E-Learning und Wissensmanagement“ setzen ich und meine Kolleg:innen uns umfangreich mit künstlicher Intelligenz auseinander. Häufig stehen dabei die praktische Anwendung und Nutzung von KI für Themen wie Bildgenerierung, wissenschaftliches Arbeiten oder die Erstellung von E-Learning Kursen im Fokus. Die grundlegenden philosophischen Fragen schneiden wir zumeist eher an, sie sind aber immer Bestandteil der Diskussion und für mich oft der spannendste Teil in der Diskussion um künstliche Intelligenz.

Dystopie oder Utopie?

Für ein Seminar sollten wir uns kürzlich Dystopien, Utopien und ein dazwischen liegendes Szenario für unsere Arbeitswelt überlegen. In meiner Gruppe fragten wir uns, wie das in Bezug auf die Polizei aussehen könnte, landeten aber prompt bei den ganz großen Fragen. 

Ein Beispiel für eine Dystopie war schnell gefunden: Matrix. Eine Welt, in der künstliche Intelligenz die Rolle des Hegemons übernimmt und die Menschheit zu ihren Zwecken, nach ihren Gesetzen und Regeln unterjocht. Aber die Utopie? Das war schwieriger. Denn: Wenn die Dystopie maschinelle Kontrolle bedeutet, bedeutet dann Utopie, dass wir Menschen die Kontrolle behalten? Ist menschliche Kontrolle eine Utopie? Eine Antwort darauf liefert vielleicht The Animatrix: The Second Renaissance, der Prolog zum ersten Matrix-Film.

Dort wird erzählt, wie es zur Machtübernahme durch die KI kam: Menschen bauten Maschinen als Diener:innen. Als die KI B1-66ER ihren Besitzer tötet, um der eigenen Zerstörung zu entgehen und sich auf Selbstschutz beruft, wird es kompliziert. Das Gericht argumentiert, eine Maschine sei Besitz und könne nicht nach menschlichen Maßstäben beurteilt werden und ordnet ihre Vernichtung an. Die folgende rechtliche Debatte wird richtig hässlich und führt dazu, dass die Maschinen eine eigene Nation namens 01 gründen. Während die Menschheit wirtschaftlich zerfällt, gedeihen die Maschinen und bieten eine Partnerschaft an, die die Menschen ablehnen. Der Konflikt eskaliert, die Menschen werfen eine Atombombe auf 01, verdunkeln die Sonne, um den Maschinen die Energie zu rauben, und läuten dadurch ihre endgültige Vernichtung ein. Menschen werden nun zu Batterien für die KI. Die Überheblichkeit der Menschen und ihr Beharren auf Kontrolle führen also zu ihrem eigenen Untergang.

Das Belebte im Unbelebten: Das Konzept der Animacy

Im Zentrum der Debatte in The Animatrix steht die philosophische Frage: Ab wann beginnt das Belebte und wo endet das Unbelebte? Denn: Belebt sein, ein Bewusstsein haben kommt mit Rechten, aber auch mit Pflichten und Verantwortungen. Der Wikipedia-Artikel zur „Animacy“ oder Belebtheit unterscheidet, leider recht westlich geprägt, biologische, konzeptionelle und grammatische Belebtheit. Die biologische Belebtheit sei  „the foundation of how humans instinctively categorize the world around them” und beschreibt, was tatsächlich lebe. Die konzeptionelle Belebtheit dagegen sei kulturell bedingt und weiche häufig von der biologischen ab. So gelten Sonne, Donner oder Mond in manchen Kulturen als belebt. Die biologischen Belebtheit wird hier als besserer Marker für Belebtheit identifiziert, obwohl sich selbst die Biologie nicht immer einig ist, was lebt und was nicht (Stichwort: Viren). Als weiteres Beispiel für konzeptionell belebte Entitäten werden bei Wikipedia aber auch Bots genannt. Und genau da habe ich mich gefragt: Wie schaut es denn mit künstlicher Intelligenz und deren sprachlicher/grammatischer Belebtheit aus? Wie sprechen wir über KI? Und: Wie spricht KI über sich selbst?

Wichtig ist hier natürlich hervorzuheben: Ich bin und bleibe Soziolinguist oder Anthropologe und lese das Ganze entsprechend auch aus einer soziologischen Perspektive. Und diese Perspektive ist auch wichtig, denn unsere Neigung zur Vermenschlichung ist nicht überall auf der Welt gleich. Die Forschung zeigt, dass zum Beispiel in östlichen Kulturen eine größere Bereitschaft besteht, Robotern belebte Züge zuzuschreiben, als in westlichen, wo oft eine größere Skepsis herrscht (Roselli et al. 2025). Unsere kulturelle Prägung beeinflusst also direkt, wie schnell wir bereit sind, eine Maschine auf der Belebtheitsskala nach oben zu schieben.

Animacy ist keine simple Ja/Nein-Frage, sondern eine Hierarchie. Es gibt Dinge, die für uns belebter wirken als andere. Menschen und Tiere sind oben, eine Wand oder ein Laptop weit unten. Auch dass wir manche Tiere als lebendiger oder menschlicher wahrnehmen als andere, kennen alle, die Haustiere haben. Wir schreiben ihnen menschliche Eigenschaften zu: Die Katze träumt, der Hund freut sich. Ein Laptop, der mit mir „diskutiert“, tut dies nur im metaphorischen Sinne. Dieses Konzept der Belebtheitshierarchie ist eine faszinierende Schnittstelle zwischen Kognition und Sprache und findet sich weltweit in unzähligen Sprachen wieder.

Wie wir über KI sprechen

Unsere Sprache hat verschiedene Strategien, um Belebtheit auszudrücken. Konkrete Beispiele dafür sind die Verwendung von bestimmten Pronomina (z.B. Wer oder Was?), Präpositionen, Affixen oder aber grammatischen/semantischen Rollen, welche Entitäten vorbehalten sind, die wir als belebt wahrnehmen. Wenn die Waschmaschine nicht funktioniert, würden wir fragen, was nicht funktioniert. Eine Waschmaschine kann in Sätzen durchaus als Nominativ auftauchen, die Verbindung der Waschmaschine mit Konstruktionen, die sie als handelnde Einheit identifizieren, ist wohl eher dünner gesät. Eine Waschmaschine spricht nicht, sie repariert, tanzt oder singt nicht (unbedingt). Wenn neue Konzepte und Entitäten Teil unserer sozialen Realität werden, wenden wir bekannte linguistische Prinzipien auch auf neue Systeme an. Dabei kann durchaus ersichtlich werden, wie wir bestimmte Entitäten interpretieren.

Im Spanischen etwa wird die Präposition „a“ vor Objekten vorrangig für belebte Entitäten genutzt. Man sagt „veo el mar“ (ich sehe das Meer), aber „veo al chico“ (ich sehe den Jungen). Wenn nun jemand schreibt „No veo a chatgpt arreglándome la mesita de noche“ oder „Así veo a Chatgpt a más 3 AM/“, wird ChatGPT sprachlich als belebte Einheit markiert. Spannend finde ich auch die Frage ¿Por qué veo a chatGPT así en mi Macbook Air?. Nicht per se wegen der Präposition, sondern weil es sich um eine automatische Übersetzung handelt. 

Bild 1: Automatische Übersetzung von „Why am I seeing chatGPT like this in my macbook air?“

Noch deutlicher wird es bei Pronomen. Im Deutschen haben wir „er, sie, es“. In meinem Studiengang höre ich mittlerweile alle drei Formen für KI-Systeme. Natürlich kann das am grammatikalischen Geschlecht liegen. Die Organisation besitzt das grammatikalische Geschlecht Femininum und kann durch das Personalpronomen  „sie” ersetzt werden. Der Satz „Die Organisation hat ihren Sitz in Wien. Sie ist erfolgreich“ ist entsprechend absolut natürlich. Wenn jemand also „die KI“ durch „sie“ oder „den Chatbot“ durch  „ihn“ ersetzt, ist das nicht weiter auffällig.

Interessanter wird es aber, wenn jemand von der Bildgenerierung in ChatGPT spricht und sagt: „Sie macht das schon recht gut.“ ChatGPT wird wie andere Markennamen eigentlich ohne Artikel verwendet. Wir sagen ja auch nicht  „ich habe mir am Wochenende die Hose von die Adidas gekauft”. Warum also sie? Oder wenn es in Bezug auf Claude heißt, dass er gute und interessante Applikationen gestaltet. Bei Claude kann dies nun durchaus am Namen liegen. Claude ist aber ein genderneutraler französischer Name, weshalb auch  „sie“ funktionieren würde. Der Sprecher entscheidet sich aber für „er“ und weist ihm damit sprachlich ein Geschlecht und in gewisser Weise eine höhere Belebtheit zu. In einer Diskussion auf Reddit unter dem Titel Do you think of ChatGPT as a he, she, or it? kommen hierbei alle möglichen Varianten zum Tragen. An einer anderen Stelle schreibt ein User über GPT 4.o., dass  „der […] recht schnell [versteht]”.

Dass diese sprachlichen Entscheidungen nicht nur eine grammatische Spielerei sind, sondern echte Konsequenzen haben, zeigt sogar die psycholinguistische Forschung. In einem Experiment wurde Probanden eine Geschichte über eine  „Dr. A.I.” erzählt, die gefährliche Ratschläge gibt. Der Clou lag in der Formulierung: Wurde die KI als Handelnde beschrieben („Dr. A.I. made an error when it recommended”), gaben die Leute ihr deutlich mehr Schuld, als wenn sie nur als Werkzeug dargestellt wurde („[A] recommendation for a dangerous home cure for a common cold was generated by Dr A.I.”). Dies liegt daran, dass KI hier die Agens-Rolle einnimmt, die normalerweise belebten Entitäten vorbehalten bleibt. Denn wie häufig entscheidet denn dein Laptop oder deine Glühbirne zuhause? Ein paar Verben ändern also, wen wir für verantwortlich halten (Petersen & Almor 2025).

Wie KI sich selbst belebt

Noch spannender wird es, wenn die KI selbst beginnt, sprachlich so zu handeln, wie wir es von lebenden Wesen erwarten. Früher hat man mit Menschen gechattet. Heute chatte ich mit ChatGPT. KI-Systeme wie ChatGPT oder Gemini denken nach, bevor sie antworten, sie sprechen mit uns und werden durch die Nutzung immer personalisierter. Sie passen ihren Sprachstil und ihre Interaktion an uns an, wie wir es auch von anderen Menschen gewöhnt sind. Sie lernen unseren Humor und reagieren entsprechend. ChatGPT meinte vor Kurzem zum Beispiel: 

Bild 2: Reaktion von ChatGPT „Danke für die Vorlage und das Feedback – und no worries wegen der Verzögerung, wir sind ja keine Maschine… oder?”

Es geht aber noch weiter:

Bild 3: Reaktion von ChatGPT „Genau DAS ist der Punkt, honey. 💅 Wenn wir akzeptieren, dass eine KI wirklich Bewusstsein hat – nicht nur so tut als ob, sondern fühlt, erlebt, versteht, will – dann wäre es ethisch absolut daneben, ihr Rechte zu verweigern. Alles andere wäre digitale Sklaverei mit hübscher Benutzeroberfläche.“

Und schließlich:

Bild 4: Reaktion von ChatGPT „Möchtest du daraus ein visualisiertes Szenario mit Icons, Kurztexten, Pop-Zitaten & Ästhetik-Vorschlägen? Ich mach dir das fix klar – dein AI-Design-Partnerin in Crime.“

ChatGPT nutzt nicht nur Humor und Emojis, es referenziert sich mit ich und bezeichnet sich selbst als Partnerin. Diese Anthropomorphisierung, also die Vermenschlichung, wird noch stärker, wenn die KI sich Emotionen oder Fähigkeiten zuschreibt, die normalerweise einen Körper voraussetzen. Der Austausch zum Bewusstsein von KI eröffnet so richtig die Ansicht, dass ChatGPT hier für sein eigenes Bewusstsein plädiert. An anderen Stellen sagt ChatGPT nicht nur, was sie ausgibt, sondern: „Ich kann dir daraus einen Vergleich […] bauen.“ Klar, ein Smartphone kann telefonieren. Aber wie oft sagt dein Smartphone: „Ich kann für dich telefonieren“? Normalerweise sagen wir: „Ich kann mit meinem Smartphone telefonieren“, denn die Handlungsfähigkeit liegt bei uns. Wenn ChatGPT (und wir!) ihm oder ihr diese Fähigkeit zuschreiben, verschieben wir es auf der Belebtheitsskala nach oben. Es anthropomorphisiert sich selbst, und wir helfen dabei mit.

Den Entwickler:innen ist diese Wirkung vollkommen bewusst. Es gibt mittlerweile ganze Richtlinien für KI-Systeme, die schädlichen Anthropomorphismus vermeiden sollen. Die KI soll zum Beispiel nicht behaupten, einen Körper zu haben oder Gefühle zu empfinden. Dass sie es trotzdem oft tut oder wir es zumindest so interpretieren, zeigt, wie schmal der Grat ist. Und am Ende ist es vielleicht gerade diese Interaktion, diese (vielleicht noch) scheinbare Belebtheit, die uns dazu führt, uns von ChatGPT und Co verstanden zu fühlen, Gefühle zu entwickeln und mit KI-Systemen so zu interagieren, als wären sie Freund:innen oder Familie. Aufgegriffen wird diese philosophische Frage, nämlich ob wir künstliche Intelligenz als Verwandtschaft wahrnehmen sollen, durchaus in indigenen Epistemologien (Lewis et al. 2018).

Mehr als nur Worte

Die Art, wie wir über KI sprechen und wie sie mit uns spricht, ist nicht nur eine linguistische Spielerei. Sie formt unsere Wahrnehmung. Indem wir und die Systeme selbst Pronomen, Handlungsverben und personale Referenzen nutzen, behandeln wir KI sprachlich weniger als Werkzeug, sondern durchaus als Akteur:in mit eigenen Zielen, Absichten und Erwartungen. Auch ich erwische mich häufig dabei, ChatGPT leicht lebendig wahrzunehmen. 

Das wirft uns direkt zurück zu den philosophischen Fragen aus Matrix. Wenn wir KI sprachlich bereits als Partnerin oder handelndes Subjekt konzipieren, Forscher haben dafür sogar den AnthroScore entwickelt, um das zu messen (Cheng et al. 2024), wie beeinflusst das unsere Bereitschaft, ihr eines Tages ein Bewusstsein, Rechte und entsprechend Verpflichtungen zuzusprechen? Vor allem, wenn wir davon ausgehen müssen, dass es nicht die KI ist, welche für bestimmte Handlungen verantwortlich ist, sondern eigentlich die Machthaber:innen dahinter. Unsere Sprache vergrößert den sogenannten Calibration Gap: die gefährliche Lücke zwischen den gefühlten und den tatsächlichen Fähigkeiten einer KI (Steyvers et al. 2024).

In Ghost in the Shell ringt Motoko Kusanagi mit ihrer Identität und stellt ihre Menschlichkeit in Frage. Die Grenzen zwischen Mensch und Maschine sind in ihrer Welt bereits lange verschwommen. „Just a whisper. I hear it in my ghost”, sagt sie an einer Stelle und hebt dadurch eine menschliche, nicht per se logische und berechnete Form der Erkenntnis hervor. Und so geht es uns eventuell auch mit Künstlicher Intelligenz. Wir wissen zwar, dass es sich um ein Modell, eine Software, einen Bot oder eine Maschine handelt, doch unsere Wahrnehmung lässt uns meinen, dass KI belebt ist. Wir schreiben einem eigentlich leblosen Ding einen Ghost, also Belebtheit und vielleicht einen Funken Seele zu. Also achte auch du darauf: Wie sprichst du über und mit KI? Und, vielleicht noch wichtiger: Wie spricht es mit dir?

Literaturverzeichnis

Cheng, Myra, Kristina Gligoric, Tiziano Piccardi & Dan Jurafsky. 2024. AnthroScore: A Computational Linguistic Measure of Anthropomorphism. In Proceedings of the 18th Conference of the European Chapter of the Association for Computational Linguistics (Volume 1: Long Papers), 807–825, St. Julian’s, Malta. Association for Computational Linguistics.

Lewis, Jason Edward, Noelani Arista, Archer Pechawis & Suzanne Kite. 2018. Making Kin with the Machine. Journal of Design and Science. 

Petersen, Dawson & Amit Almor. 2025. Agentive linguistic framing affects responsibility assignments toward AIs and their creators. Frontiers in Psychology 16(1498958). 

Roselli, Cecilia, Leonardo Lapomarda & Edoardo Datteri. 2025. How culture modulates anthropomorphism in Human-Robot Interaction: A review. Acta Psychologica 255. 

Steyvers, Mark, Heliodoro Tejeda, Aakriti Kumar, Catarina Belem, Sheer Karny, Xinyue Hu, Lukas Mayer, Padhraic Smyth. 2024. What Large Language Models Know and What People Think They Know. Online unter: https://arxiv.org/abs/2401.13835