Ein elementarer Bestandteil der wissenschaftlichen Wissensarbeit ist es, die passende Literatur für die eigene Forschungsarbeit zu suchen, sichten und zu bearbeiten. Ich bin und bleibe eine kleine Lese- und Suche-Maus. Mir macht es unglaublich viel Spaß, anhand bestimmter Keywords auf Google und/oder in unterschiedlichen digitalen Bibliotheken nach Literatur zu suchen, weil sich das so ein bisschen wie Detektivarbeit anfühlt.
Ich lese die Literatur dann auch gerne, weil ich finde, dass ich mich dann besser in die Materie einarbeite, Konzepte und Ideen besser verknüpfen kann und im Schreibprozess auch immer wieder diese Momente habe, in denen ich sage: “Wait a minute, dazu habe ich doch irgendwo etwas gelesen.”
Das heißt aber nicht, dass ich dafür KI nicht unterstützend verwenden kann. Wie du KI im Schreib- und Rechercheprozess einsetzen kannst, sind andere Geschichten. In diesem Beitrag geht es konkret um die Literaturarbeit selbst. Also: Wie kann mich KI dabei unterstützen, Literatur zu sichten und zu reviewen?
Ich bin eine Lesemaus, aber…
Wenn es dir zumindest ein bisschen so geht wie mir, dann ist dein Computer oder zumindest dein Zotero ein Sammelsurium an allen möglichen Quellen, die dir im Laufe des Tages aber auch aufgrund gezielter Suche unterkommen. Deine Literaturliste wächst und gedeiht. Auch wenn du dir ein persönliches Wissensmanagement ausformuliert hast, kommt es doch immer wieder vor, dass du der Fülle an Informationen, die zur Verfügung stehen, nicht Herr:in wirst.
Klar. In deinem digitalen Wissensgarten sammeln sich Dokumente. Du liest sie vielleicht und kennst gewisse Quellen recht gut, weil du immer wieder zu ihnen zurückkehrst. Bei anderen Quellen fällt es dir aber schwerer, weil du sie vielleicht nur überflogen hast. Vielleicht geht es dir auch so wie mir, dass du dich an bestimmte Aspekte besser erinnerst als an andere. Ich tu mir beispielsweise schwer damit, mir die Methoden und Limitationen zu merken. Und manchmal kommt dann beim Schreiben und Lesen dieser Gedanke: “Dazu habe ich doch vor Kurzem etwas Spannendes gelesen.” Und dann hättest du vielleicht gerne eine Übersicht, die dir hilft, Ordnung zu schaffen. Und genau hier kommt NotebookLM ins Spiel.
Was ist NotebookLM?
NotebookLM ist ein Tool von Google. Das Besondere an NotebookLM ist, dass du eigene Quellen hochladen kannst und das Modell dann (fast) ausschließlich auf Basis dieser Quellen antwortet. Das reduziert Halluzinationen enorm. Hat aber noch andere wesentliche Vorteile. Google gibt an, dass deine in NotebookLM hochgeladenen Daten nicht verwendet werden, um das Modell für andere zu trainieren. Deine Forschung bleibt also in deinem privaten Silo. Wenn du sie löscht, sind sie weg. Das heißt aber nicht, dass DSGVO, Urheber:innenrecht, die KI-Verordnung sowie Rechte und Pflichten in Zusammenhang mit Plagiaten und Zitationen nicht gelten. Bleib hier am besten auf der sicheren Seite, indem du dich über die konkreten Bestimmungen der Verlage informierst.
In der kostenlosen Version kannst du aktuell bis zu 50 Quellen pro Notebook hochladen (Stand: Februar 2026). Jede Quelle kann bis zu 500.000 Wörter enthalten. Das ist mehr als genug für eine umfangreiche Literaturarbeit und führt nur in Ausnahmefällen zu Schwierigkeiten.
Schritt 1: Dokumente vorbereiten mit Zotero
Bevor wir die Dokumente in die KI werfen, müssen wir einen kleinen, aber entscheidenden Zwischenschritt in Zotero machen. NotebookLM importiert nur die PDF-Datei selbst und nimmt keine Änderungen an der Datei vor. Wenn deine PDF also kryptisch ContentServer_123.pdf heißt, wird NotebookLM dir später sagen: „Diese Information stammt aus ContentServer_123“. Das macht die Quellenarbeit extrem mühsam. Wir wollen, dass Dort steht: „Foidl – 2025 – Helowchis“.
Wenn du eine PDF in Zotero hochgeladen hast und diese bibliographische Metadaten wie Titel, Autor:in und Jahr enthält, benennt Zotero deine Dateien automatisch um. Wenn diese Metadaten nicht vorhanden sind, wirst du die biliographischen Daten manuell eintragen. Im Anschluss kannst du die PDF Datei umbenennen lassen, indem du den Eintrag öffnest, einen Rechtsklick auf die PDF machst und “Datei nach Metadaten des übergeordneten Eintrags umbenennen” auswählst.

Jetzt haben deine Dateien saubere Namen wie Autor – Jahr – Titel.pdf.
Schritt 2: Die Dokumente hochladen KI
Exportiere nun deine PDFs aus Zotero. Dafür wählst du jene Quellen aus, deren PDFs du exportieren möchtest, machst einen Rechtsklick und wählst “Exportieren” aus. Wenn du nur die Dateien möchtest, lässt du das Häkchen nur bei “Dateien exportieren”.

Du bekommst dann eine Ordnerstruktur mit vielen Unterordnern. Jetzt kannst du entweder händisch alle PDFs in einen Sammelordner geben oder die Dokumente einzeln bei NotebookLM hineinziehen. Oder: Du nutzt einen KI-Agenten, der dir die Dokumente alle in einen Ordner verschiebt, damit du diese danach nur noch in NotebookLM hochladen musst.
Bevor du beginnst: Überlege dir gut, wie du dein Notebook aufbereiten möchtest. Im besten Fall gruppierst du sie thematisch oder kategorisierst sie beispielsweise in ein Notebook für Theorien, eines für Methodik und so weiter.

Sobald du bei NotebookLM auf „Neues Notebook erstellen“ geklickt hast, öffnet sich obere Maske. Wähle “Dateien hochladen” und hol dir jetzt deine Dateien hinein.
Schritt 3: Mein Prompt für die Literaturrecherche
Jetzt kommt der spaßige Teil. Wir wollen nicht nur eine Zusammenfassung, sondern eine strukturierte Analyse. Ich habe mir dafür einen Prompt gebastelt, der mir hilft, die Literatur systematisch zu erschließen. Um den Prompt einzugeben, klickst du auf den Stift bei dem Datentabelle-Button.

Dann gibst du deinen Prompt im Feld Datentabelle beschreiben, die erstellt werden soll ein. Hier kannst du auch die Sprache auswählen. Dann dauert es ein paar Minuten und du erhältst eine Übersicht, die du als Datei exportieren kannst.

Wichtig: Mein Prompt ist ein Beispiel für dich. Die konkrete Ausformulierung liegt bei dir und sollte sich an deinen Interessen orientieren.
Handle als spezialisierter Experte für systematische Literaturübersichten und Meta-Analysen. Deine Aufgabe ist es, die hochgeladenen Quellen mit höchster wissenschaftlicher Präzision zu analysieren.
Schritt 1: Klassifizierung der Literatur
Identifiziere und unterscheide strikt zwischen Primär- und Sekundärliteratur. Achte in darauf, dass du Leistungen anderer Forscher:innen nicht der jeweiligen Quelle zuschreibst.
Schritt 2: Strukturierte Datenextraktion (Extraktionstabelle)
Analysiere alle Quellen und extrahiere die Daten in einer Markdown-Tabelle mit folgenden Spalten:
"Dateiname der Quelle"
"Titel & Autor" (Format: Autor, Jahr)
"Art der Arbeit" (z. B. Empirische Studie, Theoretische Arbeit, Review, Meta-Analyse)
"Kern-Thema" Worum geht es in einem Satz?
"Relevanz" Bewerte die Relevanz für das Thema diskursive Zuschreibung von Belebtheit an Generative KI auf einer Skala von 1-5.
"Forschungsfrage" Was wurde untersucht?
"Welche Aspekte von Animacy werden untersucht?" (Animacy, Agency, Locomotion, Sentience, Empathy, Anthropomorphism, Gender, Intelligence, Embodiment)
"Wie werden die Animacy Aspekte untersucht?"
"Theoretischer Rahmen" Welche Theorien/Modelle wurden genutzt?
"Methodik" Welche Daten wurden wie erhoben? Wie wurden die Daten analysiert?
"Hauptergebnisse" Die 3 wichtigsten Findings. "Limitationen" Welche Grenzen nennt die Studie selbst?
"Niche" Welchen Bereich erforscht diese Quelle, den andere Quellen nicht berachten?
Schritt 3: Synthese & Gap-Analyse
Beantworte basierend auf den gesamten Quellen folgende Fragen. Erstelle dafür Spalten und setze sie miteinander in Beziehung:
"Widersprüche" Wo widersprechen sich die Ergebnisse verschiedener Autoren? Nenne konkrete Zitate und nenne mögliche Gründe (z. B. unterschiedliche Kontexte oder Methoden).
"Forschungslücken" Welche Aspekte des Themas werden in der aktuellen Literatur vernachlässigt? Wo fehlen empirische Belege?>
Warum dieser Prompt so aufgebaut ist
- Die Klassifizierung: NotebookLM unterscheidet nicht immer, ob der Text nun wirklich Eigenleistung der Quelle ist oder ob es hier um das Werk einer anderen Person geht. Ob das hilft? Das weiß ich nicht, aber ich probiere es zumindest.
- Die Extraktion: Hier geht es ins Detail. Spannend finde ich hier beispielsweise auf Nischen einzugehen und konkrete Fragen zu inkludieren, welche die jeweilige Arbeit betreffen. Hier kommt die Benennung der Dateien ins Spiel: Da NotebookLM Verweise erstellt (Citations), sehe ich einerseits den Dateinamen dann direkt in der Zeile der Quelle und auch unterhalb entsprechend angeführt. So weiß ich sofort, um welche Datei es geht.
Wichtig: Auch wenn die KI sagt „Limitation ist X“, prüfe ich das natürlich gegen. Manchmal halluziniert die KI nicht den Inhalt, aber den Kontext. Insgesamt ist es einfach wichtig, dass du deine Literatur kennst. - Synthese und Gap-Analyse: Das ist für mich der größte Mehrwert. Ich lasse die Literatur „miteinander sprechen“. Die KI findet Widersprüche und Forschungslücken oft schneller, als ich es beim sequenziellen Lesen von 20 PDFs könnte. Das hilft mir beispielsweise dabei, neue spannende Forschungsbereiche zu eröffnen oder aber auch zu reflektieren, was gerade das Herausragende an einer Quelle ist.
Was das Ergebnis kann.
Das „finale“ Produkt ist natürlich kein fertiger Literaturreview-Artikel. Aber es ist eine spannende Übersicht. Das Ergebnis zu meiner Literatur schaut beispielsweise so aus:

Das finde ich auf den ersten Blick hervorragend. Auf einen zweiten Blick zeigt sich aber auch gleich, warum es weiterhin wichtig ist, die Literatur zu lesen.

Die markierte Stelle zeigt einen Widerspruch auf. Da heißt es, “Während Agbon 14 KI als machtvolles diskursives Subjekt sieht, das Realität durch Sprache mitkonstruiert, betonen Ji 15 und Guingrich/Graziano 16, dass KI keine echte Sentienz besitzt und Zuschreibungen von Belebtheit oft auf menschlichen Fehlinterpretationen oder sozialen Skripten beruhen.” In einem ersten Moment hört sich dies vielleicht wie ein Widerspruch an, Gungrich & Graziano (2024), Ji (2024) und Agbon (2024) widersprechen sich hier aber nicht. Agbon geht nicht davon aus, dass KI ein Bewusstsein besitzt, sondern weißt Generativer KI einfach diskursive Macht zu, weil diese durch ihre Interaktionsfähigkeit soziale Realität aktiv konstituiert, indem sie beispielsweise auch beeinflusst, wie wir über Künstliche Intelligenz denken. Dies ist mitunter ein Grund, warum Menschen künstlicher Intelligenz Belebtheit zuschreiben und es zu Fehlinterpretationen kommt.

In meinem zweiten Beispiel werden Lind (2025) und Halliday & Matthiessen (2014) verglichen. Während Lind (2025) als äußerst relevanter Artikel für mich beschrieben wird, erhalten Halliday & Matthiessen (2014) lediglich 2 von 5 Sternen. Lind baut ihre Analyse jedoch auf der Systemisch-Funktionalen Grammatik auf, die, wenn du genau hingeschaut hast, auf Halliday & Matthiessen zurückgeht. “Halliday’s Introduction to Functional Grammar” ist ein umfangreiches Einführungswerk, welches genau jene Analysekategorien beschreibt, mit denen Lind und auch in meiner Masterarbeit arbeite.
Ein weiterer spannender Aspekt ist, dass von den insgesamt 92 Dokumenten im Notebook weniger als 78 inkludiert wurden. Manche Dokumente sind mehrfach drinnen, was Sinn macht, denn: Hierbei handelt es sich um Sammelbände oder Journals. Wo dann aber die gut 20-30 anderen Dokumente hin sind, konnte mir NotebookLM auch nicht beantworten. Dies kann daran liegen, dass das Dokument nicht maschinenlesbar ist, dass es sich um eine Doppelung handelt oder dass bestimmte Wörter oder Anweisungen enthalten sind, die das Dokument ausschließen.
Aber: Das heißt noch lange nicht, dass die Systematische Literaturrecherche nichts bringt. Denn: Ich setzte mich gerade durch die Interaktion mit der Literature Review mit der Literatur auseinander. Da entsteht Reibung, hier lerne ich und mein Wissensgarten wächst. Kosmyna et al. (2025) halten in Zusammenhang von Lernen mit KI fest, dass eine frühe Nutzung von KI zu einer geringen Festigung von Wissen führen kann, dass die erneute KI-gestützte Auseinandersetzung mit Inhalten eine stärkere kognitive Integration zur Folge hatte. Und genau das fühle ich.
Fazit
NotebookLM nimmt mir das Denken nicht ab. Es nimmt mir auch das Wühlen oder Suchen nicht ab. Aber, NotebookLM unterstützt mich dabei dort Ordnung hineinzubringen, wo ich normalerweise nur mit viel Mühen Ordnung hineinbringen würde. Mühen, die ich mir sonst wahrscheinlich nicht gemacht hätte. Auch wenn es doch eine Limitationen gibt, denen man sich bei der Arbeit mit NotebookLM bewusst sein muss, gibt es natürlich auch Vorteile.
About the Author
Ich bin René Foidl von Emerging Linguists. Ich bin ein richtiger Nerd, wenn es darum geht KI für unterschiedliche Anwendungsfälle auszuprobieren. Mein Fokus liegt auf dem Einsatz von KI in der Hochschule und in Sprachlehr und -lernsettings, geht aber darüber hinaus.
Quellen
Agbon, G. (2024). Who speaks through the machine? Generative AI as discourse and implications for management. Critical Perspectives on Accounting, 100, 102761. https://doi.org/10.1016/j.cpa.2024.102761
Guingrich, R. E., & Graziano, M. S. A. (2024). Ascribing consciousness to artificial intelligence: Human-AI interaction and its carry-over effects on human-human interaction. Frontiers in Psychology, 15, 1322781. https://doi.org/10.3389/fpsyg.2024.1322781
Halliday, M. A. K., & Matthiessen, C. M. I. M. (2014). Halliday’s Introduction to Functional Grammar (0 Aufl.). Routledge. https://doi.org/10.4324/9780203431269
Ji, J. (2024). Demystify ChatGPT: Anthropomorphism around generative AI. AI in Education, Culture, Finance, and War 2(1). https://doi.org/10.60690/cee03e53.
Kosmyna, N., Hauptmann, E., Yuan, Y. T., & Situ, J. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task△. https://doi.org/10.48550/arXiv.2506.08872
Lind, M. (2025). Alexa’s agency: A corpus-based study on the linguistic attribution of humanlikeness to voice user interfaces. AI & SOCIETY, 40(6), 4619–4633. https://doi.org/10.1007/s00146-025-02243-8

