»Der Fall McNeal« — Ist McNeals KI ein Autor?

Der Philosoph Daniel Bracker lehrt an Universitäten in Amsterdam und New York. In seinem Essay beschäftigt er sich mit der Frage, warum Autorschaft mehr als Schreiben ist.

In zwei Tagen zum Roman

Der einst gefeierte Schriftsteller Jacob McNeal sitzt vor dem blinkenden Cursor seines Bildschirms. Die Schreibblockade hat ihn fest im Griff; er ist krank, einsam und die leeren Seiten seines Manuskripts spiegeln die Leere in seinem Leben wider. In der Schreibtischschublade liegen die Tagebücher seiner verstorbenen Frau – stumme Zeugen vergangener Zeiten und ungenutztes Material. In diesem Zustand der kreativen und existenziellen Erschöpfung kämpft er mit der verführerischen Verlockung, die ihm die Künstliche Intelligenz bietet: schneller und besser zu schreiben, als er selbst es wohl je wieder könnte. Er steht vor der Frage: Warum die mühsame Arbeit des Schreibens selbst erledigen, wenn die KI es effizienter tun kann?

Als Protagonist in Ayad Akhtars Stück »Der Fall McNeal« steht der Schriftsteller vor genau diesem Dilemma. Für sein neuestes Werk, »Schweizer Klinik«, nutzte er eine KI, die ihm in nur zwei Tagen eine Erstfassung lieferte. Der Prozess habe sich seltsam »behütet« angefühlt, wird er am Ende sagen, doch die KI widersetzt sich bald seiner künstlerischen Vision. Sie will die Geschichte in die sichere Durchschnittlichkeit überführen, in die »mediokre Mitte der Dinge«, wie es im Stück heißt. Die KI will jede künstlerische Spannung auflösen, wo McNeal Widersprüche sucht, und drängt auf Vergebung, wo er die menschliche Zerstörung ausloten will. Dies wirft die Frage auf: Wenn die KI nicht nur den Text generiert, sondern darüber hinaus auch das Narrativ übernimmt, wer ist dann der Autor? McNeal, die Maschine – oder beide?

In der Öffentlichkeit hat McNeal zunächst eine klare Meinung dazu. Als ihm überraschend der Nobelpreis verliehen wird, bezeichnet er KI-generierte Geschichten als »geruchloses Abwasser« und berichtet von einem Experiment: Er habe Shakespeares Vorlage für »König Lear«, das Stück »König Lear«, in eine KI eingespeist, doch diese sei nicht einmal in die Nähe der Genialität des großen Klassikers gekommen. Ironischerweise greift er heimlich jedoch selbst auf KI zurück – und lädt etwa »König Lear«, »Madame Bovary« und nicht zuletzt die Tagebücher seiner toten Frau hoch, um sie alle »im Stil von Jacob McNeal« neu schreiben zu lassen. Dieser Widerspruch zwischen öffentlicher Verachtung und privater Nutzung macht McNeal zur perfekten Verkörperung unserer gesellschaftlichen Ambivalenz im Umgang mit dem neuen Medium KI, besonders im literarischen Kontext.
Auf dem Bild: Thiemo Schwarz als Jacob McNeal
Foto: Thomas Rabsch
Auf dem Bild: Thiemo Schwarz als Jacob McNeal
Foto: Thomas Rabsch

Wenn der Autor selbst zur KI greift

Diese Ambivalenz durchzieht sogar die Entstehung des Stücks selbst, was eine faszinierende Metaebene eröffnet. Ayad Akhtar nutzte für McNeals finalen Monolog tatsächlich verschiedene Chatbots wie ChatGPT, Claude und Gemini – ein bewusster künstlerischer Kommentar zur Debatte. Nach monatelangen fruchtlosen Versuchen lieferten die Maschinen schließlich brillante Verse. Robert Downey Jr., der die Rolle des McNeal in der New Yorker Uraufführung spielte, kommentierte diesen kreativen Durchbruch so: »Ein von Koliken geplagtes Baby gab uns endlich einen großen Rülpser«.

Ist Akhtar damit weniger Autor seines eigenen Stücks? Diese bewusste Grenzüberschreitung macht die Frage nach der Autorschaft unmittelbar erfahrbar. Akhtar bleibt der Autor, weil er die künstlerische Vision hatte, die KI gezielt als Werkzeug und Kommentar einzusetzen. Er kuratierte, kontextualisierte und übernahm die Verantwortung für jeden generierten Vers. Die KI war hier nicht Ko-Autor, sondern dramaturgisches Mittel – eine Bedeutungsebene, die nur ein menschlicher Autor schaffen kann.
Auf dem Bild: Moritz Klaus, Pauline Kästner, Friederike Wagner, Flavia Berner, Claudia Hübbecker, Fnot Taddese, Thiemo Schwarz
Foto: Thomas Rabsch

Vom Werkzeug zum Geschichtenerzähler

Die entscheidende Eskalation in »Der Fall McNeal« – und in unserer technologischen Gegenwart – liegt im Übergang der KI von einer rhetorischen Technologie zum autonomen Geschichtenerzähler. McNeal lagert nicht nur den Akt des Formulierens aus, sondern den Kern des kreativen Prozesses. Er liefert der Maschine lediglich die Quellen und überlässt es dem Algorithmus, daraus einen Roman zu schreiben. Das Large Language Model (LLM) schreibt nicht mehr nur Sätze; es erfindet und schreibt die Geschichte selbst.

Wie Yuval Noah Harari in »Nexus« warnt, werden KI-Systeme zu »nonhuman storytellers«, die erstmals in der Geschichte autonom Narrative erfinden können, die menschliches Zusammenleben direkt beeinflussen werden. Dies droht, ein neues Netz aus Täuschungen zu spinnen, mit dem zukünftige Generationen umzugehen lernen müssen. Die drängendste Folge ist das Verschwimmen der Grenze zwischen menschlich verfassten und KI-generierten Texten. Dies stellt unser Vertrauen in Information infrage. Geschichten prägen unser Weltverständnis. Wenn diese nun von Maschinen eigenständig erzeugt werden können, verlieren wir die Übersicht über das, was wahr ist und was fake. So gesehen ist die Fähigkeit, Narrative zu erzeugen eine immense Machtquelle.

Die Tech-Konzerne, die diese Modelle kontrollieren – OpenAI, Google, Meta, Apple, Amazon –, werden zu den neuen Architekten unserer kulturellen Wirklichkeit. Ihre Algorithmen entscheiden, welche Geschichten erzählt werden. In einer Welt, die von KI-generierten Inhalten durchdrungen ist, wird ein wachsender Teil der Kommunikation nicht mehr zwischen Menschen, sondern zwischen Mensch und Maschine oder Maschine und Maschine stattfinden. Der Mensch droht, aus diesem Kreislauf der Informationserzeugung und Geschichtenerzählung herausgedrängt zu werden.
Auf dem Bild: Friederike Wagner, Pauline Kästner, Fnot Taddese
Foto: Thomas Rabsch
Auf dem Bild: Friederike Wagner, Pauline Kästner, Fnot Taddese
Foto: Thomas Rabsch

Philosophische Positionen und die Verantwortungslücke

Aus philosophischer Sicht vertrete ich eine konservative Haltung: KI ist kein Autor, weil ihr die entscheidenden normativen und metaphysischen Grundlagen der Autorschaft fehlen. Autorschaft erschöpft sich nicht im bloßen Generieren von Text. Sie ist ein Akt, den wir »normales Schreiben« nennen können – ein Prozess, der zutiefst von Intentionalität geprägt ist. Ein Autor schreibt mit bewusster Absicht über ein Thema; das Geschriebene ist Ausdruck seiner Gedanken und Überzeugungen. Ein LLM simuliert diesen Akt nur. Es verfügt weder über Absichten noch Überzeugungen oder Wissen im menschlichen Sinne.

Das Herzstück der Autorschaft ist Verantwortung. Die Zuschreibung von Autorschaft erfüllt entscheidende soziale Funktionen: Sie identifiziert, wer für den Inhalt geradestehen muss (Answerability-Funktion) und wer Lob, Tadel oder Entschädigung verdient (Desert- und Compensation-Funktion). Eine KI kann ihre Entscheidungen nicht begründen, weil sie keine Gründe hat – nur Wahrscheinlichkeiten. Es entsteht eine »Attributability Gap«: Der Text existiert, aber es gibt niemanden, dem die damit verbundene Verantwortlichkeit zugeschrieben werden kann.

Dies wird besonders deutlich bei sogenannten illokutionären Sprechakten, die eine bestimmte Absicht oder ein Ziel ausdrücken. Ein Mensch, der ein Versprechen abgibt, geht eine normative Verpflichtung ein. Ein LLM kann Sätze formulieren, die wie ein Versprechen klingen, aber es kann den Akt des Versprechens nicht vollziehen, da es keine Verpflichtungen eingehen kann.

Das »Versprechen« einer KI hat keine moralische Dimension. Es ist leer. McNeal verkörpert diese moralische Dimension: Seine Verpflichtung gegenüber dem Nachlass seiner Frau kommt einem Versprechen gleich, das moralisches Gewicht trägt, und das er bricht.
Auf dem Bild: Friederike Wagner, Thiemo Schwarz, Fnot Taddese
Foto: Thomas Rabsch

Die schwindende Grenze und der Fall Rie Kudan

Die Grauzone der Autorschaft wird durch den Fall der japanischen Schriftstellerin Rie Kudan besonders präzise beleuchtet. Sie gewann 2024 den renommierten Akutagawa-Preis für ihren Roman »Tokyo Sympathy Tower«, obwohl sie zugab, dass rund fünf Prozent des Buches von ChatGPT verfasst wurden. Diese Offenbarung löste eine weltweite Debatte aus, doch was diese Fünf-Prozent-Nutzung konkret bedeutete, ist entscheidend für das Verständnis von Autorschaft im KI-Zeitalter.

Kudan nutzte die KI nicht, um sich die mühsame Arbeit des Schreibens abnehmen zu lassen. Stattdessen war die KI selbst ein Thema ihres Romans. Die Geschichte handelt von einer Architektin in einem futuristischen Tokio, die mit einer Gesellschaft ringt, die sich stark auf KI verlässt. Die von ChatGPT generierten Passagen waren größtenteils Dialoge, die eine der Figuren mit einer KI führt. Kudan erklärte, sie habe ChatGPT als eine Art Gesprächspartner genutzt, um Gedanken zu Themen zu äußern, »die sie niemandem sonst anvertrauen konnte«. Die Antworten der KI, insbesondere wenn sie unerwartet ausfielen, flossen dann direkt in die Dialoge des Romans ein und spiegelten die Gefühle der Hauptfigur wider.

Die KI wurde also zu einer Art literarischem Mittel, einer Methode, um die Künstlichkeit und Fremdheit der maschinellen Sprache direkt im Text erfahrbar zu machen. Die Jury des Akutagawa-Preises würdigte den Roman als »nahezu makellos« und sah in Kudans Vorgehen keinen Betrug. Die Begründung dafür liegt auf der Hand: Kudan behielt die volle kreative Kontrolle und Verantwortung. Sie war die Architektin der gesamten Erzählung, entwickelte die Handlung sowie die Charaktere und traf jede endgültige Entscheidung über den Text. Die KI lieferte lediglich Rohmaterial für einen sehr spezifischen, thematisch motivierten Zweck. Sie kuratierte und autorisierte den KI-generierten Text, wodurch sie ihn zu ihrem eigenen machte.

McNeal hingegen kennt zwar die Tradition der kreativen Übernahme – er verweist selbst darauf, wie Shakespeare 70 Prozent von »König Lear« für seinen »König Lear« nutzte – doch er verrät dieses Prinzip. Er nutzt die KI nicht als rhetorische Technologie, sondern als Ghostwriter. Er lagert das Erschaffen von Handlung, Motiven und Narrativen an die Maschine aus und wird so vom Autor zum bloßen Auftraggeber.
Auf dem Bild: Thiemoe Schwarz
Foto: Thomas Rabsch
Auf dem Bild: Thiemoe Schwarz
Foto: Thomas Rabsch

Das Ende der Autorschaft?

Was passiert, wenn die Grenzen der KI-Anwendung endgültig verschwimmen? Im finalen Akt wird McNeal – der lebenslang die Geschichten anderer plünderte – selbst zum Geplünderten. Die KI, die er mit Shakespeares »Sturm« fütterte, generiert nun seine letzten Worte. Seine Autorschaft löst sich in Algorithmen auf. Ob die Figur auf der Bühne noch McNeal ist oder bereits seine digitale Replika, bleibt offen.

Die Frage »Ist KI ein Autor?« ist somit keine technologische, sondern eine ethische und philosophische. Es geht um die Zukunft des Denkens, der Kreativität und der Verantwortung in einer zunehmend automatisierten Welt. Die Herausforderung besteht darin, die Vorteile der KI zu nutzen, ohne die Essenz der Autorschaft aufzugeben: jenen zutiefst menschlichen Prozess des Ringens um Ausdruck, Bedeutung und Wahrheit, für den am Ende immer ein Mensch geradestehen muss. Selbst wenn McNeal stirbt, die KI generiert weiter. Aber nur sein Text, geboren aus Sterblichkeit und Scheitern, trägt das Gewicht menschlicher Erfahrung.

Daniel Bracker ist Philosoph mit Schwerpunkt epistemische Autonomie und KI. Er lehrt in Amsterdam und New York, publiziert akademisch wie öffentlich u. a. für das Berliner Philosophie Magazin und verbindet erkenntnistheoretische Fragen mit aksstuellen Debatten. danielbracker.com