Unser Gast Dr. Malte Engeler formuliert es zugespitzt: Künstliche Intelligenz (KI) produziert Aussagen, die sprachlich überzeugen, aber nicht unbedingt wahr sind. KI-Modelle lassen sich seiner Ansicht nach nur dann betreiben, wenn man sich von Vorstellungen wie Richtigkeit und Wirklichkeit verabschiedet. Diese Einschätzung ist weniger Provokation als Beschreibung eines technischen Zustands, mit erheblichen rechtlichen Konsequenzen.
Campact e.V. vs. X.AI
Unser Ausgangspunkt ist die Entscheidung im Verfahren Campact vs. X, in der sich ein Gericht mit der Frage auseinandersetzen musste, wem KI-generierte Aussagen rechtlich zuzurechnen sind und ob sich Plattformen durch technische oder rechtliche Konstruktionen der Verantwortung entziehen können. Konkret ging es um den Chat-Bot Grok auf Elon Musks Plattform X.
Glaubwürdigkeit trotz „Halluzination“
KI-Chatbots unterscheiden sich von klassischen Informationsdiensten dadurch, dass sie nicht lediglich Inhalte auffinden oder ordnen, sondern eigenständig formulieren. Ihre „menschlich“ wirkende Ausgabe verstärkt das Vertrauen der Nutzer und verschiebt damit die rechtliche Bewertung.
Begriffe wie „Halluzination“ oder „Konfabulation“ (Buch von Katharina Zweig) verdecken dabei eher das eigentliche Problem – KI-Systeme haben keinen Bezug zur Wirklichkeit, sondern erzeugen Wahrscheinlichkeitsaussagen, die unabhängig von ihrem Wahrheitsgehalt in der realen Welt plausibel erscheinen können.
Folgen unwahrer KI-Aussagen
Vor diesem Hintergrund diskutieren wir die rechtlichen Folgen unwahrer KI-Aussagen. Kann ein KI-Output Persönlichkeitsrechte verletzen, und wenn ja, wessen Verhalten ist maßgeblich, das des Anbieters, des Nutzers oder der Plattform?
Die Folge schließt mit einem Blick auf Datenschutz, Berichtigungsansprüche und die offene Frage, ob das Recht künftig nicht nur KI-Systeme regulieren muss, sondern auch die ausgeprägte Gutgläubigkeit der Menschen, die ihnen gegenübertreten.

Wir bedanken uns bei unserem Gast für die klaren Worte und die anschaulichen Erläuterungen, wünschen viel Vergnügen beim Hören und freuen uns auf Eure Meinungen zum Thema KI und Wahrheit.
Zeitmarken / Kapitelübersicht
- 00:00:00 – Vorstellung des Gastes und Einführung ins Thema.
- 00:03:53 – „Campact vs. X“: Entscheidung des LG zu Aussagen eines KI-Bots.
- 00:15:00 – Kann die Haftung für KI-Chatbots wirksam ausgeschlossen werden?
- 00:21:00 – Macht es rechtlich einen Unterschied, dass KI-Output als „menschlich“ wahrgenommen wird?
- 00:24:00 – Halluzinationen vs. Konfabulationen: Sind diese Begriffe zutreffend – und haben KIs überhaupt einen Wirklichkeitsbezug?
- 00:28:00 – Rechtsfolgen unwahrer KI-Aussagen: Können KI-Systeme .(Unternehmens-)Persönlichkeitsrechte verletzen?
- 00:36:00 – KI als Werkzeug oder als „Täter“? Wer haftet? KI-System, sein Anbieter oder die KI-Nutzer?
- 00:37:00 – Vergleich mit der BGH-Rechtsprechung zur Google-Autocomplete-Funktion.
- 00:44:00 – Gilt die Campact-Entscheidung auch für andere Netzwerke und KI-Chatbots?
- 00:50:00 – Haftung von KI-Nutzern für die Weiterverbreitung unwahrer KI-Aussagen.
- 00:52:30 – Kann X der Entscheidung praktisch nachkommen oder sind Wiederholungen durch KI unvermeidbar?
- 00:57:30 – Datenschutz und KI: Personenbezogene Daten, Recht auf Berichtigung und praktische Umsetzbarkeit.
- 01:05:00 – Ausblick: Wie entwickelt sich KI-Recht weiter und lässt sich die Gutgläubigkeit von Menschen gegenüber KI verhindern?
Einschlägige Veröffentlichungen und Vorträge von Dr. Malte Engeler zum Thema der Folge:
- Anmerkung zur Entscheidung des Landgerichts Hamburg vom 23.09.2025, K&R 2025, 804, zusammen mit Louis Rolfes.
- Unterlassungsansprüche bei der Erzeugung von ehrverletzenden Falschinformationen durch LLMs, Aufsatz in ZD 2024, 496, zusammen mit L. Rolfes.
- Datenschutzrechtliche Korrekturansprüche bei Erzeugung von Falschinformationen durch LLMs, Aufsatz in ZD 2024, 423, zusammen mit L. Rolfes.
- Fascist AI, Vortrag in der Reihe “Loops | New Practice” an der Technischen Universität Berlin, 03.07.2025, zusammen mit tante.
- KI nach dem Kapitalismus: Hat ChatGPT in der besseren neuen Welt einen Platz? Vortrag auf dem 38. Chaos Computer Congress, 29.12.2024, zusammen mit S. Sieron.



Chriss
17. Dezember 2025 at 17:55Warum sind Transkripte so verpönt bzw. warum werde ich 1.15 Std. in den Sessel gezwungen? Wie soll ein interessierter Mensch das bei der Masse schaffen? Ok, ich könnte die Kinder vernachlässigen.
Nein, Transkript mit KI geht nicht, „nicht von der Webseite, nicht nach Download, mp3 Fehler, nicht lesbar …..“. Danke für Nichts!
Thomas Schwenke
18. Dezember 2025 at 14:09Hallo Chriss,
vielen Dank fürs Anhören des Podcasts und für deinen Kommentar.
Es tut mir leid, dass du kein Transkript erzeugen konntest. Ich habe das MP3 testweise selbst transkribiert, das war problemlos möglich. Falls es bei dir nicht wie erwartet funktioniert hat, könnte es helfen, die Datei erneut herunterzuladen oder ein anderes Tool auszuprobieren.
Alternativ kannst du Transkripte auch über andere Plattformen einsehen, zum Beispiel direkt bei Spotify (zumindet in den Spotify-Apps). Hier geht es zur Folge:
https://open.spotify.com/episode/3UGyhtenUe6nuMJGRgCl3n
Falls es dir vor allem um den Zeitaufwand gehen sollte: Viele Podcast-Player bieten die Möglichkeit, Inhalte in höherer Wiedergabegeschwindigkeit anzuhören. Vielleicht hilft auch das.
Ich wünsche dir alles Gute!
Diggy Habermas
27. Dezember 2025 at 18:00Hallo Thomas,
ist eigentlich Absicht, dass Antworten auf Kommentare direkt sichtbar sind?
Neue Toplevel-Kommentare scheinen hingegen bis zur Freigabe versteckt zu sein.
Ansonsten, vielen Dank und weiter so.
„Kapitalismus anzünden“ von Marcus ist immer ein gutes Motto, aber teilst du das eigentlich, oder hast du andere Forderungen, die wir (noch) nicht mit dem Podcast assoziieren?
Hauke
21. Dezember 2025 at 9:49Wie Marcus den Unterschied zwischen AI und Algorithmus erkärt hat, war falsch.
AI ist komplett deterministisch, d. h. es ist komplett klar, welche Schritte ausgeführt werden.Ergebnisse sind auch reproduzierbar, man steckt allerdings meist absichtlich Zufall rein.
Der entscheidende Unterschied ist, dass wir bei Algorithmen by design wissen, wie diese Schritte zu interpretieren sind (also ohne schon auszuführen), während bei AI das nur (approximativ) durch Datenanalyse beim/nach dem ausführen geht.
Diggy Habermas
27. Dezember 2025 at 17:56Stimmt in der Tendenz, aber ein Punkt fehlt: LLMs wirken im Alltag nicht deterministisch, weil sie standardmäßig mit Sampling (temperature > 0) laufen. Mit temperature = 0 wären sie genauso reproduzierbar wie jeder andere Algorithmus. Der eigentliche Unterschied liegt – wie du sagst – nicht im Determinismus, sondern in der fehlenden Interpretierbarkeit der internen Schritte. Genau das macht KI „undurchsichtig“, nicht die Mathematik dahinter.
Side note: Selbst bei temperature = 0 können LLM‑Outputs „in der Cloud“ minimal variieren, weil GPU/TPU‑Batching und Floating‑Point‑Parallelisierung nicht immer bit‑deterministisch sind. Das ist aber ein Hardware‑Detail, kein KI‑Spezifikum.
Side note zur side note:
Und gerade heute auf dem 39C3 wurde wieder gezeigt, wie minimale Änderungen in komplexen, hochparallelen Systemen komplette Havoc‑Effekte auslösen können, bei denen winzige Abweichungen in völlig andere Endergebnisse kaskadieren. Ging nichtmal um formale Verifikation, scheint aber eher dort eine Rolle zu spielen.