Das ZDF hat einen Beitrag veröffentlicht, der KI-generiertes Material enthielt. (🌐 Übermedien mit einer erbarmungslosen Beschreibung). Aus diesem Anlass: ein paar steile Thesen, scharfsinnige Beobachtungen und aktuelle Lesetipps.
Vor zwei Wochen hatte ich aus der KI-Fälscherwerkstatt berichtet und gezeigt, wie einfach es ist, mit KI Material zu produzieren, das echt wirkt.
Aus der ZDF-Panne lernen – aber was?
- Das ZDF-Desaster hatte nur am Rande mit KI zu tun – der Beitrag enthielt ja nicht nur die ICE-Videosequenz aus dem KI-Bildgenerator „Sora 2“, der jetzt die Aufgeregten wieder so wunderbar aufgeregt werden lässt, sondern auch eine Oldschool-Fälschung, bei der altes Material aus dem Kontext gerissen und neu publiziert wurde. Das ist ist nur inzwischen fast umständlicher geworden als etwas neu mit KI zu machen. Mangel beim Quellencheck rächen sich um so schneller.
- Früher oder später erwischt es uns alle. Nicht bewusste Fälschungen sind das Problem, sondern der KI-Slop – massenhaft und automatisiert generierter Müll. Als ich diese Woche schnell ein KI-generiertes TikTok suchte, war das fünfte, das mir vorgeschlagen wurde, automatisierter KI-Slop; ich glaube, das gibt die Mengenverhältnisse ganz gut wieder. Die Wahrscheinlichkeit, dass falsches Material in die Quellen rutscht, wenn man die nicht ordentlich prüft, wird dadurch noch mal höher.
- LESETIPP: Die Computerzeitschrift c’t hat dem KI-Slop und seinen Folgen einen großen Teil der aktuellen Ausgabe 5/2026 gewidmet. Sie beschreibt unter anderem die Fälscher-Ökonomie: weshalb es sich lohnt, schnell billige Fakes rauszuhauen.

- Für politisch motivierte Fälscher lohnt sich gerade auch polisch aufgeladenen ragebait, auf Provokation angelegte Schnipsel. Denen, die sie verbreiten, ist es zum größten Teil egal, dass sie fake sind: „Ist doch so, weiß ich doch! Das KI-Video stellt das nur dar!“ (LESETIPP: Der Social-Media-Wissenschaftler Marcus Bösch beschreibt 🌐 in seinem Tiktok-Newsletter das Phänomen des „Vibe“.) Case in point: Jeffrey Epstein.
- Jeffrey Epstein lebt? Ein offensichtlich mit Googles „Nano Banana“ generiertes Fake von Epstein in Israel machte die Runden, obwohl Google eigentlich eine Technik namens „SynthID“ anbietet – und „Nano Banana“ eigentlich Filter enthält, die Bilder von Promis unmöglich machen sollen. Recherche-Guru Henk van Ess beschreibt 🌐 in seinem Newsletter, wie Google den KI-Detektor vor uns versteckt, und dass man den Promis nur eine Sonnenbrille aufsetzen muss, dann ist der Google-Filter ausgehebelt.
- Ein großes Problem sind die lokalen Modelle. Wenn jemand wirklich eine kleine KI-Fälscherwerkstatt betreiben will – sagen wir mal, weil er Eigentümer einer kleinen, inhabergeführten Petersburger Trollfabrik ist – ist er gut beraten, sich eigene Rechner anzuschaffen. KI-Bildgeneratoren aus 🌐 chinesischer oder 🌐 deutscher Fertigunglaufen dann nicht nur fast (strom-)kostenfrei, sondern lassen sich auch an Zielpersonen anpassen und von lästiger Ethik-Filterung befreien.
Erinnert sich noch jemand an meinen kleinen Stimmenklon-Fälschertrick mit einem lokalen Stimmgenerator-Modell auf dem Mac? Was an dem ja total unpraktisch war: dass die Zielperson erst einmal den Beispielsatz vorlesen musste. Braucht es gar nicht. Deshalb jetzt hier die angepasste Variante, bei der man nur 30 Sekunden der Zielperson aufnehmen muss:
uvx –from mlx-audio –prerelease=allow mlx_audio.stt.generate –model mlx-community/Qwen3-ASR-1.7B-5bit –audio „Aufnahme.m4a“ –format txt –language de –output-path test –verbose && rm audio_000.wav && uvx –from mlx-audio –prerelease=allow mlx_audio.tts.generate –model mlx-community/Qwen3-TTS-12Hz-1.7B-Base-bf16 –ref_audio „Aufnahme.m4a“ –lang_code German –ref_text „$(cat test.txt)“ –text „Ich bin ein nigerianischer Prinz. Vertrauen Sie mir, ich weiß, was ich tue, alles was ich brauche, sind Ihre Kreditkartendaten und Ihr E-Mail-Passwort.“ && afplay audio_000.wav
- AI won’t save you. Können KI-Detektoren uns helfen, also KI, die KI-Fakes erkennen können soll? Die 🌐 New York Times hat KI-Detektoren getestet – und beobachtet, dass sie besonders viel Probleme mit Bildern haben, die so ein bisschen KI enthalten– was aus journalistischer Perspektive die besonders gefährlichen KI-Erzeugnisse sind, weil sie jemand ganz gezielt hergestellt hat, um uns zu täuschen.
- C2PA won’t save you. Ole Reissmann vom Spiegel hat einen nüchternen Blick auf einen anderen Rettungsansatz geworfen: Das C2PA-Siegel, mit dem Medien ihre Inhalte digital signieren sollen, um nachzuweisen, dass sie echt sind. Neben den ganzen technischen Problemen leidet das Konzept aber darunter, dass niemand es umsetzt. Den ganzen Talk und mustergültig verlinkte Quellen findet man 🌐 auf Oles Seite.
Um nicht ganz auf die „Doomdoomdoom“-Bassnote zu enden: Wenigstens für das Problem des enormen KI-Energieverbrauchs gibt es eine Lösung. Werbespot für eine tolle Idee von Elon Musk, Jeff Bezos und Sam Altman, das KI-Umweltproblem und die Massenarbeitslosigkeit zu lösen. (🌐 XCancel-Kopie von tXitter). Ist natürlich ein KI-Fake. (via Claus Hesseling)
Auch lesenswert:
- Weshalb du als Mensch mit Gewissen und Verantwortungsgefühl keine KI verwenden solltest (zumindest nicht unkritisch)
- So hilft mir die KI beim Moderieren einer Community
- Wie verhindern wir, dass die Wutmaschine uns alle auffrisst?



Schreibe einen Kommentar