Was können wir noch glauben, wenn real und künstlich verschmelzen?

Wenn wir real gefilmte und künstlich generierte Bilder nicht mehr unterscheiden können, steht mehr auf dem Spiel als nur Medienkompetenz. Es geht um nichts Geringeres als einen neuen gesellschaftlichen Wahrheitsvertrag – und die Frage, ob wir ihn bewusst mitgestalten.

By Thomas Fenkart · 5 min read

Was können wir noch glauben, wenn real und künstlich verschmelzen?

Wir stehen an einem Punkt, an dem das Versprechen der Kamera – „Das ist wirklich passiert“ – brüchig geworden ist. Ende 2025 verschwimmt die Grenze zwischen real gedrehtem und künstlich generiertem Videomaterial so stark, dass selbst Profis ins Schwimmen kommen. Was vor ein, zwei Jahren mit Bildern begann, betrifft nun Bewegtbild, Ton, Stimmen, ganze Persönlichkeiten. Das ist mehr als nur ein technologischer Meilenstein. Es ist ein Angriff auf eine stille Grundannahme unserer Gesellschaft: dass es Dinge gibt, auf die wir uns gemeinsam einigen können, weil sie sichtbar, nachprüfbar, dokumentierbar sind. „Wir verlieren nicht die Realität – wir verlieren die Bequemlichkeit, ihr blind zu vertrauen.“ In diesem Artikel wollen wir die Frage stellen, was wir noch glauben können, wenn diese Unterscheidung nicht mehr gelingt – und welche neuen Mechanismen wir brauchen, um ein Mindestmaß an Grundvertrauen zu bewahren. Wenn der Kamera-Beweis nichts mehr beweist Über hundert Jahre lang galt im Film wie im Journalismus: Das Bild lügt nicht – höchstens der, der es zeigt. Natürlich wussten alle, dass man schneiden, framen, inszenieren kann. Aber irgendwo gab es einen Boden der Tatsächlichkeit: Da war tatsächlich eine Kamera, an einem tatsächlichen Ort, zu einer tatsächlichen Zeit. Mit generativen Modellen kippt genau diese Basissicherheit. Was wir sehen, muss nie „stattgefunden“ haben. Menschen, die nie existierten, halten Reden, die nie gehalten wurden, in Räumen, die nie gebaut wurden. ZAPP hat in einem Videobeitrag diese Frage aufgegriffen und gezeigt, wie schnell wir kaum noch erkennen, was künstlich ist – und wie sehr das unsere Informationskultur unter Druck setzt. Das Problem ist nicht nur die Täuschung selbst. Es ist die Folge, dass alles potenziell als Täuschung abgetan werden kann. Wer unangenehme Wahrheiten leugnen will, braucht künftig keine Gegenbeweise mehr – der Satz „Das ist doch nur ein Deepfake“ reicht, um Zweifel zu säen. Damit verschiebt sich die Beweislast: Nicht mehr die Fälschung muss entlarvt werden, sondern die Echtheit muss aktiv belegt werden. Ein neuer gesellschaftlicher Wahrheitsvertrag Wenn Bilder und Videos als „Selbstbeweis“ ausfallen, brauchen wir neue Formen von Vertrauen. Drei Ebenen zeichnen sich ab: 1. Technische Verifizierbarkeit Wir werden Mechanismen brauchen, die Herkunft und Veränderung von Medien transparent machen – eine Art „digitale Provenienzspur“. Schon heute arbeiten Initiativen wie die C2PA an Standards, bei denen Metadaten kryptografisch signiert werden: Wer hat wann womit aufgenommen oder generiert, was wurde bearbeitet? Für Medienhäuser, Plattformen und auch SaaS-Anbieter im GenAI-Bereich bedeutet das: Content-Authentizität wird zur Pflichtaufgabe und irgendwann wohl zum rechtlichen Standard. 2. Institutionelles Vertrauen Wenn das einzelne Video nicht mehr zuverlässig ist, wird die Frage wichtig: Wer steht dafür ein? Glaubwürdige Institutionen, die sich auf klare Prüfprozesse und Offenlegungspflichten einlassen, werden an Bedeutung gewinnen. Zur Wahrheit gehört dann nicht nur der Inhalt, sondern der Kontext: Redaktion, Methodik, Korrekturmechanismen. 3. Individuelle Urteilskraft Am Ende führt kein Weg daran vorbei, dass wir als Individuen kritischer werden. Nicht im Sinne eines pauschalen Misstrauens („Alles ist Lüge“), sondern eines geschärften Sinns für Plausibilität, Quellen, Widersprüche. Kritisches Denken ist kein „Nice-to-have“ mehr, sondern ein Basisskill wie Lesen und Schreiben. Diese drei Ebenen – Technik, Institutionen, Individuen – bilden einen neuen Wahrheitsvertrag. Er funktioniert nur, wenn alle drei Seiten aktiv mitspielen. Chance oder Kontrollverlust? Was diese Krise mit uns macht Die Aussicht, der eigenen Wahrnehmung nicht mehr trauen zu können, ist verstörend. Gleichzeitig steckt darin eine Chance, die wir als Gesellschaft bisher selten genutzt haben: die Chance, unsere eigenen Mechanismen der Glaubensbildung überhaupt sichtbar zu machen. Wir waren lange gewohnt, Bildern und Videos eine Art Default-Vertrauen zu schenken. „Ich hab’s ja gesehen“ war ein starkes Argument – oft stärker als Quellenkritik oder langfristige Evidenz. Mit generativen Medien fällt dieser Komfort weg. Das kann zwei sehr unterschiedliche Reaktionen auslösen: - Zynischer Rückzug: „Man kann sowieso nichts glauben.“ Hier kippt Skepsis in Beliebigkeit. Wer alles anzweifelt, macht sich paradoxerweise besonders manipulierbar, weil am Ende das attraktivste Narrativ gewinnt, nicht das plausibelste. - Reflektierte Wachheit: „Ich überprüfe, wie ich zu meinem Glauben komme.“ Das ist anstrengender, aber produktiv. Es führt dazu, dass wir nicht nur den Inhalt sehen, sondern die Produktionsbedingungen mitdenken: Wer profitiert? Welche Lücken gibt es? Welche alternativen Erklärungen wären möglich? Vielleicht ist genau das der eigentliche Kulturwandel, in den wir gerade hineinstolpern: weg vom naiven Realismus des Bildes, hin zu einem bewussteren Umgang mit Narrativen, Belegen, Kontexten. Welche Mechanismen wir uns jetzt aneignen sollten Die entscheidende Frage ist nicht, ob generative Medien unseren Umgang mit Wahrheit verändern – das ist längst passiert. Die Frage ist, wie wir aktiv gegensteuern, statt nur passiv zu reagieren. Ein paar konkrete Prinzipien, die wir uns als Individuen und Organisationen aneignen sollten: 1. Standardmäßig Kontext mitliefern Wer Inhalte veröffentlicht – ob als Medienhaus, Unternehmen oder Creator – sollte Herkunft, Bearbeitung und Intention offenlegen. „Bare Content“ ohne Kontext ist in einer Deepfake-Ära ein Risiko. 2. Authentizität technisch absichern, nicht nur behaupten Digitale Signaturen, Provenienz-Standards, Wasserzeichen für synthetische Inhalte: All das sind keine Kür, sondern die neue Grundlage, wenn wir Vertrauen skalieren wollen. Gerade im GenAI-SaaS-Bereich ist das Teil der Produktverantwortung. 3. Kritische Routinen etablieren Für Einzelne heißt das: eine Handvoll Fragen verinnerlichen, bevor man etwas glaubt oder teilt. Zum Beispiel: Wer sagt das? Welche unabhängigen Quellen gibt es? Was wäre ein Gegenbeweis? Für Teams heißt es: Redaktions- oder Prüfprozesse schaffen, die synthetische Inhalte als Option mitdenken. 4. Akzeptieren, dass Zweifel normal wird Wir werden nie wieder in eine Zeit zurückkehren, in der ein Video „einfach so“ Beweis ist. Das muss nicht das Ende von Vertrauen sein – aber es ist das Ende von blindem Vertrauen. Ein gewisses Maß an konstruktivem Zweifel gehört künftig dazu. Wenn real und künstlich nicht mehr zu unterscheiden sind, verlieren wir vermeintliche Gewissheiten. Wir gewinnen aber die Möglichkeit, bewusster zu entscheiden, worauf wir unser Vertrauen gründen: auf überprüfbare Herkunft, transparente Prozesse und eine Kultur, die kritische Fragen nicht als Störung, sondern als Grundlage von Miteinander versteht. Und hier gehts zum Beitrag des Medienmagazins ZAPP: https://www.youtube.com/watch?v=tXsORfMcVyw