
„Wie Fake News fühlen Sie sich?“
Digitale Bilder, Videos und Audiodateien können heute leicht manipuliert werden. Fälschungen und Desinformation gefährden nicht nur die Meinungsbildung, sondern auch das Vertrauen in Medien, Wissenschaft und Politik. Mit dem Forschungsprojekt VeNIM („Vertrauenskonzept für eine nachhaltige Informations- und Medienarchitektur“) haben das Fraunhofer AISEC und die Universität Passau im Auftrag der Cyberagentur einen Schritt unternommen, um die Echtheit und Herkunft digitaler Inhalte überprüfbar zu machen. Die Ergebnisse wurden am 11. November 2025 in Halle (Saale) vorgestellt.

Vertrauensarchitektur für digitale Inhalte
Ziel von VeNIM war die Entwicklung einer offenen technischen und rechtlichen Architektur, die Authentizität und Integrität digitaler Inhalte überprüfbar macht und gleichzeitig die Privatsphäre der Nutzer schützt. Grundlage dafür ist der internationale Standard C2PA, der im Projekt durch das Konzept C2PAExt erweitert wurde. Damit lassen sich Inhalte technisch verifizieren und nachträglich prüfen, ob sie manipuliert wurden. Ergänzt wird dies durch resilienten Watermarking-Mechanismen, kryptographische Nachweise und Deepfake-Erkennung. Die Verfahren sind zudem post-quanten-resistent, bleiben also auch gegen künftige Quantencomputer sicher.
Die Technologien eignen sich besonders für regulierte Bereiche, etwa für militärische Aufklärungsbilder, bei denen Metadaten zu Änderungen und Zusammenführungen gespeichert und überprüft werden können. So lässt sich nachvollziehen, wie Inhalte entstanden sind und ob Manipulationen vorgenommen wurden.
VeNIM geht jedoch über Technik hinaus: Das Projekt zeigt, dass Vertrauen im digitalen Raum nur durch Kombination von Technologie, Transparenz und Kooperation entstehen kann. Öffentlich-rechtliche Medien, Journalisten und Faktencheck-Institutionen wie CORRECTIV können mit solchen Technologien die Zuverlässigkeit von Informationen besser prüfen und Desinformation wirksam begegnen. Auch die Verantwortung der Nutzer, kritisch mit digitalen Inhalten umzugehen, spielt eine wichtige Rolle.
Praxisnahe Anwendung
In Workshops diskutierten Studenten der Martin-Luther-Universität Halle-Wittenberg über KI-gestützte Verifikationsverfahren, Faktenchecks und Deepfake-Erkennung. VeNIM bietet die Möglichkeit, zu verstehen, wie Technologien die Überprüfung digitaler Inhalte unterstützen können und welche Rolle Redaktionen in Zeiten generativer KI spielen.
VeNIM liefert einen wissenschaftlichen Bauplan für vertrauenswürdige digitale Informationen. Die Forschung zeigt, dass technologische Lösungen, gesellschaftliche Verantwortung und ethische Prinzipien Hand in Hand gehen müssen, um Desinformation zu bekämpfen und die Widerstandsfähigkeit einer vernetzten Gesellschaft zu stärken.
ck









