Die Qualität von KI-generierten Bildern und Videos hat einen Punkt erreicht, an dem selbst Fachleute Mühe haben, Echtes von Gefälschtem zu unterscheiden. Deepfakes sind längst kein Netzphänomen mehr – sie sind ein handfestes Risiko für Unternehmen, Medien und demokratische Prozesse. Eine neue Entwicklung der ETH Zürich könnte genau hier ansetzen: Sensorchips, die Inhalte bereits bei ihrer Entstehung fälschungssicher machen.
Deepfakes: Mehr als nur ein Medienproblem
Der Begriff Deepfake setzt sich aus „Deep Learning“ und „Fake“ zusammen und bezeichnet mithilfe von Künstlicher Intelligenz erzeugte oder manipulierte Inhalte.
Dazu gehören Videos, in denen Personen scheinbar Dinge sagen oder tun, die nie passiert sind – oft täuschend echt und für Laien kaum noch erkennbar.
Solche Inhalte sind weit mehr als ein Randphänomen. Sie betreffen die Gesellschaft als Ganzes – und verändern, wie wir Informationen wahrnehmen und bewerten.
Was früher als Beweis galt – ein Video, ein Foto, eine Tonaufnahme – verliert an Verlässlichkeit. Mit modernen KI-Systemen lassen sich Inhalte erzeugen, die gezielt Emotionen ansprechen und Meinungen beeinflussen.
Die Auswirkungen sind weitreichend
- Manipulation der öffentlichen Meinung durch gefälschte Aussagen oder inszenierte Ereignisse
- Verbreitung von Desinformation in Krisen- oder Konfliktsituationen
- Verlust von Vertrauen in Medien, Institutionen und digitale Inhalte allgemein
- Zunehmende Unsicherheit, ob das, was wir sehen, tatsächlich passiert ist
Besonders kritisch ist ein Effekt, der oft unterschätzt wird: Nicht nur Falschinformationen nehmen zu – auch echte Inhalte geraten unter Generalverdacht. Wenn alles manipulierbar erscheint, wird Wahrheit zur Interpretationsfrage.
Deepfakes sind kein isoliertes Technologieproblem. Sie sind eine Herausforderung für Vertrauen, Informationskultur und gesellschaftlichen Zusammenhalt.
Vertrauen durch Technologie – Der Ansatz der ETH Zürich
Forschende der ETH Zürich haben eine Technologie entwickelt, die einen anderen Weg geht als klassische Deepfake-Erkennung.
Statt Manipulationen im Nachhinein aufzudecken, setzt sie beim Ursprung an:
- Sensoren (z. B. Kameras) erzeugen beim Aufnehmen eines Bildes oder Videos eine kryptografische Signatur
- Diese Signatur ist fest mit den Originaldaten verbunden
- Jede nachträgliche Veränderung macht diese Signatur ungültig
Die Echtheit eines Inhalts lässt sich damit jederzeit technisch prüfen – unabhängig davon, wo oder wie er weiterverarbeitet wurde.
Funktionsweise
Das System basiert auf einem einfachen, aber wirkungsvollen Prinzip:
- Aufnahme eines Bildes oder Videos durch einen Sensor
- Gleichzeitige Erstellung einer kryptografischen Signatur im Chip
- Speicherung dieser Signatur in einem öffentlichen Register (z. B. Blockchain)
- Spätere Überprüfung durch Abgleich von Inhalt und Signatur
Der entscheidende Vorteil: Vertrauen entsteht nicht mehr durch Plattformen oder Intermediäre, sondern durch überprüfbare Technik.
Von „Fake erkennen“ zu „Echtheit beweisen“
Das ist ein echter Paradigmenwechsel – und genau das macht den Ansatz der ETH Zürich interessant.
Bisherige Lösungen versuchen, Fakes zu identifizieren. Das wird schnell zu einem Wettlauf: KI gegen KI.
Die neuen Sensorchips drehen das Modell um: Nicht die Fälschung wird erkannt, sondern das Original als nachweisbar echt.
Auch die Manipulationshürde steigt erheblich. Wer Inhalte unbemerkt verändern will, müsste den Sensorchip physisch kompromittieren – deutlich aufwändiger als heutige Software-Manipulationen.
Chancen…
Denkbare Einsatzfelder liegen vor allem in diesen Bereichen:
- Dokumentation und Beweissicherung
- Journalismus und Medienproduktion
- Sicherheits- und Überwachungssysteme
- Versicherungen und Schadensnachweise
Überall dort, wo digitale Inhalte als Beweis dienen, könnte das einen echten Unterschied machen.
Social-Media-Plattformen und Content-Management-Systeme könnten beispielsweise direkt beim Upload prüfen, ob die Signatur gültig ist und mit einem öffentlichen Register übereinstimmt. Manipulierte Inhalte liessen sich so bereits vor der Veröffentlichung erkennen.
… und Grenzen
So vielversprechend die Technologie ist – alle Probleme löst sie nicht:
- Altbestände: Bereits existierende Inhalte haben keine Signatur
- Integration: Die Technologie funktioniert nur, wenn Hersteller sie einbauen
- Standardisierung: Es braucht gemeinsame Protokolle und Schnittstellen
- Kosten: Hardware-Anpassungen sind aufwändiger als Softwarelösungen
Der Ansatz ist stark – aber nur dann wirksam, wenn er wirklich breit eingesetzt wird.
Meiner Einschätzung nach ist die Idee technisch überzeugend und adressiert ein echtes Kernproblem. Was sie besonders macht: Sie versucht nicht, die Fälschungen zu schlagen, sondern baut das Vertrauen in echte Inhalte systematisch neu auf. Der Erfolg hängt aber stark von der Verbreitung ab. Ohne breite Unterstützung durch Hardware-Hersteller, Plattformen und Standards bleibt das Konzept ein Nischenwerkzeug.
Wer sich mit IT-Sicherheit, digitalen Inhalten und Vertrauen im Netz beschäftigt, wird diese Entwicklung im Blick behalten wollen.