Deepfake-Problem gelöst? Neuer Sensorchip soll digitale Inhalte überprüfbar machen

Geschrieben von
Miriam Schäfer
Fake or Fact Deepfake

Die Qualität von KI-generierten Bildern und Videos hat einen Punkt erreicht, an dem selbst Fachleute Mühe haben, Echtes von Gefälschtem zu unterscheiden. Deepfakes sind längst kein Netzphänomen mehr – sie sind ein handfestes Risiko für Unternehmen, Medien und demokratische Prozesse. Eine neue Entwicklung der ETH Zürich könnte genau hier ansetzen: Sensorchips, die Inhalte bereits bei ihrer Entstehung fälschungssicher machen.

Deepfakes: Mehr als nur ein Medienproblem

Der Begriff Deepfake setzt sich aus „Deep Learning“ und „Fake“ zusammen und bezeichnet mithilfe von Künstlicher Intelligenz erzeugte oder manipulierte Inhalte.

Dazu gehören Videos, in denen Personen scheinbar Dinge sagen oder tun, die nie passiert sind – oft täuschend echt und für Laien kaum noch erkennbar.

Solche Inhalte sind weit mehr als ein Randphänomen. Sie betreffen die Gesellschaft als Ganzes – und verändern, wie wir Informationen wahrnehmen und bewerten.

Was früher als Beweis galt – ein Video, ein Foto, eine Tonaufnahme – verliert an Verlässlichkeit. Mit modernen KI-Systemen lassen sich Inhalte erzeugen, die gezielt Emotionen ansprechen und Meinungen beeinflussen.

Die Auswirkungen sind weitreichend

  • Manipulation der öffentlichen Meinung durch gefälschte Aussagen oder inszenierte Ereignisse
  • Verbreitung von Desinformation in Krisen- oder Konfliktsituationen
  • Verlust von Vertrauen in Medien, Institutionen und digitale Inhalte allgemein
  • Zunehmende Unsicherheit, ob das, was wir sehen, tatsächlich passiert ist

Besonders kritisch ist ein Effekt, der oft unterschätzt wird: Nicht nur Falschinformationen nehmen zu – auch echte Inhalte geraten unter Generalverdacht. Wenn alles manipulierbar erscheint, wird Wahrheit zur Interpretationsfrage.

Deepfakes sind kein isoliertes Technologieproblem. Sie sind eine Herausforderung für Vertrauen, Informationskultur und gesellschaftlichen Zusammenhalt.

Vertrauen durch Technologie – Der Ansatz der ETH Zürich

Forschende der ETH Zürich haben eine Technologie entwickelt, die einen anderen Weg geht als klassische Deepfake-Erkennung.

Statt Manipulationen im Nachhinein aufzudecken, setzt sie beim Ursprung an:

  • Sensoren (z. B. Kameras) erzeugen beim Aufnehmen eines Bildes oder Videos eine kryptografische Signatur
  • Diese Signatur ist fest mit den Originaldaten verbunden
  • Jede nachträgliche Veränderung macht diese Signatur ungültig

Die Echtheit eines Inhalts lässt sich damit jederzeit technisch prüfen – unabhängig davon, wo oder wie er weiterverarbeitet wurde.

Funktionsweise

Das System basiert auf einem einfachen, aber wirkungsvollen Prinzip:

  1. Aufnahme eines Bildes oder Videos durch einen Sensor
  2. Gleichzeitige Erstellung einer kryptografischen Signatur im Chip
  3. Speicherung dieser Signatur in einem öffentlichen Register (z. B. Blockchain)
  4. Spätere Überprüfung durch Abgleich von Inhalt und Signatur

Der entscheidende Vorteil: Vertrauen entsteht nicht mehr durch Plattformen oder Intermediäre, sondern durch überprüfbare Technik.

Von „Fake erkennen“ zu „Echtheit beweisen“

Das ist ein echter Paradigmenwechsel – und genau das macht den Ansatz der ETH Zürich interessant.

Bisherige Lösungen versuchen, Fakes zu identifizieren. Das wird schnell zu einem Wettlauf: KI gegen KI.

Die neuen Sensorchips drehen das Modell um: Nicht die Fälschung wird erkannt, sondern das Original als nachweisbar echt.

Auch die Manipulationshürde steigt erheblich. Wer Inhalte unbemerkt verändern will, müsste den Sensorchip physisch kompromittieren – deutlich aufwändiger als heutige Software-Manipulationen.

Chancen…

Denkbare Einsatzfelder liegen vor allem in diesen Bereichen:

  • Dokumentation und Beweissicherung
  • Journalismus und Medienproduktion
  • Sicherheits- und Überwachungssysteme
  • Versicherungen und Schadensnachweise

Überall dort, wo digitale Inhalte als Beweis dienen, könnte das einen echten Unterschied machen.

Social-Media-Plattformen und Content-Management-Systeme könnten beispielsweise direkt beim Upload prüfen, ob die Signatur gültig ist und mit einem öffentlichen Register übereinstimmt. Manipulierte Inhalte liessen sich so bereits vor der Veröffentlichung erkennen.

… und Grenzen

So vielversprechend die Technologie ist – alle Probleme löst sie nicht:

  • Altbestände: Bereits existierende Inhalte haben keine Signatur
  • Integration: Die Technologie funktioniert nur, wenn Hersteller sie einbauen
  • Standardisierung: Es braucht gemeinsame Protokolle und Schnittstellen
  • Kosten: Hardware-Anpassungen sind aufwändiger als Softwarelösungen

Der Ansatz ist stark – aber nur dann wirksam, wenn er wirklich breit eingesetzt wird.

Meiner Einschätzung nach ist die Idee technisch überzeugend und adressiert ein echtes Kernproblem. Was sie besonders macht: Sie versucht nicht, die Fälschungen zu schlagen, sondern baut das Vertrauen in echte Inhalte systematisch neu auf. Der Erfolg hängt aber stark von der Verbreitung ab. Ohne breite Unterstützung durch Hardware-Hersteller, Plattformen und Standards bleibt das Konzept ein Nischenwerkzeug.

Wer sich mit IT-Sicherheit, digitalen Inhalten und Vertrauen im Netz beschäftigt, wird diese Entwicklung im Blick behalten wollen.

Quelle: ETH Zürich News: Neue Chips gegen Deepfakes

Tags: Künstliche IntelligenzTechnologien
Über die Autor:in

Miriam Schäfer

Social Media und redaktionelle Inhaltspflege rundum.dog seit April 2026. Schreibt für dataloft zu Datenschutz, Online-Recht, Social-Media-Trends und KI-Themen.

→ Wir

Hat dich der Artikel ins Grübeln gebracht?

Wir besprechen sowas gerne im Erstgespräch — schreib uns oder ruf an. Unverbindlich, persönlich, in der Regel innerhalb von 24 Stunden werktags.

→ Direkt zum Kontakt

Wenn du gleich noch was Grösseres anschauen willst

rundum.dog — unsere Hunde-Wissensplattform.

Die grösste deutschsprachige Hunde-Wissensplattform. Unser Eigenprojekt, unser Live-Beweis. Mit ca. einer Million Sessions pro Monat, eigenem KI-Plugin auf Anthropic-API und 17 Custom Post Types.

→ rundum.dog ansehen

Schreib uns oder ruf an.
Wir antworten in der Regel innerhalb von 24 Stunden werktags.

Roger Klein
Geschäftsführer
E-Mail
info@dataloft.ch
Telefon
+41 52 511 05 05
Adresse
dataloft GmbH · Rietweg 1 · 8506 Lanzenneunforn TG