EU KI Verordnung einfach erklärt: Was bedeutet sie konkret für dein Unternehmen?

Geschrieben von
Miriam Schäfer
EU KI Verordnung

Die neue EU KI Verordnung regelt den Einsatz von Künstlicher Intelligenz im beruflichen Alltag. Texte entstehen in Sekunden, Bilder auf Knopfdruck – selbst Websites lassen sich heute mit wenigen Prompts bauen. Was vor Kurzem nach Zukunft klang, ist heute fester Bestandteil moderner Arbeitsprozesse, gerade im Marketing und in Webprojekten. Und damit wächst die Unsicherheit: Was darf ich mit KI eigentlich noch machen, und wo wird es rechtlich heikel? Genau hier setzt die EU KI Verordnung an.

Was ist die EU KI Verordnung und warum gibt es sie?

Die EU KI Verordnung – international als „AI Act“ bekannt – ist ein Gesetz der Europäischen Union, das den Einsatz von Künstlicher Intelligenz im beruflichen und wirtschaftlichen Alltag erstmals einheitlich regelt. Ziel: KI-Systeme sicherer, transparenter und nachvollziehbarer machen, ohne Innovation auszubremsen.

Der AI Act lässt sich gut mit der DSGVO vergleichen: So wie die DSGVO festlegt, wie mit personenbezogenen Daten umgegangen werden darf, definiert der AI Act verbindlich, wie Künstliche Intelligenz eingesetzt werden darf und unter welchen Bedingungen sie im Unternehmen erlaubt ist.

Die Verordnung folgt einem risikobasierten Ansatz. Je höher das Risiko eines KI-Systems für Menschen oder gesellschaftliche Prozesse, desto strenger die Anforderungen an Entwicklung und Einsatz.

Ab wann gilt die EU KI Verordnung?

Die Verordnung wurde 2024 verabschiedet und wird seitdem schrittweise eingeführt. Der wichtigste Stichtag für Unternehmen ist der 01.08.2026 – ab dann treten die meisten praktischen Auswirkungen in Kraft.

Die Umsetzung wurde bewusst gestaffelt, damit Unternehmen genug Zeit haben, sich anzupassen:

  • 2024: Verabschiedung und Inkrafttreten der Verordnung
  • 2025: Erste konkrete Pflichten greifen (insbesondere Verbote bestimmter KI-Anwendungen, erste Transparenz- und Grundanforderungen)
  • 01.08.2026: Zentraler Stichtag für die meisten Unternehmen – „Alltagsregeln“ im Umgang mit KI werden verbindlich (betrifft besonders Webagenturen, Marketing, Content und digitale Services)
  • 2027: Vollständige Anwendung besonders komplexer Regeln (v. a. Hochrisiko-KI)

Gilt die EU KI Verordnung auch für Schweizer Unternehmen?

Ja – sobald KI-Systeme für den EU-Markt eingesetzt werden oder EU-Nutzer betroffen sind, gilt der AI Act auch für Schweizer Unternehmen.

Der geografische Sitz des Unternehmens spielt dabei keine entscheidende Rolle. Massgeblich ist, wo die KI eingesetzt wird und wer davon betroffen ist.

Das betrifft viele typische Web- und Marketing-Szenarien:

  • Website mit EU-Besuchern: z. B. eine Schweizer Website, die auch in Deutschland oder Österreich aufgerufen wird.
  • Kunden aus der EU: z. B. Webagentur-Projekte für Unternehmen in Deutschland, Österreich oder anderen EU-Ländern.
  • KI-Tools in digitalen Services: z. B. Chatbots, Content-Systeme oder Automatisierungen, die EU-Nutzer beeinflussen.

Für Schweizer Unternehmen gilt die KI-Verordnung also indirekt mit – immer dann, sobald Services oder digitale Produkte in den EU-Raum hineinwirken.

Für welche Art von KI gilt die Verordnung?

Die EU KI Verordnung unterscheidet KI-Systeme nach ihrem Risiko – von unkritischen Anwendungen bis hin zu komplett verbotenen Einsatzbereichen.

Das Prinzip ist nicht „erlaubt oder verboten“, sondern: Wie stark kann ein System Menschen, Entscheidungen oder die Gesellschaft beeinflussen?

Die 4 Risikostufen im Überblick

Verbotene KI (nicht erlaubt)

Diese KI-Anwendungen sind in der EU komplett untersagt – vor allem dort, wo sie tief in Grundrechte eingreifen würden.

Typische Beispiele:

  • Social Scoring (Bewertung von Menschen anhand ihres Verhaltens)
  • KI zur gezielten Verhaltensmanipulation
  • Bestimmte Formen der biometrischen Echtzeit-Überwachung im öffentlichen Raum (Ausnahme: Strafverfolgung)

Hochrisiko-KI (stark reguliert)

Hier werden die rechtlichen Anforderungen ernst. Dieser Bereich ist für Unternehmen mit KI-Einsatz in sensiblen Bereichen relevant.

Typische Beispiele:

  • KI in Bewerbungs- und Recruiting-Prozessen
  • Kredit- oder Bonitätsentscheidungen
  • Medizinische Diagnosesysteme
  • Systeme in kritischer Infrastruktur

Pflichten in diesem Bereich:

  • Risikomanagement und Kontrolle
  • Nachvollziehbare Entscheidungen, menschliche Aufsicht bei wichtigen Entscheidungen
  • Hochwertige, geprüfte Daten

Begrenztes Risiko (Transparenzpflichten)

Hier geht es nicht um Verbote, sondern um Transparenz gegenüber Nutzern. Kernpunkt: Nutzer müssen erkennen können, wenn sie mit KI interagieren oder KI-Inhalte sehen. Das ist gleichzeitig der Bereich, der Webseitenbetreiber, Webagenturen und Marketer am häufigsten betrifft.

Typische Beispiele:

  • Chatbots auf Websites
  • KI-generierte Inhalte in direktem Kundenkontakt
  • Deepfake-ähnliche Inhalte

Minimales Risiko (frei nutzbar)

Viele alltägliche KI-Anwendungen fallen in diese Kategorie. Regulatorische Anforderungen sind hier minimal – KI kann weitgehend wie bisher genutzt werden.

Typische Beispiele:

  • Spamfilter
  • Empfehlungssysteme
  • Einfache Automatisierungen im Hintergrund

Was ist mit generativer KI wie ChatGPT?

Systeme wie ChatGPT, Gemini, Grok und andere gelten im AI Act als Sonderfall, weil sie so vielseitig eingesetzt werden können. Die gesetzlichen Anforderungen betreffen nicht nur die Anbieter dieser Systeme – sondern genauso Unternehmen, die sie im Arbeitsalltag nutzen.

Wichtige Anforderungen:

  • Kennzeichnung von KI-generierten Inhalten, abhängig vom Nutzungskontext
  • Schutz vor illegalen Inhalten
  • Transparenz über Trainingsdaten
  • Zusätzliche Pflichten für besonders leistungsfähige Modelle („GPAI“)

Was bedeutet die EU KI Verordnung konkret für Webseitenbetreiber, Agenturen und Marketing?

Der AI Act trifft Unternehmen dort, wo KI im beruflichen Alltag steckt: bei Webseiten, Content-Erstellung, Automatisierungen und digitalen Kundenprojekten.

Entscheidend ist dabei, in welcher Rolle ein Unternehmen KI nutzt oder bereitstellt. Der AI Act unterscheidet zwei zentrale Rollen:

  1. Anbieter (Provider): entwickelt und/oder vertreibt ein KI-System
  2. Betreiber (Deployer): nutzt ein KI-System im eigenen Arbeitskontext

Für Webagenturen, Webseitenbetreiber und Marketingteams gilt in der Praxis:

  • Du bist Betreiber, wenn du KI intern nutzt (z. B. für Texte, Bilder, Code oder Automatisierungen)
  • Du bist Anbieter, wenn du KI-Funktionen in Kundenprojekte integrierst (z. B. Chatbots, bestimmte KI-Features auf Webseiten, automatisierte Systeme)

Je nach Rolle ändern sich deine Pflichten im Rahmen der EU KI Verordnung – von einfacher Transparenz bis hin zu umfangreicher Dokumentation und Verantwortung im Projektkontext.

Was sind meine Pflichten, wenn ich KI auf meiner Webseite nutze?

Wenn du KI auf deiner Webseite einsetzt, bist du im Sinne der EU KI Verordnung Betreiber. Trotzdem trägst du – anders als bei rein interner KI-Nutzung – eine Verantwortung gegenüber den Webseite-Nutzern. Hier greifen vor allem Transparenz- und Informationspflichten. KI auf Websites bleibt erlaubt, aber sie muss erkennbar und nachvollziehbar sein.

Sobald KI für Nutzer eine Rolle spielt, darf sie nicht unsichtbar im Hintergrund bleiben. Besonders relevant wird das überall dort, wo Besucher direkt mit KI interagieren oder KI Entscheidungen trifft.

Konkrete Anforderungen für Webseiten

  1. Kennzeichnung der KI-Interaktion (z. B. bei Chatbots): Nutzer müssen erkennen können, dass sie mit einer KI kommunizieren.
  2. Transparenz über automatisierte Inhalte: Wenn Inhalte oder Antworten KI-generiert sind, darf keine Irreführung entstehen.
  3. Klare Abgrenzung zu menschlichen Antworten: Besonders bei Support- oder Beratungsfunktionen wichtig.
  4. Keine täuschende Darstellung von „echten Personen“: KI-Avatare ohne Kennzeichnung wären nicht erlaubt.

Was sind meine Pflichten, wenn ich KI in meinem Content nutze?

KI zur Content-Erstellung ist nach wie vor erlaubt. Entscheidend ist, wie der Content wirkt – und ob er Nutzer täuschen könnte. Sobald KI nach Mensch aussieht oder Entscheidungen von Nutzern beeinflusst, schreibt die EU KI Verordnung eine entsprechende Kennzeichnung vor.

Das gilt für alle typischen Content-Bereiche: Blogs, Texte und Bilder auf Webseiten, Werbebanner, Werbekampagnen-Visuals, Newsletter und E-Mail-Marketing.

Problematisch wird es, wenn Inhalte den Eindruck erwecken, sie seien menschlich oder real, obwohl sie es nicht sind. Die deutlichsten Beispiele: KI-generierte Fotos von Menschen, realistisch wirkende Bilder oder Szenen, die nie stattgefunden haben, und Inhalte, die als echte Erfahrung dargestellt werden, obwohl sie KI-generiert sind.

Nicht jeder dieser Inhalte muss zwingend als KI-generiert gekennzeichnet werden. Aber: Je realistischer und echter der Eindruck, desto wichtiger die klare Einordnung. Entsteht der Eindruck einer realen Person oder echten Erfahrung, ist eine Kennzeichnung sinnvoll. Auch wenn KI eine massgebliche Rolle im Inhalt spielt, ist Transparenz wichtig.

Wichtig ausserdem: Wer Inhalte mit KI erstellt, bleibt als Unternehmen für den finalen Inhalt verantwortlich. Fakten prüfen, keine irreführenden Aussagen, rechtlich relevante Inhalte (z. B. Werbung, Claims) müssen korrekt sein.

Merksatz: Sobald KI nach Mensch aussieht oder Entscheidungen beeinflusst, braucht es eine Kennzeichnung.

Was sind meine Pflichten, wenn ich KI auf Social Media nutze?

Wer KI für Social-Media-Inhalte nutzt – Posts, Reels, Captions, Ads oder visuelle Inhalte – muss sich an Transparenz, Irreführungsschutz und Verantwortlichkeit halten.

Ähnlich wie auf Webseiten und im Content kommt es darauf an, wie du KI-Inhalte einsetzt und ob sie für Nutzer klar als solche erkennbar sind.

Keine Panik: Du musst nicht jeden Post kennzeichnen. Kritisch wird es nur, wenn du KI-Inhalte teilst, die real wirken sollen – z. B. KI-Avatare als „echte Testimonials“, Fake-Situationen in Reels oder KI-simulierte Praxistests. Die zentrale Frage lautet: „Denkt ein durchschnittlicher Nutzer, dass das echt ist?“ Lautet die Antwort Ja, fordert die KI-Verordnung Transparenz. Lautet sie Nein, ist in der Regel keine Kennzeichnung nötig.

Auch hier gilt: Wer Inhalte mit KI erstellt und auf Social Media teilt, ist voll verantwortlich für die Veröffentlichung – nicht das KI-Tool.

Merksatz: Sobald es echt und nicht nach KI aussieht oder Entscheidungen beeinflusst, braucht es eine Kennzeichnung.

Was sind meine Pflichten, wenn ich KI in Kundenprojekte integriere?

Wer KI direkt in Kundenlösungen einbaut – als Webagentur für Websites, als Entwickler für Web-Apps oder andere digitale Services – bewegt sich im AI Act sowohl als Betreiber (Deployer) als auch als Anbieter (Provider). Als Agentur trägst du Mitverantwortung für den KI-Einsatz im Endprodukt.

Was sind typische Beispiele für KI-Integration in Kundenprojekten?

  • Chatbots auf Websites (Kundenservice, Sales-Assistenten)
  • KI-gestützte Empfehlungssysteme (Produkte, Inhalte)
  • Automatisierte Content- oder Textfunktionen
  • Personalisierte Nutzererlebnisse
  • KI-basierte Filter-, Bewertungs- oder Auswahlfunktionen

Welche Pflichten entstehen konkret?

  • Risikoprüfung: Abhängig vom Einsatzbereich und davon, wie stark KI im Betrieb Entscheidungen beeinflusst. Bei höheren Risikogruppen steigen die Anforderungen entsprechend.
  • Verantwortung für das Gesamtsystem: Als Mitverantwortlicher musst du die Funktionsweise der genutzten KI verstehen und Risiken einschätzen können. Ergebnisse müssen überprüfbar bleiben.
  • Transparenz gegenüber Endnutzern: Nutzer müssen erkennen können, wenn KI im Projekt eine Rolle spielt.
    • Hinweise für Chatbots (z. B. „Ich bin ein KI-gestützter Assistent“ oder „Du chattest gerade mit einer KI“)
    • Klare Abgrenzung zu Support durch echte Menschen
    • Keine irreführende Darstellung als echte Menschen
  • Dokumentation: Gerade bei komplexen KI-Integrationen oder höheren Risikogruppen wichtig.
    • Welche KI nutzt du wofür genau?
    • Welche Daten fliessen in die KI?
    • Wer kontrolliert das System und wie?
  • Kontrolle im laufenden Betrieb: KI-Projekte sind selten eine Einmal-Implementierung. Deine Pflichten:
    • Regelmässige Überprüfung von KI-Outputs
    • Monitoring auf Fehlverhalten der KI
    • Anpassung bei Updates oder neuen Risiken

Kurz gesagt: Sobald du KI in Kundenprojekte integrierst, reicht es nicht, sie als Tool zu betrachten. Sie wird Teil deines Produkts und damit Teil deiner Verantwortung.

Die EU KI Verordnung auf einen Blick: Rollen, Anwendungsbereiche & Pflichten

Bereich Kategorie Was bedeutet das? Typische Beispiele Pflichten in der Praxis
Rolle im AI Act Betreiber (Deployer) Nutzt KI im eigenen Unternehmen oder Projekt Webagenturen, Unternehmen mit KI-Tools Verantwortung für korrekte Nutzung, keine Pflicht zur Produkt-Zertifizierung
Anbieter (Provider) Entwickelt oder stellt KI-Systeme bereit KI-Tool-Hersteller, Plattformen Hohe Anforderungen: Dokumentation, Sicherheit, Konformität
Risikoklasse ❌ Verbotene KI KI, die Grundrechte verletzt oder manipuliert Social Scoring, verdeckte Verhaltensmanipulation Komplett verboten
⚠️ Hochrisiko-KI KI mit Einfluss auf wichtige Entscheidungen Recruiting, Kreditvergabe, Medizin Strenge Regeln: Kontrolle, Dokumentation, menschliche Aufsicht
ℹ️ Begrenztes Risiko KI mit Pflicht zur Transparenz Chatbots, KI-Assistenten auf Websites Kennzeichnung + Transparenz gegenüber Nutzern
✅ Minimales Risiko Alltags-KI ohne grosse Auswirkungen Spamfilter, einfache Automatisierung Keine speziellen Pflichten
Anwendungsbereich (Praxis) Interne KI-Nutzung KI wird nur intern genutzt Texte, Bilder, Ideenfindung Verantwortung für Inhalte, keine Kennzeichnungspflicht
KI auf Websites KI ist für Nutzer sichtbar Chatbots, Recommendation-Tools Transparenzpflicht (KI muss als solche erkennbar sein)
KI in Kundenprojekten KI ist Teil eines ausgelieferten Produkts Webapps, Plattformen Risikoanalyse, Dokumentation, klare Nutzerinformation
KI in Content & Social Media KI erstellt Inhalte, die veröffentlicht werden Blog, Posts, Ads, Newsletter Verantwortung + keine Täuschung + ggf. Transparenz
Sonderfall Generative KI KI erstellt Inhalte (Text, Bild, Code) ChatGPT, Gemini Transparenz, keine Irreführung, ggf. Kennzeichnung

Hinweis: Dieser Artikel dient ausschliesslich der allgemeinen Information. Er stellt keine rechtlich verbindliche Auskunft dar und ersetzt keine Rechtsberatung.

Tags: Künstliche IntelligenzRecht
Über die Autor:in

Miriam Schäfer

Social Media und redaktionelle Inhaltspflege rundum.dog seit April 2026. Schreibt für dataloft zu Datenschutz, Online-Recht, Social-Media-Trends und KI-Themen.

→ Wir

Hat dich der Artikel ins Grübeln gebracht?

Wir besprechen sowas gerne im Erstgespräch — schreib uns oder ruf an. Unverbindlich, persönlich, in der Regel innerhalb von 24 Stunden werktags.

→ Direkt zum Kontakt

Wenn du gleich noch was Grösseres anschauen willst

rundum.dog — unsere Hunde-Wissensplattform.

Die grösste deutschsprachige Hunde-Wissensplattform. Unser Eigenprojekt, unser Live-Beweis. Mit ca. einer Million Sessions pro Monat, eigenem KI-Plugin auf Anthropic-API und 17 Custom Post Types.

→ rundum.dog ansehen

Schreib uns oder ruf an.
Wir antworten in der Regel innerhalb von 24 Stunden werktags.

Roger Klein
Geschäftsführer
E-Mail
info@dataloft.ch
Telefon
+41 52 511 05 05
Adresse
dataloft GmbH · Rietweg 1 · 8506 Lanzenneunforn TG