Zum Hauptinhalt springen

Alle Artikel

EU AI Act Art. 50: Was eure UI ab 02.08.2026 zeigen muss (sonst kostet es 15 Mio)

Ab 02.08.2026 muss jede KI sich selbst outen. Chatbot-Disclosure, Watermark, Deepfake-Label, Emotion-Recognition-Hinweis. Verstoss = bis 15 Mio EUR oder 3%.

Sebastian Lang8. Mai 202610 Min. Lesezeit

Ab 02.08.2026 muss jede KI in eurem Produkt sich selbst outen. 4 von 5 DACH-Mittelstaendlern haben die UI noch nicht angepasst. Das kostet bis zu 15 Mio EUR oder 3% globalen Jahresumsatz, je nachdem was hoeher ist. Nicht 35 Mio, das ist Art. 5. Aber 15 Mio fuer einen 80 Mio Umsatz-Maschinenbauer aus Andernach, Heilbronn oder Bielefeld ist immer noch die Quartalsmarge. Art. 50 ist der Paragraph mit der kuerzesten Implementierungs-Halbwertszeit im gesamten AI Act: 4 Pflichten, 4 unterschiedliche Adressaten, ein Stichtag, und ein Bussgeldrahmen, der die meisten Aufsichtsraete falsch zitieren.

Was Art. 50 wirklich verlangt

Vier Absaetze, vier Pflichten. Drei treffen euch fast garantiert, einer haengt am Use-Case. Hier die Kurzform, vor der Detailtiefe.

AbsatzAdressatPflichtTypischer Trigger
Art. 50 Abs. 1ProviderKI-System, das direkt mit Menschen interagiert, muss als KI erkennbar seinChatbot, Voice-Assistant, AI-Companion, Copilot
Art. 50 Abs. 2ProviderSynthetischer Audio-, Bild-, Video-, Text-Output muss maschinenlesbar als KI-generiert markiert seinBildgenerator, Voice-Cloning, GPT-Output
Art. 50 Abs. 3DeployerBei Emotion-Recognition oder Biometric-Categorization muessen Betroffene informiert werdenHR-Sentiment-Tool, Call-Center-Stimmungsanalyse
Art. 50 Abs. 4DeployerDeepfake-Bild, -Audio, -Video muss als kuenstlich erzeugt gekennzeichnet seinMarketing-Avatar, KI-Stimme im Werbeclip, Schulungs-Video

Die Information muss nach Art. 50 Abs. 5 "klar und unterscheidbar, spaetestens zum Zeitpunkt der ersten Interaktion oder Exposition" geliefert werden. Uebersetzt: vor dem ersten Klick, nicht im Footer, nicht in den AGB, nicht im Cookie-Banner-Scroll.

Diagramm: Art. 50 Pflichten-Matrix Provider vs Deployer

Provider vs. Deployer: wer kennzeichnet was

Die haeufigste Verwechslung im DACH-Mittelstand. Die Pflichten von Abs. 1 und 2 treffen den Provider, also wer das KI-System baut, trainiert oder substantiell anpasst. Die Pflichten von Abs. 3 und 4 treffen den Deployer, also wer ein KI-System professionell einsetzt.

Konkret: kauft ihr ChatGPT Enterprise und integriert es in eure Customer-Support-UI, seid ihr Deployer. OpenAI ist Provider. Bei Abs. 1 (Chatbot-Erkennung) sitzt die Pflicht bei OpenAI: das System muss so designt sein, dass die Erkennbarkeit moeglich ist. Aber wenn ihr es so einbettet, dass der Kunde nicht merkt, dass er mit KI spricht, seid ihr selbst in der Pflicht: der Deployer-Hinweis aus Art. 50 Abs. 4 fuer KI-generierten Output und die Mitwirkungspflicht zur Kenntlichmachung sitzen bei euch. (Hinweis: Die Wertschoepfungs-Regeln in Art. 25 und die Deployer-Pflichten in Art. 26 greifen erst, wenn der Use-Case in Annex-III-Hochrisiko-Territorium kippt, fuer einen reinen Customer-Support-Bot meist nicht der Fall.)

Trainiert ihr ein Modell selbst, fine-tuned ihr ein Open-Source-LLM auf eure Domaene, oder buendelt ihr eine generative KI als white-label in euer Produkt: ihr seid Provider. Dann sitzt jede der vier Pflichten bei euch.

Praxis-Faustregel: wenn euer Logo auf der Produkt-UI steht und der Endkunde euch in Haftung nimmt, traegt ihr die Deployer-Pflicht, oft auch die Provider-Pflicht.

Art. 50 Abs. 1: Chatbot-Outing

Der Originaltext ist nuechtern: Provider muessen sicherstellen, dass natuerliche Personen "informiert sind, dass sie mit einem KI-System interagieren". Ausnahme: wenn das aus Sicht einer "vernuenftigerweise gut informierten, aufmerksamen und umsichtigen" Person offensichtlich ist.

Die Ausnahme ist viel schmaler als 90% der LinkedIn-Posts behaupten. Ein Chatbot mit einem Roboter-Avatar und dem Namen "Bot-Assistent Lisa" ist nicht automatisch offensichtlich, weil viele Customer-Support-UIs Mitarbeiter-Avatare und Vornamen einsetzen. Voice-Assistants, die menschliche Stimmen klonen, sind explizit nicht offensichtlich. Selbst der "Hallo, ich bin der KI-Assistent" Disclaimer am Anfang reicht nicht, wenn die Konversation laenger ist als ein paar Turns: nach 30 Minuten denkt der Kunde nicht mehr an den initialen Hinweis.

Was ihr konkret braucht:

  • Persistenter "KI-Assistent" Badge in der Konversations-UI, nicht nur am Anfang.
  • Deutliche Sprache: "Du chattest mit einer KI" oder "AI Assistant", nicht "virtueller Mitarbeiter" oder "smart agent".
  • Bei Voice: explizite Ansage am Anfang und vor jedem Sub-Flow, der einen Mensch suggerieren koennte (z.B. Beschwerde-Eskalation).
  • Audit-Trail: Logging, dass der Hinweis ausgespielt wurde, mit Timestamp.

Ausnahme von der Ausnahme: Strafverfolgungs-Tools (Art. 50 Abs. 1 Satz 2). Fuer 99,9% des Mittelstands irrelevant.

Art. 50 Abs. 2: Synthetic Content Maschinen-Lesbarkeit (C2PA)

Hier wird es technisch. Provider von KI-Systemen, die synthetischen Audio-, Bild-, Video- oder Text-Output generieren, muessen sicherstellen, dass dieser Output "in einem maschinenlesbaren Format markiert und als kuenstlich erzeugt oder manipuliert erkennbar" ist.

Der praktische Standard, auf den die EU-Kommission, das AI-Office und die grossen Plattformen zusteuern, heisst C2PA (Coalition for Content Provenance and Authenticity). C2PA legt kryptografisch signierte Metadaten in den Content-Container, die Herkunft, Authoring-Tool und Bearbeitungs-Historie offenlegen. Adobe, Microsoft, Sony, OpenAI, Google haben sich committet. Fuer JPEG, MP4, WAV, PNG ist C2PA der Default. Fuer reinen Text gibt es noch keinen einheitlichen Standard, in der Praxis nutzen viele provenance-tags im HTML oder Wasserzeichen-Token-Patterns.

Ausnahme: das Modell uebt nur "assistive editing" aus oder veraendert die Eingabe nicht substanziell. Beispiel: Auto-Korrektur in Word ist nicht Art. 50 Abs. 2, AI-generiertes Bild aus Midjourney ist es.

Was ihr konkret braucht (als Provider):

  • C2PA-Manifest fuer alle generativen Outputs.
  • Watermark-Detection-API, die Plattformen abfragen koennen.
  • Dokumentation, dass der Watermark "robust und zuverlaessig" ist (also nicht durch Crop, Re-Save, JPEG-Recompression killbar).
  • Bei Text: provenance-meta in HTML oder ein lookup-faehiges Token-Signaturschema.

Was ihr braucht (als Deployer): nichts direkt aus Abs. 2, aber Abs. 4 zieht oft, sobald ihr den Output an Endkunden weiterspielt.

Art. 50 Abs. 3: Emotion-Recognition Disclosure

Wer ein Emotion-Recognition-System oder ein Biometric-Categorization-System einsetzt, muss die betroffenen Personen ueber den Betrieb des Systems informieren, und muss die Verarbeitung nach DSGVO durchfuehren.

Klingt eng, ist es nicht. Was ist Emotion-Recognition? Jedes System, das Emotionen oder Intentionen aus biometrischen Daten ableitet. Stimmungsanalyse aus Stimme im Call-Center: ja. Burnout-Praediktion aus Tippmustern: ja. Sentiment aus Gesichtsausdruck im Sales-Call: ja. Wir sehen das in Schulungs-Tools, in Customer-Experience-Plattformen, in HR-Tech (selbst wenn HR-Use-Cases meist auch unter Annex III als Hochrisiko fallen, womit zusaetzliche Pflichten kommen).

Biometric-Categorization: Zuordnung in Kategorien anhand biometrischer Daten. Wenn ein System aus dem Foto Alter, Geschlecht oder Stimmung schaetzt, fuer Marketing-Targeting: ja. Hier ueberlappt Art. 50 stark mit der Verbots-Liste in Art. 5 (kategorisierung nach sensiblen Attributen wie Religion, sexuelle Orientierung). Wenn euer System in einer dieser sensiblen Kategorien sortiert: das ist Art. 5, Tier 1 Bussgeld bis 35 Mio.

Was ihr konkret braucht:

  • Pre-Interaction-Notice, der das Sentiment-Tool offenlegt: "Dieses Gespraech wird automatisch auf Tonfall analysiert".
  • DSGVO-Pflichten parallel: Rechtsgrundlage (idR Art. 6 Abs. 1 lit. f mit Interessenabwaegung), Information nach Art. 13 DSGVO, Loeschkonzept.
  • Opt-Out-Pfad. Auch wenn DSGVO theoretisch ueber legitimes Interesse oder Vertrag traegt, ist die DACH-Aufsichtspraxis bei Emotion-Recognition extrem streng. Mehr dazu in unserem DSGVO + Agentic AI Production Guide.

Art. 50 Abs. 4: Deepfake-Kennzeichnung

Deployer, die Deepfake-Bild-, Audio- oder Videocontent generieren oder manipulieren, muessen offenlegen, dass der Content kuenstlich erzeugt wurde. Das gilt unabhaengig davon, ob ihr Provider seid oder nur ein Tool benutzt.

Das ist der Paragraph, an dem die Marketing-Abteilungen 2026 reihenweise auflaufen. Konkrete Faelle:

  • KI-generierter CEO-Avatar im Imagefilm: Deepfake-Label notwendig.
  • Voice-Cloning-Stimme im Erklaervideo (nicht der echte CEO): Deepfake-Label.
  • KI-generierter Product-Spokesperson-Charakter: Deepfake-Label, auch wenn fiktiv.
  • Stockfoto-aussehende KI-Bilder im Blog-Header: Abs. 4 ist hier weicher, weil "deep fake" auf realistisches Imitieren echter Personen abzielt; aber Abs. 2 (Provider-Watermark) trifft zu, und in der Praxis wird "AI-generated"-Disclaimer Standard.

Die wichtige Ausnahme: kuenstlerisch, kreativ, satirisch, fiktional. Aber selbst dann muss in einer "geeigneten Weise, die Darstellung oder Genuss des Werkes nicht behindert" offengelegt werden, dass es sich um generierten Content handelt. Versteckter Hinweis im Abspann reicht. Komplettes Verschweigen reicht nicht.

Zweiter Halbsatz, oft vergessen: KI-generierter Text mit "Information der Oeffentlichkeit ueber Angelegenheiten von oeffentlichem Interesse" muss als KI-generiert offengelegt werden. Ausnahme: menschliche Review oder redaktionelle Verantwortung. Fuer eure Marketing-Blog-Posts, die ein Praktikant schnell mit GPT generiert und ohne Review veroeffentlicht: Pflicht zur Offenlegung. Wenn der Marketing-Lead jeden Post redaktionell verantwortet: keine Pflicht aus Abs. 4 Halbsatz 2 (aber Abs. 2 Provider-Watermark bleibt).

Die Ausnahmen die niemand richtig versteht

Drei Ausnahme-Kategorien, drei Verwechslungsfallen.

Strafverfolgung (Art. 50 Abs. 1 Satz 2, Abs. 3 Satz 2). Polizei und Strafverfolgung duerfen ohne Disclosure arbeiten, mit Schutzklausel. Hat fuer 99,9% des Mittelstands keine Relevanz. Ausnahme: ihr arbeitet als IT-Dienstleister fuer Behoerden, dann muss euer Vertrag das explizit abbilden.

Kuenstlerischer/satirischer Content (Art. 50 Abs. 4 Satz 2). Reduziert die Pflicht, beseitigt sie nicht. Es bleibt eine "geeignete" Offenlegung, die das Werk nicht zerstoert. Subtitle-Hinweis "AI-generated", Credits-Eintrag, oder ein dezenter Watermark. Was nicht reicht: gar kein Hinweis.

Maschinenlesbar reicht oft nicht. Abs. 2 verlangt maschinenlesbare Markierung (Provider-Pflicht). Aber Abs. 4 verlangt fuer Deepfakes "Offenlegung", was nach Abs. 5 "klar und unterscheidbar fuer den natuerlichen Menschen" sein muss. Ein C2PA-Tag im Hintergrund-XMP genuegt nicht, wenn der Endnutzer es nicht sieht. Doppelpflicht: maschinenlesbarer Watermark und sichtbares Label.

Was 02.08.2026 wirklich aktiviert (vs. 02.08.2027)

Der Stichtag wird konstant falsch zitiert. Die Tatsachen:

  • 02.02.2025: Verbote nach Art. 5 (verbotene KI-Praktiken) und AI-Literacy-Pflicht aus Art. 4 sind aktiv.
  • 02.08.2025: GPAI-Pflichten aus Art. 53 ff. fuer neue Modelle sind aktiv. Mehr in unserem GPAI-Pflichten-Guide.
  • 02.08.2026: Sanktionen fuer Art. 50 (Transparenz-Pflichten) werden vollstreckbar. Hochrisiko-System-Pflichten fuer Annex-III-Standalone-Systeme (HR, Bildung, Kreditscoring, kritische Infrastruktur) sind voll bussgeldbewehrt. (Die zentralen Governance-Strukturen wie AI Office und nationale Aufsichtsbehoerden gelten bereits seit 02.08.2025 nach Art. 113 lit. b.)
  • 02.08.2027: Hochrisiko-Pflichten nach Art. 6 Abs. 1 fuer KI, die in Annex-I-Produkte eingebettet ist (Maschinen, Medizinprodukte, Spielzeug, weitere Union-Harmonisierungs-Rechtsakte) werden voll wirksam.

Heisst: ab dem 02.08.2026 koennen Aufsichtsbehoerden Bussgelder fuer Verstoesse gegen Art. 50 verhaengen. Und sie werden. Die Bundesnetzagentur als nationale Aufsicht in Deutschland baut seit Q1/2026 die Personal- und Sanktions-Pipeline auf. Wer am 03.08.2026 noch Chatbots ohne Disclosure-Banner laufen hat, ist erstes Ziel.

Bussgeld-Anker

Ein Verstoss gegen Art. 50 ist ein Verstoss gegen "Pflichten der Provider und Deployer", was nach Art. 99 Abs. 4 Tier 2 bedeutet: bis zu 15 Mio EUR oder 3% des globalen Jahresumsatzes, je nachdem was hoeher ist. Nicht 35 Mio (das ist Art. 5, Tier 1). Nicht 7,5 Mio (das ist Tier 3 fuer Falschauskunft an Behoerden).

Fuer einen 200 Mio Umsatz-Mittelstaendler heisst das: 6 Mio EUR maximales Bussgeld. Und SME-Sondernorm aus Art. 99 Abs. 6 greift: bei kleinen und mittleren Unternehmen gilt der niedrigere der beiden Werte, nicht der hoehere. Fuer einen 80 Mio EUR Maschinenbauer waeren das also "nur" 2,4 Mio EUR statt 15 Mio. Trotzdem ein Quartal Marge weg, plus Reputations-Schaden, plus Folge-Untersagung, plus DSGVO-Parallelverfahren. Detail-Mathematik in unserem Bussgeld-Mythos-Artikel.

5 Sofort-Aktionen 90 Tage

Wenn ihr jetzt anfangt, schafft ihr es zum 02.08.2026. Wenn ihr Anfang Juli anfangt, nicht mehr.

  1. UI-Audit aller Customer-faehigen KI-Systeme. Wer im Produkt direkt mit Endkunden interagiert? Chatbots, Voice-IVR, Recommendations, KI-Mail-Antworten. Liste mit Owner und Disclosure-Status. Realistisch zwei bis drei Tage Arbeit fuer ein 50-Personen-Unternehmen.

  2. Chatbot-Disclosure-Banner einbauen. Persistenter Badge in der Konversations-UI, deutsche und englische Sprachversion, mobile-tested. Das ist ein Frontend-Ticket, kein Forschungsprojekt. Ein Sprint reicht.

  3. Generative-Content-Watermarking-Plan (C2PA). Wer ist Provider in eurem Setup? Wenn ihr selbst Modelle trainiert oder fine-tuned: C2PA-Manifest in den Output-Pipeline. Wenn ihr ein Vendor-Modell whitelabel weitergebt: Vertrag pruefen, Watermark-Pass-Through sicherstellen.

  4. Deployer-Inventory mit Kennzeichnungs-Status. Pflicht aus AI-Audit-Readiness: jedes KI-System gelistet, klassifiziert (Risikoklasse), und Art. 50 Pflichten-Status (Abs. 1, 3, 4). Geht direkt in die 90-Tage Audit-Readiness-Roadmap.

  5. Legal-Review aller Marketing-Materialien. Wer hat 2025 KI-Avatare, Voice-Clones, generierte Bilder produziert? Was ist davon noch live? Welche Materialien brauchen ein "AI-generated"-Label? Faustregel: alles, was nach Mitte 2024 mit generativer KI entstanden ist, muss durch den Filter.

FAQ

Wenn meine UI bereits einen "powered by AI" Footer hat, reicht das? Nein. Art. 50 Abs. 5 verlangt "klar und unterscheidbar zum Zeitpunkt der ersten Interaktion". Footer wird nicht gelesen. Es muss Pre-Interaction sein, idealerweise persistent.

Wir nutzen ChatGPT Enterprise nur intern. Trifft uns Art. 50? Abs. 1 (Chatbot) ja, wenn Mitarbeiter exponiert sind und es nicht offensichtlich KI ist (was bei Custom-GPTs mit eigenen Namen oft so ist). Abs. 3 (Emotion-Recognition) und Abs. 4 (Deepfake) treffen euch nur, wenn ihr in den Use-Cases drin seid. Aber Art. 4 (AI-Literacy) trifft euch auch fuer rein interne Use-Cases.

Reicht ein C2PA-Watermark, oder brauche ich beides? Beides, wenn ihr Deepfakes ausspielt. C2PA ist die maschinenlesbare Provider-Pflicht aus Abs. 2. Sichtbares Label ist die Deployer-Pflicht aus Abs. 4 in Verbindung mit Abs. 5. Aufsichtspraxis: ohne sichtbaren Hinweis ist die Offenlegung nicht "klar und unterscheidbar".

Was ist mit Bestandskunden, die unsere KI seit 2024 nutzen? Stichtag 02.08.2026 ist nicht "ab Vertragsschluss", sondern "ab Einsatz-Datum". Wer am 03.08.2026 noch produktiv ohne Disclosure laeuft, ist im Verstoss, unabhaengig davon wann der Vertrag unterschrieben wurde.

Quellen

  • AI Act Verordnung 2024/1689, Art. 50 (Original): artificialintelligenceact.eu/article/50
  • AI Act Service Desk EU-Kommission, Art. 50: ai-act-service-desk.ec.europa.eu
  • EU-Kommission, Code of Practice on AI-generated Content Marking and Labelling
  • C2PA Standard (Coalition for Content Provenance and Authenticity): c2pa.org
  • Bird & Bird, Draft Transparency Code of Practice (2026)
  • AI Act Verordnung 2024/1689, Art. 99 Abs. 4 (Tier 2 Bussgeldrahmen)

Wir machen den UI-Compliance-Audit fuer Art. 50

14 Tage. Wir mappen jedes KI-System in eurem Produkt-Stack auf die vier Art. 50 Pflichten, liefern eine Frontend- und Vertrags-Massnahmenliste, und lassen euch zum Stichtag 02.08.2026 sauber dastehen. Co-fundiert von einem Team, das selbst Provider und Deployer ist.

Termin buchen

Verwandte Artikel: AI Act 90-Tage Compliance-Plan, GPAI-Pflichten August 2026, Bussgeld-Mythos, AI-Audit-Readiness 90 Tage, DSGVO + Agentic AI Production.

Über den Autor

Sebastian Lang

Co-Founder · Business & Content Lead

Co-Founder von Sentient Dynamics. 15+ Jahre Business-Strategie (u.a. SAP), MBA. Schreibt über AI-Act-Compliance, ROI-Messung und wie Mittelstand-CTOs agentische KI tatsächlich einführen.

Weiterlesen

Einmal im Monat. Nur Substanz.

Keine Motivationssprüche. Keine Tool-Listen. Nur was CTOs, COOs und Geschäftsführer in DACH über KI-Adoption wirklich wissen müssen.