Zum Hauptinhalt springen

Alle Artikel

Wer haftet, wenn der KI-Agent halluziniert? Der Haftungs-Rahmen für DACH-Mittelstand 2026

AILD ist zurückgezogen, PLD greift ab 09.12.2026, AI Act Art. 26 ab 02.08.2026. Drei Haftungs-Ebenen, fünf Vertragsklauseln, fünf Versicherungs-Hebel.

Sebastian Lang6. Mai 20267 Min. Lesezeit

Du betreibst einen KI-Agenten in Produktion. Er beantwortet Kundenanfragen, erstellt Angebote, gibt Rabatte raus. Eines Tages erfindet er eine Storno-Regel, die es nie gab. Der Kunde zieht den Vertrag, beruft sich auf die Aussage des Agenten, und dein Justiziar fragt: Wer zahlt das?

Die ehrliche Antwort 2026: Du.

Schlüsselzahlen

  • AILD zurückgezogen. Die EU-Kommission hat den Vorschlag der AI Liability Directive am 11.02.2025 im 2025 Work Programme als zurückzuziehen aufgeführt, formal publiziert im Official Journal am 06.10.2025 nach dem Kommissions-Meeting vom 16.07.2025. Grund: kein Konsens zwischen Mitgliedstaaten (IAPP, Bird & Bird).
  • PLD ab 09.12.2026. Die Product Liability Directive (EU) 2024/2853 ist seit 08.12.2024 in Kraft, Transposition-Frist 09.12.2026, gilt für Produkte ab diesem Datum. Software und KI-Systeme sind explizit eingeschlossen (European Commission).
  • Moffatt v. Air Canada. Civil Resolution Tribunal British Columbia, 14.02.2024: Air Canada haftet für die Falschauskunft seines Chatbots. Schaden CAN$ 812,02, aber Präzedenzwirkung (American Bar Association).
  • Allianz Risk Barometer 2026. Cyber-Risiken plus KI-Risiken sind die größten Geschäftsrisiken weltweit (Allianz).

Warum dieser Post jetzt relevant ist

Bis Februar 2025 hatte der Mittelstand eine bequeme Erwartung: Die AI Liability Directive würde EU-weit klären, wer für Schäden durch KI-Systeme haftet. Beweislast-Erleichterung, harmonisierte Definitionen, ein Rahmen, in den man hineinwachsen kann. Diese Erwartung ist tot.

Was bleibt, ist eine Lücke. Du als Deployer eines KI-Agenten in DE arbeitest 2026 mit drei Schichten parallel: dem klassischen Zivilrecht (BGB), der reformierten Produkthaftung (PLD ab Ende 2026) und den Deployer-Pflichten aus dem AI Act (ab 02.08.2026, siehe AI Act Art. 26 Deployer-Pflichten). Keine dieser Schichten ist für KI-Agenten geschrieben worden. Alle drei treffen dich trotzdem.

Drei Haftungs-Ebenen für DACH-Mittelstand

Drei-Schichten-Haftungs-Pyramide für KI-Agenten in DACH

Ebene 1: Zivilrecht (anwendbar jetzt)

§ 823 Abs. 1 BGB greift bei deliktischer Haftung: Verletzung von Leben, Körper, Gesundheit, Freiheit, Eigentum oder einem sonstigen Recht. § 280 Abs. 1 BGB greift bei vertraglicher Pflichtverletzung. Beide Anspruchsgrundlagen sind Standardwerkzeuge der deutschen Zivilgerichte und vollständig anwendbar auf Schäden, die ein KI-Agent bei einem Kunden, Lieferanten oder Mitarbeiter verursacht.

Was 2026 fehlt: höchstrichterliche Konkretisierung. Es gibt aktuell keine BGH- oder OLG-Entscheidung zur Frage, ob die Halluzination eines KI-Agenten dem Betreiber als Verschulden zugerechnet wird, ob ein Verkehrssicherungspflicht-Maßstab analog zur Produkthaftung anzulegen ist, oder wie die Beweislast verteilt wird. Du arbeitest also mit Generalklauseln, deren Anwendung auf KI-Agenten gerade erst gerichtlich austariert wird.

Praktische Konsequenz: dokumentiere, was dein Agent tut, wie er entscheidet, und welche Sicherheitsmaßnahmen du als Betreiber getroffen hast. Wenn ein Gericht später die Frage "hat der Betreiber die im Verkehr erforderliche Sorgfalt angewendet" beantwortet, willst du eine Akte vorlegen können.

Ebene 2: Produkthaftung (PLD ab 09.12.2026)

Die Product Liability Directive (EU) 2024/2853 ist die größte Veränderung. Software und KI-Systeme sind explizit als "Produkt" definiert. Hersteller (und unter bestimmten Voraussetzungen Deployer) haften verschuldensunabhängig für Defekte zum Zeitpunkt des Inverkehrbringens und für Defekte, die durch Updates, Upgrades oder Machine-Learning-Verhalten später entstehen.

Wichtig für die Abgrenzung: Die PLD gilt für Produkte, die ab 09.12.2026 auf den Markt gebracht werden. Deutschland hat einen Entwurf für die nationale Umsetzung (Reed Smith analysiert das deutsche Implementation Bill in diesem Beitrag). Wenn du 2026 einen KI-Agenten neu ausrollst, fällt er unter die neue PLD-Logik, sobald die Frist greift.

Was das praktisch heißt: die Frage "wer ist Hersteller" wird komplex. Bist du als Mittelständler, der einen GPT-4o-basierten Agenten konfiguriert und an Kunden ausliefert, Hersteller im PLD-Sinne? Bist du Importeur des Foundation-Models? Bist du nur Deployer? Die Antwort entscheidet, ob du im Schadensfall verschuldensunabhängig haftest oder ob du dich auf das klassische BGB zurückziehen kannst.

Ebene 3: AI Act Deployer-Pflichten (ab 02.08.2026)

Art. 26 AI Act erlegt dir als Deployer eines High-Risk-Systems konkrete Pflichten auf: angemessene technische und organisatorische Maßnahmen, Sicherstellung der Datenqualität in Input-Daten, Logging der System-Aktivität, menschliche Aufsicht, Information der betroffenen Personen. Ein Verstoß gegen Art. 26 ist kein direkter Schadensersatzanspruch, aber er ist ein starkes Indiz für Verschulden im Sinne von § 823 BGB. Wenn du die Logging-Pflicht aus Art. 26 Abs. 6 verletzt und ein Schaden entsteht, hat dein Geschädigter einen erheblichen Argumentations-Vorteil im Zivilprozess.

Cross-Link: die GPAI-Pflichten und die Verzahnung mit Deployer-Verantwortung haben wir hier vertieft: AI Act GPAI-Pflichten August 2026.

Lehrcase: Moffatt v. Air Canada

Jake Moffatt buchte 2022 Bereavement-Fares bei Air Canada, basierend auf einer Auskunft, die der Webseiten-Chatbot ihm gab. Die Auskunft war falsch. Air Canada verweigerte die Erstattung und argumentierte vor dem British Columbia Civil Resolution Tribunal: der Chatbot sei "a separate legal entity that is responsible for its own actions". Das Tribunal verwarf das Argument und stellte fest, dass Air Canada eine "duty of care" gegenüber Moffatt schulde und für die Falschauskunft des Chatbots im Rahmen der Negligent-Misrepresentation-Doktrin haftet. Schaden: CAN$ 812,02 (McCarthy Tetrault).

Übertragbar auf DE? Mit Vorsicht. Common Law (Kanada, UK, US) und Civil Law (DE) arbeiten unterschiedlich. Die deutsche Entsprechung wäre keine Negligent-Misrepresentation-Doktrin, sondern § 311 Abs. 2 BGB (vorvertragliches Schuldverhältnis) plus § 280 Abs. 1 BGB. Die Argumentationsfigur "der Chatbot ist eine separate Entität" wird vor einem deutschen Zivilgericht ähnlich wenig Erfolg haben wie vor dem Tribunal in Vancouver. Wenn dein Agent gegenüber einem Kunden eine Aussage macht, ist das deine Erklärung. Du betreibst das System, du hast es deployt, du verantwortest die Outputs.

Was Moffatt zeigt: Gerichte haben keine Geduld für Architektur-Argumente. Die Frage ist nicht "wer hat halluziniert", sondern "wer hat das System in Verkehr gebracht und unter Kunden gestellt".

Versicherungs-Renewal 2026: fünf Klauseln, die du jetzt verhandelst

Die Versicherer sind 2026 in einer interessanten Position. Allianz Risk Barometer stuft Cyber plus KI als größtes Geschäftsrisiko ein, Munich Re schreibt im Cyber Insurance Trends 2026, dass agentic AI die Schadenfrequenz stärker beeinflusst als die Schadenhöhe. Was 2026 noch fehlt, sind etablierte Markt-Standard-Klauseln für Agentic-AI-Schadensereignisse. Die großen Cyber-Versicherer arbeiten gerade daran, ihre Risk-Profile aufzubauen.

Das ist deine Gelegenheit. Beim nächsten Renewal-Gespräch (Cyber, Vermögensschaden-Haftpflicht, IT-Haftpflicht) bringst du folgende fünf Punkte aktiv ein:

  1. Klare Definition "AI-System". Nicht der Versicherer definiert, sondern du. Mit Verweis auf Art. 3 Nr. 1 AI Act. Sonst bleibst du im Streitfall in der Definitionsfalle.
  2. Coverage für autonome Agent-Aktionen. Frage explizit, ob Schäden, die ein Agent ohne Human-in-the-Loop verursacht, gedeckt sind. Wenn die Antwort "wir prüfen im Einzelfall" lautet, ist das ein Coverage-Loch.
  3. Logging-Anforderungen als Police-Bedingung verhandeln, nicht als Ausschluss. Versicherer werden zunehmend Logging-Standards vorgeben (was du ohnehin nach AI Act Art. 26 brauchst). Stelle sicher, dass deine vorhandenen Logs den Anforderungen genügen.
  4. Cross-Coverage AI Act Bußgelder vs. Schadensersatz. Bußgelder sind regelmäßig nicht versicherbar. Aber die zivilrechtlichen Folgekosten eines AI-Act-Verstoßes (Schadensersatz an Geschädigte) sollten gedeckt sein. Trenne das sauber.
  5. Klausel zu Foundation-Model-Provider-Defects. Wenn dein OpenAI- oder Anthropic-Provider einen Defekt im Modell hat, der bei dir Schäden verursacht, ist das ein subtiler Recourse-Fall. Frage, wie deine Police mit diesem Szenario umgeht.

Fünf Vertragsklauseln für deinen Provider-Vertrag

Ebenso wichtig wie die Versicherung: dein Vertrag mit dem AI-Service-Provider (oder mit deinem Implementierungs-Partner). Hier sind fünf Klauseln, die in jeden 2026er Vertrag gehören.

KlauselPflichtRisiko ohne KlauselSentient-Empfehlung
Output-Warranty-DisclaimerProvider macht klar, dass Outputs probabilistisch sind und keine Rechtsverbindlichkeit habenDu wirst aus Provider-Marketing-Aussagen ("99% accurate") in Garantiehaftung gezogenDisclaimer im Vertrag, aber: Provider verpflichtet sich zu Best-Practice-Mitigation (Guardrails, Eval-Pipeline)
Logging-PflichtProvider liefert dir vollständige Request/Response-Logs, mind. 6 Monate aufbewahrtDu kannst AI Act Art. 26 Abs. 6 nicht erfüllen, du kannst im Schadensfall nichts beweisenMindestens 12 Monate, exportierbar in dein SIEM, Retention-Klausel mit DSGVO-Abgleich (siehe DSGVO und Agentic AI)
IndemnificationProvider hält dich schadlos für Ansprüche Dritter wegen IP-Verletzung im Modell-Training oder OutputDu haftest für Trainings-Daten-Probleme, die du nie gesehen hastIndemnification cap mind. Vertragsvolumen 12 Monate, no-cap für Personenschaden und vorsätzliche Verletzung
SLA Halluzinations-RateProvider misst und reportet Hallucination-Rate auf definiertem Eval-Set, monatlichDu fliegst blind, du kannst Verschlechterung nicht detektieren, du hast kein Argument bei SchadenEval-Set vom Kunden definiert, Schwellenwert vertraglich, Right-to-Terminate bei wiederholter Über-Schreitung
Audit-RightDu hast Zugriff auf Sicherheits-Tests, Red-Team-Reports, Prompt-Injection-Defense (siehe Prompt Injection Schutz)Du erfüllst deine eigenen Sorgfaltspflichten nicht, du kannst dich nicht entlastenMindestens jährlich, on-site oder remote, Reports an dein InfoSec

Bottom Line: was du diesen Monat tust

  1. Inventory. Liste alle KI-Agenten in deinem Unternehmen, die Outputs an Kunden, Lieferanten oder Mitarbeiter liefern. Pro Agent: Use-Case, Daten-Flow, Human-in-the-Loop ja/nein, Provider, Vertragsstand. Wenn du das nicht in 5 Werktagen kannst, hast du ein Inventory-Problem, kein Haftungs-Problem.
  2. Vertragsreview. Nimm die obigen 5 Klauseln und mach einen Gap-Check gegen deine bestehenden AI-Service-Verträge. Bei jedem Renewal nachverhandeln. Bei Neuverträgen ab heute Pflicht.
  3. Versicherungs-Termin. Rufe deinen Cyber-Versicherer an, bevor er dich anruft. Bringe die 5 Klauseln aus Sektion "Versicherungs-Renewal" mit. Versicherer-Risk-Engineers sind 2026 noch lernbereit, in 12 Monaten weniger.

Wenn du im November 2026 von der PLD-Frist überrascht wirst, lag es nicht an der EU. Es lag an deinem Mai 2026.

Companion-Post: AI-Audit-Readiness in 90 Tagen, die operative Roadmap zu allem, was hier juristisch ist.

Über den Autor

Sebastian Lang

Co-Founder · Business & Content Lead

Co-Founder von Sentient Dynamics. 15+ Jahre Business-Strategie (u.a. SAP), MBA. Schreibt über AI-Act-Compliance, ROI-Messung und wie Mittelstand-CTOs agentische KI tatsächlich einführen.

Einmal im Monat. Nur Substanz.

Keine Motivationssprüche. Keine Tool-Listen. Nur was CTOs, COOs und Geschäftsführer in DACH über KI-Adoption wirklich wissen müssen.