Zum Hauptinhalt springen

Alle Artikel

Was AI-Agents NICHT koennen: 8 Faelle, in denen ich davon abrate (obwohl ich es verkaufe)

Ich verkaufe Agentic AI. In 4 von 10 Faellen rate ich davon ab. 8 Anti-Use-Cases, der Decision-Tree, Art. 14 EU AI Act, DSGVO Art. 17. Was Mittelstand falsch versteht.

Sebastian Lang9. Mai 20269 Min. Lesezeit

Ich verkaufe Agentic AI. Trotzdem rate ich in 4 von 10 Faellen davon ab. Hier ist die Liste, wann ein AI-Agent die FALSCHE Antwort ist, und warum das mein bestes Verkaufs-Argument ist. Wenn dir jemand erzaehlt, sein Agent loese alles vom Kreditgeschaeft bis zur Krisen-PR, dann verkauft er dir kein Produkt, sondern Risiko. Mittelstand-Geschaeftsfuehrer, die 2026 sauber durch die Adoptions-Welle kommen, wissen genau wo der Agent aufhoert und der Mensch anfaengt. Genau diese Liste bekommst du jetzt.

Die 8 Anti-Use-Cases auf einen Blick

#Anti-Use-CaseWarum nichtBessere Antwort
1High-Stakes-Einzelentscheidungen mit lebenslangen FolgenArt. 14 verlangt menschliche AufsichtMensch entscheidet, Agent assistiert
2Neuartige juristische Fragen ohne PraezedenzKein Trainingsdatensatz, halluzinierter PraezedenzSenior-Anwalt, dann Agent fuer Recherche
3Sehr-niedrig-Volumen-Cases (unter 50 pro Monat)TCO laeuft nie aufExcel plus Praktikant ist guenstiger
4Hoch-praezise Spezifikationen mit 1-Prozent-Fehler-SchadenHalluzination ist ProdukthaftungDeterministische Regel-Engine
5Kreativ-strategische Vision-SettingAgent hat kein Skin-in-the-GameGeschaeftsleitung plus Workshop
6Hochsensible Beziehungs-PflegeStimme, Pause, Empathie sind nicht trainierbarErfahrener Mensch, Agent assistiert
7Faelle ohne digitale DatenbasisGarbage-In, Garbage-OutErst digitalisieren, dann automatisieren
8Datenschutz-kritisch ohne saubere RTBF-ImplementierungDSGVO Art. 17 nicht erfuellbarArchitektur-Fix vor Agent-Build

Diagramm: Decision-Tree wann ein AI-Agent die richtige Antwort ist

Warum Anti-Use-Cases dein bestes Verkaufs-Argument sind

Vertrauen ist 2026 das knappste Gut im KI-Markt. Gartner prognostiziert, dass ueber 40 Prozent aller Agentic-AI-Projekte bis Ende 2027 abgebrochen werden, wegen unklaren Geschaefts-Werts, eskalierender Kosten und unzureichender Risiko-Kontrollen. Das heisst: jeder zweite Buyer hat schon einmal ein gescheitertes Projekt erlebt oder von einem gehoert. Wer in dieser Marktphase eine Liste mitbringt was er NICHT verkauft, gewinnt.

Anti-Use-Cases sind kein Nachteil im Pitch, sie sind der Trust-Anchor. Ein Verkaeufer, der dir vier von zehn Anfragen ablehnt, wird beim fuenften zu deinem Strategie-Partner. Ein Verkaeufer, der bei jeder Anfrage "ja, machen wir" sagt, ist ein Vendor. Mittelstand kauft Strategie-Partner, weil Vendor-Wechsel teuer ist. Genau deswegen rede ich in jedem Discovery offen ueber Grenzen, bevor ich ueber Faehigkeiten rede.

Die zweite Logik dahinter ist betriebswirtschaftlich. Ein Agent, der einen Anti-Use-Case auf den Tisch bekommt, scheitert in Produktion mit hoher Wahrscheinlichkeit (siehe warum 40 Prozent der Agentic-AI-Projekte bis 2027 scheitern). Der Schaden trifft nicht nur das Budget, er trifft die Adoption fuer alle Folge-Use-Cases. Ein einziges schlecht ausgewaehltes Pilot-Projekt killt fuer die naechsten 12 Monate jede KI-Initiative im selben Bereichsleiter-Kreis.

High-Stakes-Einzelentscheidungen: wo Art. 14 zwingend Mensch verlangt

Art. 14 EU AI Act fuer Hochrisiko-Systeme ist eindeutig (Stichtag voll bussgeldbewehrt: 02.08.2026 fuer Annex-III-Hochrisiko, Annex-I-Produkt-Hochrisiko folgt 02.08.2027). Hochrisiko-KI-Systeme muessen so gestaltet sein, dass sie waehrend ihrer Verwendungsdauer wirksam von natuerlichen Personen beaufsichtigt werden koennen. Der Aufsichtsbeauftragte muss laut Art. 14 Abs. 4 die Faehigkeiten und Grenzen des Systems verstehen, Automation-Bias erkennen, den Output korrekt interpretieren, und im Zweifel die Entscheidung des Systems verwerfen koennen.

Konkret heisst das fuer drei Use-Case-Cluster im DACH-Mittelstand: Bonitaetsbewertung natuerlicher Personen (Anhang III Nr. 5b, ohne Bagatellgrenze), HR-Entscheidungen ueber Einstellung, Kuendigung, Befoerderung (Anhang III Nr. 4), und medizinische Diagnose-AI (Hochrisiko nach Art. 6 Abs. 1 in Verbindung mit Anhang I, weil Medizinprodukt nach MDR/IVDR, nicht via Anhang III). In all diesen Faellen darfst du den Agent als Recommender bauen, aber nicht als Decision-Maker. Der Mensch muss die finale Entscheidung treffen, dokumentieren, und nach Art. 26 Abs. 2 muss der Deployer dem Aufsichtsbeauftragten Kompetenz, Schulung und Autoritaet geben.

Falsch ist die Annahme, ein Mensch im Loop reiche aus, wenn er nur abnickt. Art. 14 Abs. 4 lit. b verlangt explizit Bewusstsein fuer Automation-Bias, also die Tendenz, KI-Output ungeprueft zu uebernehmen. Wer in der Praxis nur ein Abnick-Feld einbaut und seinen Sachbearbeiter unter Akkord-Druck setzt, erfuellt die Norm nicht. Aufsichtsbehoerden testen das, indem sie die Override-Quote messen. Eine Override-Quote nahe Null ist der rote Faden im Audit.

Praxis-Empfehlung (kein Gesetzes-Zitat, sondern unsere Mandats-Erfahrung): in High-Stakes-Anwendungen funktioniert ein Vier-Augen-Prinzip in der UI besonders gut, kombiniert mit einer Begruendungs-Pflicht fuer den Aufsichts-Beauftragten (kurzes Free-Text-Feld bei jeder Entscheidung, das in der Audit-Spur landet) und einem periodischen Review der Override-Statistik im Bereichsleiter-Kreis. Art. 14 schreibt das Vier-Augen-Prinzip nicht vor, aber es macht den Bias-Awareness-Nachweis aus Abs. 4 lit. b im Audit deutlich einfacher. Wer das nicht von Tag eins mitdenkt, baut entweder einen Agent der gar nicht in Produktion gehen darf, oder einen, der im naechsten Audit zurueckgepfiffen wird. Beides ist teurer als der saubere Bau.

Volumen-Schwellen: wann TCO niemals positiv wird

Agent-Build ist teuer. Ein produktionsreifer Single-Use-Case-Agent in DACH-Qualitaet (deutsche Sprache, DSGVO-Architektur, Audit-Trail, Logging, Observability, Rollback-Mechanik) kostet zwischen 80k und 250k EUR Initial, plus 1500 bis 4000 EUR pro Monat Betrieb (LLM-Tokens, Vector-DB, Monitoring, Pflege). Selbst bei aggressiver Buy-Variante via Plattform-Lizenz reden wir ueber 30k bis 60k jaehrlich.

Damit das aufgeht, muss der Agent eine messbare Stueckkosten-Einsparung leisten. Faustregel: bei einem Bearbeitungs-Aufwand von 15 Minuten pro Fall und einem internen Stundensatz von 60 EUR sparst du 15 EUR pro Fall, wenn der Agent zu 100 Prozent uebernimmt (real eher 50 bis 70 Prozent, weil Edge-Cases zum Menschen gehen). Bei 50 Faellen pro Monat sind das 750 EUR Einsparung pro Monat, bei realistischen 500 EUR. Der Agent rechnet sich nie. Excel plus Praktikant kostet weniger.

Die saubere Schwelle, ab der ein Agent betriebswirtschaftlich Sinn macht, liegt im DACH-Mittelstand bei 200 bis 500 Faellen pro Monat fuer Standard-Komplexitaet, oder ab 50 Faellen wenn der Use-Case Compliance-relevant ist und der Mensch sonst 90 Minuten pro Fall braucht. Alles darunter ist Show-Case ohne ROI. Diese Schwelle gehoert in jede Make-Buy-Partner-Diskussion (Make Buy Partner Frame fuer KI-Agenten-Beschaffung) und in den ersten 15 Minuten jedes Reifegrad-Checks (KI-Reifegrad-Check in 15 Minuten).

Was viele Buyer uebersehen: die Pflege-Kosten skalieren nicht linear mit Volumen. Ein Agent, der 50 Faelle pro Monat bearbeitet, braucht ungefaehr genauso viel Wartung wie einer mit 500 Faellen. Prompt-Updates wenn das Modell wechselt, Drift-Monitoring, Edge-Case-Handling, Compliance-Reviews. Wer einen "kleinen Agent" baut zahlt fuer den gleichen Pflege-Aufwand bei einem Zehntel des Nutzens. Die Skalen-Logik ist asymmetrisch zugunsten grosser Volumen, und das kippt die TCO-Rechnung haerter als die Initial-Kosten.

Datenschutz-Stolperfallen: RTBF, Datenresidenz, Schrems-Risiko

DSGVO Art. 17 gibt Betroffenen das Recht auf Loeschung. Bei klassischen Datenbanken ist das ein DELETE-Statement. Bei einem AI-Agent mit Vector-Store, Konversations-Memory, Cache-Layer und LLM-Trainings-Pipeline ist das ein Architektur-Problem. Wenn du Embeddings personenbezogener Daten in Pinecone, Weaviate oder einer anderen Vector-DB hast, brauchst du einen Loesch-Pfad, der den passenden Vector identifiziert, entfernt, und alle abgeleiteten Caches invalidiert. Wenn du das nicht hast, ist der Agent nach DSGVO Art. 17 nicht betreibbar fuer personenbezogene Daten.

Zweite Falle: Datenresidenz. Wenn der Agent gegen ein US-Modell ruft (OpenAI, Anthropic, Google ueber US-Region), faellt jeder Prompt unter US-Cloud-Act-Zugriff. Fuer streng vertrauliche Daten (HR, Gesundheit, Mandatsdaten) ist das nach Schrems-II-Logik problematisch, auch wenn EU-Datenschutzrahmen 2023 ein Stueck Rechtssicherheit gebracht hat. Der saubere Pfad ist Azure-OpenAI EU-Region mit vertraglich zugesicherter EU-Datenverarbeitung, oder ein selbst-gehostetes Modell (Mistral, Llama in EU-Cloud), oder Anthropic ueber Azure mit EU-Resourcing.

Dritte Falle: Logging. Jeder produktionsreife Agent loggt Prompts und Responses, fuer Debugging, Audit, Drift-Detection. Das Log enthaelt damit personenbezogene Daten. Du brauchst Retention-Policies, Pseudonymisierung im Log, getrennte Loesch-Workflows fuer Live-Daten und Logs. Klingt trivial, ist in 70 Prozent der Pilot-Projekte nicht sauber gebaut und blockiert dann den Production-Rollout. Mehr Detail dazu in der Architekturfehler-Analyse Pilot-to-Production.

Vierte Falle, die in DACH unterschaetzt wird: Auftragsverarbeitungs-Vertrag (AVV) mit dem Modell-Anbieter. Der Standard-API-Vertrag von OpenAI oder Anthropic deckt nicht automatisch alle Anforderungen aus DSGVO Art. 28 ab. Du brauchst dokumentierte technische und organisatorische Massnahmen, eine klare Sub-Auftragsverarbeiter-Liste, und Audit-Rechte. Ohne das ist der Agent in einem deutschen Datenschutz-Audit nicht haltbar. Wenn dein Provider keine AVV-Anpassung anbietet, ist das ein Anti-Use-Case, kein Implementierungs-Detail.

Was Mittelstand falsch versteht: 3 typische Pseudo-Use-Cases

Pseudo-Use-Case 1: "Der Agent soll unsere Strategie-Praesentation schreiben." Strategie ist Kommitment. Ein Agent kann dir 20 Folien-Drafts liefern, aber die Auswahl welcher Markt, welche Investition, welche Reorg, ist Geschaefts-Fuehrungs-Job. Der Agent ist hier Recherche-Tool, nicht Decider. Verkaufs-tauglicher Fall: Agent macht Markt-Scan plus Wettbewerbs-Recherche, Vorstand entscheidet.

Pseudo-Use-Case 2: "Wir wollen einen Agent fuer alle Kunden-Anfragen." "Alle" gibt es nicht. Standard-FAQ ja, Beschwerde-Handling vielleicht, Vertrags-Streit nein, Kuendigungs-Versuche schon gar nicht. Der Agent muss klar segmentiert sein und harte Eskalations-Pfade haben. Wenn du keinen Triage-Layer baust, der entscheidet welche Anfrage zum Agent geht und welche zum Menschen, baust du eine Beschwerde-Maschine. Mehr dazu im Architekturfehler-Post.

Pseudo-Use-Case 3: "Der Agent ersetzt unseren Senior-Sachbearbeiter, der naechstes Jahr in Rente geht." Senior-Wissen ist erfahrungsbasiert, kontextbasiert, oft tacit. Ein Agent kann strukturierte Wissensbasen abfragen, aber nicht die ungeschriebene Regel "diesen Kunden behandeln wir aus historischen Gruenden anders". Der saubere Pfad ist: vor Rente Wissens-Transfer-Workshop, dann Agent als Junior-Booster fuer den Nachfolger, niemals 1-zu-1-Replacement. Bitkom-Daten zeigen, dass 89 Prozent der grossen deutschen Unternehmen KI als wichtigste Zukunftstechnologie sehen, aber Adoption haengt am Kompetenz-Aufbau, nicht am Personal-Ersatz (Bitkom-2026-Lesart).

Wie du AI-Agent vs Andere Loesung in 90 Sekunden entscheidest

Decision-Tree, knapp gehalten, fuer den Lift-Talk:

  1. Frage 1: Volumen >= 50 Faelle pro Monat? Wenn nein: kein Agent, Excel oder RPA reicht.
  2. Frage 2: Falsche Antwort = lebenslange Folgen? Wenn ja: Agent nur als Recommender, Mensch entscheidet, Art. 14 Aufsicht.
  3. Frage 3: 1-Prozent-Fehler = Produkthaftung oder Personenschaden? Wenn ja: deterministische Regel-Engine, kein Sprach-Modell.
  4. Frage 4: Daten digital, strukturiert, gepflegt? Wenn nein: erst Daten-Projekt, dann Agent.
  5. Frage 5: RTBF-Workflow, EU-Hosting, Audit-Trail buildable? Wenn nein: Architektur-Fix bevor Agent-Build startet.
  6. Frage 6: Use-Case strategisch oder operativ? Strategisch: Mensch entscheidet, Agent assistiert. Operativ und repetitiv: Agent kann owen.

Wenn du alle sechs Fragen mit gruen beantworten kannst, baust du einen Agent. Sonst baust du etwas anderes oder hilfst dem bestehenden Prozess. Die meisten Discovery-Workshops, die ich fuehre, enden bei Frage 1 oder Frage 4. Beides ist kein Beinbruch, beides spart dir 6-stellig.

FAQ

Heisst das, ihr verkauft Agents nur an die Glueckspilze, deren Use-Case durchpasst? Nein. Wir verkaufen oft auch das Daten-Projekt vor dem Agent, oder den Workshop der den Use-Case auf eine andere Loesung dreht. Die Beratung lebt von Sauberkeit, nicht von Volumen. Ein gescheiterter Agent kostet uns mehr Reputations-Kapital als ein abgesagter Verkauf.

Was, wenn der Wettbewerber den Agent baut, den du mir nicht verkaufst? Dann scheitert der Wettbewerber mit hoher Wahrscheinlichkeit. Bei Anti-Use-Cases ist Geschwindigkeit kein Vorteil, Geschwindigkeit ist der Beschleuniger zum Crash. Wenn dein Wettbewerber 2026 den falschen Agent live bringt, hast du 2027 mehr Marktanteil, nicht weniger.

Wie unterscheide ich Anti-Use-Case von "schwer aber machbar"? Daumenregel: Anti-Use-Case = grundsaetzlich falsche Tool-Wahl. Schwer-aber-machbar = richtiges Tool, aber Datenarbeit oder Compliance-Setup fehlt. Im Discovery-Workshop trennt das eine Stunde Arbeit. Was nicht funktioniert: hoffen, dass es schon irgendwie passt. Den Crashtest macht der Markt, nicht das Pitch-Deck.

Was ist das ehrliche Verhaeltnis "machen wir" zu "nicht machen wir" in eurem Sales? Aktuell ungefaehr 60 zu 40. Heisst, vier von zehn Discovery-Calls enden mit "wir empfehlen euch hier keinen Agent, hier ist warum". Das Verhaeltnis hat sich von 80 zu 20 in Q1 2024 dorthin entwickelt, weil wir gelernt haben Anti-Use-Cases frueher zu erkennen. Wenn ein Anbieter dir sagt "100 Prozent Pass-Quote", lauf weg.

Quellen

  • EU AI Act, Regulation (EU) 2024/1689, Art. 14 Human Oversight of High-Risk AI Systems, EUR-Lex offizielle Konsolidierung.
  • EU AI Act, Regulation (EU) 2024/1689, Art. 26 Obligations of Deployers of High-Risk AI Systems, EUR-Lex.
  • DSGVO, Verordnung (EU) 2016/679, Art. 17 Recht auf Loeschung, EUR-Lex.
  • Bitkom KI-Studie 2026, "Kuenstliche Intelligenz in Deutschland", bitkom.org.
  • Gartner Press Release 25.06.2025, "Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027".

Nicht raten, rechnen

Wenn du wissen willst, ob dein konkreter Use-Case in den 6 von 10 Faellen liegt, in denen ein Agent rechnet, oder in den 4 von 10, in denen er nicht rechnet, machen wir Discovery-Workshop. 1 Tag, dein Use-Case, dein Datenstand, dein TCO-Modell. Am Ende des Tages weisst du ob der Agent zu bauen ist, was vorher zu fixen ist, oder warum eine andere Loesung billiger ist. Termin buchen.

Wenn du erstmal selbst durchspielen willst was bei dir realistisch geht, hilft der Crashkurs Was-ist-Agentic-AI fuer Geschaeftsfuehrer als Vorbereitung.

Über den Autor

Sebastian Lang

Co-Founder · Business & Content Lead

Co-Founder von Sentient Dynamics. 15+ Jahre Business-Strategie (u.a. SAP), MBA. Schreibt über AI-Act-Compliance, ROI-Messung und wie Mittelstand-CTOs agentische KI tatsächlich einführen.

Weiterlesen

Einmal im Monat. Nur Substanz.

Keine Motivationssprüche. Keine Tool-Listen. Nur was CTOs, COOs und Geschäftsführer in DACH über KI-Adoption wirklich wissen müssen.