Zum Hauptinhalt springen

Alle Artikel

Wo stehe ich? Der KI-Reifegrad-Check für DACH-Mittelstand in 15 Minuten

Nur 28% der Enterprises haben reife Agent-Capabilities, im Mittelstand etwa die Hälfte. 5-Stages-Framework mit konkreten Fragen pro Stage und Stop-Light-Bewertung — in 15 Minuten ehrlich getestet.

Sebastian Lang4. Mai 20269 Min. Lesezeit

Schlüsselzahlen auf einen Blick

  • 5 Stages der KI-Reife laut Janea Systems / Marketresearch 2026: Exploring, Embedded, Optimized, Differentiating, Transforming. 25 Prozent der Enterprises sind in Stage 1 (Exploring).
  • 28 Prozent der Enterprises haben laut Deloitte State of AI 2026 reife Agent-Capabilities. Im DACH-Mittelstand sind es etwa 14 Prozent — die Hälfte.
  • 47 Prozent Operating-Margin-Spread zwischen Stage 4-5 und Stage 1-2. Wer in Stage 1-2 bleibt, verliert pro Jahr circa 15 Prozentpunkte Wettbewerbs-Position. Mehr im KI-Vorsprung-Post.
  • 3 Dimensionen der Reifegrad-Bewertung: Daten, Technologie, Organisation. Plus zwei Querschnittsdimensionen: Talent und Governance. Realistische Bewertung dauert 15 Minuten ehrlich, 3 Stunden mit Workshop-Tiefe.
  • 76 Prozent der KMUs kämpfen laut Branchen-Erhebungen 2026 mit unzureichender Datenqualität. Daten-Stage ist meist die niedrigste Stage einer Org.

Wenn Sie als Geschäftsführer, CIO oder Head of Operations im DACH-Mittelstand 2026 die Frage "wo stehen wir mit KI?" ehrlich beantworten wollen, brauchen Sie ein Framework. "Wir machen schon was mit ChatGPT" ist keine Antwort. Dieser Post liefert das 5-Stages-Framework, das wir in Sentient-Engagements 2026 als Selbsttest und Workshop-Grundlage nutzen, mit konkreten Fragen pro Stage und Stop-Light-Bewertung.

Die zentrale These: KI-Reife lässt sich messen, und sie korreliert direkt mit Operating-Margin-Performance. Stage 4-5-Unternehmen erreichen 47 Prozent höhere Margins als Stage 1-2-Unternehmen (siehe KI-Vorsprung-Post). Wer 2026 nicht weiß, in welcher Stage er ist, kann nicht zielgerichtet investieren.

In 15 Minuten ehrlicher Selbst-Bewertung kommen Sie zu einem belastbaren Ergebnis. Dieser Post ist die Anleitung dazu.

Wer dieser Post ist und wer nicht

Dieser Post richtet sich an Geschäftsführer, CIOs, CTOs und Head-of-Operations im DACH-Mittelstand (30 bis 500 FTE), die für 2026 oder 2027 eine KI-Strategie definieren oder ein bestehendes Programm bewerten wollen. Konkret: Sie haben entweder noch keine KI-Initiative gestartet und wollen wissen wo Sie stehen, oder Sie haben Initiativen laufen und wollen wissen ob Sie über oder unter dem Median sind.

Nicht passend ist der Post für Unternehmen mit dezidiertem AI-Engineering-Team und produktiven Use Cases im großen Maßstab. Für die ist eine spezialisierte Maturity-Bewertung (z.B. Sentient Quarterly Maturity Review) sinnvoller als ein Selbsttest.

Das 5-Stages-Framework: Wo stehen Sie?

Aus Sentient-Engagements 2026, abgeglichen mit den etablierten Frameworks von Mittelstand-Digital (KIRC), q.beyond, Fraunhofer IIS, Janea Systems und Sema4.ai. Die fünf Stages mit Definition und typischen Erkennungs-Markern.

Stage 1: Exploring (Erkunden)

Definition: Erste Pilots, ChatGPT-Nutzung im Browser durch einzelne Mitarbeiter, keine Strategie, keine Governance. Etwa 25 Prozent der DACH-Mittelständler.

Erkennungs-Marker:

  • Mitarbeiter nutzen ChatGPT/Copilot in der Browser-Variante, ohne dass IT oder Geschäftsführung systematisch davon weiß
  • Keine dokumentierte KI-Strategie, kein KI-Champion mit Mandat
  • Keine KPI-Messung von KI-Wirkung, kein Pre-Post-Vergleich
  • Keine Permissions-Architektur, kein Audit-Trail für KI-Aktionen
  • Keine KI-Kompetenz-Schulung der Mitarbeiter (kritisch ab August 2026, siehe KI-Kompetenz-Pflicht-Post)

Operating-Margin-Position: Median-Branchen-Niveau oder darunter. Keine messbare KI-Wirkung.

Handlungsempfehlung: Schatten-IT-Inventur, AI-Champion identifizieren, ersten Use Case priorisieren (siehe unsere 90-Tage-Use-Case-Matrix).

Stage 2: Embedded (Eingebettet)

Definition: 1 bis 3 produktive KI-Tools (typisch Microsoft Copilot, ChatGPT Enterprise, ein erster spezialisierter Agent), erste Schulungen durchgeführt, basis-Governance dokumentiert. Etwa 30 Prozent der DACH-Mittelständler.

Erkennungs-Marker:

  • 1 bis 3 produktive KI-Tools laufen mit Lizenzen, Mitarbeiter-Schulung ist durchgeführt
  • Erste KI-Strategie-Dokumentation existiert (5-bis-15-Seiten-Charter)
  • AI-Champion ist benannt, hat aber kein dezidiertes Budget
  • Erste KPIs werden gemessen, aber nicht systematisch (typisch Inline-Acceptance-Rate, Lines-of-Code — Vanity-Metriken)
  • Permissions-Setup existiert für die genutzten Tools, aber keine zentrale Übersicht

Operating-Margin-Position: Plus 5 bis 15 Prozent über Stage 1, weil erste Productivity-Effekte sichtbar werden.

Handlungsempfehlung: Skill-Library-Aufbau starten, KPI-Framework etablieren (siehe unseren KPI-Post), zweiten und dritten Use Case planen.

Stage 3: Optimized (Optimiert)

Definition: 5 bis 15 produktive KI-Workflows, Skill-Library mit Versionierung und Owner-Struktur, KPI-Dashboard mit DORA-Metriken plus Größenklassen-Normalisierung. Etwa 25 Prozent der DACH-Mittelständler.

Erkennungs-Marker:

  • 5 bis 15 produktive Workflows mit messbarer Wirkung (Cycle-Time-pro-Größeneinheit pre vs post mindestens 1,5x)
  • Skill-Library mit CLAUDE.md plus Custom Commands, versioniert über Git
  • DORA-basiertes KPI-Dashboard, drei bis fünf Metriken, Pre-Post-Vergleich
  • Permissions-Architektur mit Least-Privilege und Audit-Trail
  • AI-Champion plus 1-2 Engineering-FTEs dediziert für KI-Setup
  • KI-Kompetenz-Pflicht laut AI Act erfüllt (Schulungen dokumentiert, Compliance-Setup steht)

Operating-Margin-Position: Plus 15 bis 25 Prozent über Stage 1. Der Punkt, an dem KI-Wirkung im EBIT-Bericht sichtbar wird.

Handlungsempfehlung: Auf Differentiating-Stage skalieren — KI in Kerngeschäft integrieren, nicht nur in Support-Funktionen.

Stage 4: Differentiating (Differenzierend)

Definition: KI ist in mindestens einem Kerngeschäfts-Workflow integriert, der eine Differenzierung gegenüber Wettbewerb darstellt. Etwa 15 Prozent der DACH-Mittelständler.

Erkennungs-Marker:

  • Mindestens 1 KI-Workflow in einem Kerngeschäfts-Bereich (Customer Service als USP, eigene Produkt-Empfehlungs-Engine, eigene Engineering-Pipeline-Optimierung mit Output-Vorteil)
  • 20 bis 50 produktive Workflows insgesamt, verteilt über mehrere Bereiche
  • Multi-Provider-Setup mit Fallback und Adapter-Layer
  • Drift-Detection-Pipeline mit Output-Sampling und Anomalie-Eskalation
  • Quartals-Review der Skill-Library mit Refactoring-Backlog
  • 2-5 dezidierte AI-Engineering-FTEs

Operating-Margin-Position: Plus 30 bis 40 Prozent über Stage 1. Strukturelle Differenzierung gegenüber Wettbewerb wird messbar.

Handlungsempfehlung: Auf Transforming-Stage skalieren — KI in Strategie und Geschäftsmodell-Innovation einbinden, nicht nur in Workflow-Optimierung.

Stage 5: Transforming (Transformierend)

Definition: KI ist Teil der strategischen Geschäftsmodell-Architektur, nicht nur Werkzeug. Etwa 5 Prozent der DACH-Mittelständler — überwiegend Hidden Champions in Spezial-Nischen, die früh angefangen haben.

Erkennungs-Marker:

  • Geschäftsmodell-Anteile, die ohne KI nicht funktionieren würden (z.B. KI-getriebene Produkt-Personalisierung als USP, KI-basierte Premium-Service-Tier)
  • AI-Strategie ist Teil der Geschäfts-Strategie, nicht IT-Strategie
  • 50-plus produktive Workflows, eigene Skill-Library als IP-Asset
  • Continuous-Learning-Loops mit Customer-Feedback-Integration
  • Eigene AI-Forschung oder Co-Creation mit Forschungsinstituten
  • KI-getriebene Differenzierung im Recruiting (zieht Top-Talente an)

Operating-Margin-Position: Plus 47 Prozent über Stage 1 (Marketresearch 2026 Median-Daten). Strukturell führende Markt-Position.

Handlungsempfehlung: Skalierung halten, Skill-Library als IP-Asset schützen, Wissens-Vorsprung durch interne Reskilling-Programme zementieren.

60-Minuten-Sparring zur Ihrer Reifegrad-Bewertung →

Der 15-Minuten-Selbsttest: 12 Fragen, drei Antwort-Stufen

Beantworten Sie die 12 Fragen ehrlich. Pro Frage 0/1/2 Punkte. Ergebnis: 0-8 = Stage 1, 9-12 = Stage 2, 13-17 = Stage 3, 18-21 = Stage 4, 22-24 = Stage 5.

Block A: Daten und Tech (4 Fragen)

  1. Welche KI-Tools sind bei uns offiziell ausgerollt? 0 = keine, 1 = ein bis drei (z.B. Copilot), 2 = fünf-plus mit Skill-Library
  2. Wir messen KI-Wirkung über DORA-Metriken oder Cycle-Time-pro-Größeneinheit. 0 = nein, 1 = nur Inline-Acceptance / Lines-of-Code, 2 = ja mit Pre-Post-Vergleich
  3. Wir haben eine versionierte Skill-Library mit Owner-Struktur. 0 = nein, 1 = informell in Markdown-Dateien, 2 = ja, in Git mit PR-Review
  4. Wir haben Multi-Provider-Setup oder klaren Fallback-Plan. 0 = nein, 1 = nicht dokumentiert, 2 = ja

Block B: Organisation und Talent (4 Fragen)

  1. Wir haben einen benannten AI-Champion mit Mandat und Budget. 0 = nein, 1 = benannt aber kein Budget, 2 = ja mit beidem
  2. Mitarbeiter mit KI-Kontakt sind nach AI-Act geschult (basis 2-4h, vertieft für Verantwortliche). 0 = nein, 1 = teilweise, 2 = ja, dokumentiert
  3. Wir haben mindestens 1 dezidierten AI-Engineer mit 12-plus-Monaten-Verfügbarkeit. 0 = nein, 1 = informell jemand der "auch KI macht", 2 = ja
  4. Geschäftsführung gibt strategische Mandat-Entscheidungen für KI (nicht nur IT). 0 = nein, 1 = ad-hoc, 2 = ja mit Quartals-Review

Block C: Wirkung und Strategie (4 Fragen)

  1. Wir haben mindestens 1 produktiven Workflow mit messbarer 90-Tage-Wirkung (Pre-Post-Vergleich). 0 = nein, 1 = im Pilot, 2 = ja, mehrere
  2. KI ist in mindestens 1 Kerngeschäfts-Workflow integriert (nicht nur Support-Funktion). 0 = nein, 1 = im Plan, 2 = ja produktiv
  3. Wir haben eine dokumentierte KI-Strategie mit 12-Monats-Roadmap. 0 = nein, 1 = informell, 2 = ja, Geschäftsführung-bewilligt
  4. Wir nutzen externe Implementation-Partner systematisch (nicht ad-hoc). 0 = nein, 1 = bei Bedarf, 2 = strategischer Partner mit Übergabe-Klausel

Auswertung:

  • 0-8 Punkte: Stage 1 Exploring — Sofort: Schatten-IT-Inventur, AI-Champion benennen
  • 9-12 Punkte: Stage 2 Embedded — Sofort: KPI-Framework etablieren, Skill-Library-Aufbau
  • 13-17 Punkte: Stage 3 Optimized — Sofort: Auf Kerngeschäfts-Use-Case skalieren
  • 18-21 Punkte: Stage 4 Differentiating — Sofort: Strategie-Integration, Geschäftsmodell-Innovation
  • 22-24 Punkte: Stage 5 Transforming — Sofort: IP-Schutz und Talent-Magnet-Strategie

Die typischen drei Selbst-Täuschungen im Reifegrad-Check

Täuschung 1: "Wir nutzen ChatGPT, also Stage 2." Realität: ChatGPT-Nutzung ohne Tool-Lizenzen, ohne Schulung, ohne KPI ist Stage 1 (Exploring). Stage 2 verlangt offizielle Tool-Lizenzen, dokumentierte Schulung, basis-Governance. Wenn Sie nicht in 5 Minuten die Frage "wer hat welche Permissions" beantworten können, sind Sie in Stage 1.

Täuschung 2: "Wir messen Inline-Acceptance, also Stage 3." Realität: Inline-Acceptance, Lines-of-Code, Story-Points sind Vanity-Metriken, die nicht mit Cycle-Time korrelieren (siehe MEMR-Studie 2025/26). Stage 3 verlangt DORA-Metriken (Lead Time, Deployment Frequency, MTTR, Change Failure Rate) oder Cycle-Time-pro-Größeneinheit, mit Pre-Post-Vergleich. Mehr im KPI-Framework-Post.

Täuschung 3: "Wir haben einen Workflow produktiv, also Stage 4." Realität: Stage 4 verlangt Kerngeschäfts-Integration, nicht Support-Funktions-Optimierung. Wenn Ihr KI-Workflow Eingangsrechnung oder Mail-Triage ist, sind Sie in Stage 3 (Optimized). Stage 4 ist Customer-Service als USP, eigene Produkt-Empfehlungs-Engine, eigene Engineering-Pipeline-Optimierung mit Wettbewerbsvorteil.

Was nach dem Selbsttest kommt: 3 Stufen-Empfehlungen

Wenn Sie in Stage 1-2 sind: Konzentration auf einen ersten produktiven Use Case in 90 Tagen. Externe Begleitung sehr wahrscheinlich nötig (1 von 10 schaffen es ohne externen Partner laut Sentient-Engagement-Daten 2026). Budget 30.000 bis 80.000 Euro für Pilot, plus 90.000 bis 200.000 Euro für Skalierung. Mehr in der 90-Tage-Use-Case-Matrix.

Wenn Sie in Stage 3 sind: Aus Optimierung in Differenzierung wechseln. Konzentration auf 1 bis 2 Kerngeschäfts-Use-Cases mit USP-Potenzial. Skill-Library als IP-Asset behandeln, nicht als Tool-Sammlung. Externe Begleitung als Sparring (1-2 Tage pro Quartal), nicht als Implementer. Mehr in unserem Make/Buy/Partner-Post.

Wenn Sie in Stage 4-5 sind: Skalierung halten, Skill-Library als IP-Asset schützen (Versionierung, Backup, Owner-Struktur), Talent-Magnet-Strategie aufbauen (KI-Champion-Programm intern, Reskilling-Akademie für Mitarbeiter, Public-Speaking durch CEO/CTO zu eigenen KI-Erfolgen). Talent-Anziehung wird ab Stage 4 zum strategischen Vorteil.

KI-Kompetenz-Pflicht ab 2.8.2026: Was Geschäftsführer JETZT erledigt haben müssen →

Häufige Fragen

Wie oft sollten wir den Reifegrad-Check machen? Quartalsweise als Selbst-Check (15 Minuten), jährlich als Workshop-Tiefe (3 Stunden mit AI-Champion plus Geschäftsführung plus IT-Lead). Mehr-Frequenz lohnt nicht, weil die Stage-Verschiebung typisch mindestens 6 Monate braucht.

Was, wenn unsere Stages in verschiedenen Bereichen unterschiedlich sind? Sehr häufig. Engineering ist oft 1-2 Stages voraus von Operations oder Sales. Bewertung pro Funktions-Bereich machen, dann Median-Stage als Org-Stage angeben. Investitions-Priorität in den Bereichen mit niedrigster Stage und höchstem Geschäftsbeitrag.

Was kostet eine externe Reifegrad-Bewertung? Mittelstand-Digital Zentren bieten den KI-Readiness-Check (KIRC) kostenlos an, das ist der Einstieg. Tiefere Bewertungen mit Strategie-Empfehlung kosten typisch 8.000 bis 25.000 Euro für 3-4 Wochen Engagement. Sentient bietet 60-Minuten-Sparring kostenlos, das deckt nicht die Tiefe, aber genug für die ersten Hypothesen.

Wir sind in Stage 1, aber wir wollen schnell auf Stage 4. Geht das? In 12 Monaten von Stage 1 auf Stage 4: in unseren 2026-Engagements haben wir das in 1 von 12 Fällen gesehen, und nur mit Geschäftsführungs-Vollmandat plus 200.000-plus-Euro-Budget plus externem Senior-Partner. Realistisch ist Stage 1 → Stage 2 in 6 Monaten, Stage 2 → Stage 3 in weiteren 12 Monaten, Stage 3 → Stage 4 in weiteren 18 Monaten.

Was, wenn wir uns über die Stage uneinig sind im Geschäftsführungs-Kreis? Dann ist die Stage typisch 1 Stufe niedriger als die optimistische Sicht. Die häufigste Fehl-Selbsteinschätzung ist "wir glauben Stage 3, sind aber Stage 2". Honest-Test: schreiben Sie zu jeder Stage-Stufe drei konkrete Belege auf — wenn Sie für Stage 3 nicht drei dokumentierte Workflows mit Pre-Post-KPI nennen können, sind Sie in Stage 2.

Der KI-Vorsprung wird zum Abgrund: Operating-Margin-Gap +47% →

Quellen


Über den Autor

Sebastian Lang ist Co-Founder von Sentient Dynamics und leitet das Agentic-University-Programm. Vor Sentient war er bei SAP in der Strategy-Practice für KI-Workforce-Programme verantwortlich, mit 15 plus Jahren Engineering-Leadership-Erfahrung. Sentient Dynamics arbeitet mit erfolgsbasierter Vergütung und ist im SHD- sowie Bregal-Portfolio im Einsatz.

Newsletter abonnieren | Sebastian auf LinkedIn

Über den Autor

Sebastian Lang

Co-Founder · Business & Content Lead

Co-Founder von Sentient Dynamics. 15+ Jahre Business-Strategie (u.a. SAP), MBA. Schreibt über AI-Act-Compliance, ROI-Messung und wie Mittelstand-CTOs agentische KI tatsächlich einführen.

Weiterlesen

Einmal im Monat. Nur Substanz.

Keine Motivationssprüche. Keine Tool-Listen. Nur was CTOs, COOs und Geschäftsführer in DACH über KI-Adoption wirklich wissen müssen.