Das SHIFT-Framework
Ein Umsetzungsmodell nach dem Prinzip Business vor Technik, auf zwei synchronen Ebenen — Mensch und Technik. Mit Use-Case-Landkarte und Vier-Dimensionen-Raster, Branchenschnitt, Kennzahlen, EU-AI-Act-Mapping, Gate-Audit, Preisarchitektur, Führungsverschiebungen und Go-to-Market-Plan.
Vorwort: Warum dieses White Paper existiert
Dieses White Paper beschreibt ein Framework. Aber es beginnt nicht mit einem Framework. Es beginnt mit einer Beobachtung, die ich in den vergangenen Jahren in sehr vielen Unternehmen gemacht habe — und die in keinem Beratungsmodell, das ich kenne, ehrlich benannt wird.
Die Beobachtung lautet: Hinter fast jeder KI-Einführung, die scheitert, steht nicht ein technischer Fehler. Sondern die stille Angst der Menschen, die sie tragen sollen. Die Angst, nicht mehr gebraucht zu werden. Die Angst, das Neue nicht zu verstehen. Die Angst, sich vor Kolleginnen und Kollegen zu blamieren. Die Angst, ein Projekt zu verantworten, dessen Versprechen man selbst kaum einschätzen kann.
Diese Angst ist der Schlüssel.
Diese Haltung ist kein deutscher Sonderweg. Zack Kass, bis 2023 Head of Go-to-Market bei OpenAI, formuliert es so: „Technologie wird die Zukunft der Arbeit nicht definieren. Das wird die Führung tun." Unternehmen florierten nicht durch reine Effizienzgewinne, sondern dann, wenn Führungskräfte KI nutzten, um „den menschlichen Beitrag zu steigern und den Menschen die Freiheit zu geben, sich auf das zu konzentrieren, was nur sie tun können." Das SHIFT-Framework ist die operative Übersetzung dieser Haltung in den deutschen Mittelstand.
Denn wer sie benennt, kann mit ihr arbeiten. Wer sie ignoriert, baut gegen sie. Deshalb ist das SHIFT-Framework nicht nur ein Vorgehensmodell, sondern eine Haltung. Die Haltung lautet: Business vor Technik, Mensch neben Technik, Mut vor Methode. Alles, was in diesem Dokument folgt, ist die saubere Ausarbeitung dieser drei Sätze.
Das White Paper richtet sich an Geschäftsführer, Bereichsleiter und Transformationsverantwortliche, die eine KI-Einführung nicht als Projekt, sondern als permanenten Prozess verstehen wollen. Es ist dicht geschrieben. Es verlangt Aufmerksamkeit. Es verspricht im Gegenzug: Nach der Lektüre wissen Sie, woran eine KI-Einführung scheitert, bevor sie anfängt — und was Sie konkret anders machen müssen.
Executive Summary
KI-Einführungen scheitern systematisch. Die Zahlen sind eindeutig: 74 Prozent der Unternehmen schaffen keinen skalierbaren KI-Wert (BCG 2025). 95 Prozent verzeichnen keinen messbaren ROI (Harvard 2025, „AI Workslop"). Von 33 Prototypen erreichen nur vier die Produktionsreife (IDC). Und 84 Prozent der Fehlschläge gehen auf Führungsversagen zurück (RAND).
Die Ursache ist nicht technisch. Sie hat zwei strukturelle Wurzeln:
- Die Trennung von Mensch und Technik: Beide Stränge werden zeitlich und organisatorisch entkoppelt geführt — und blockieren sich gegenseitig.
- Die falsche Reihenfolge: Die Technologie wird vor dem Geschäftsproblem gewählt. „Technology Push" statt „Demand Pull".
Das SHIFT-Framework adressiert beide Ursachen konsequent. Es führt Mensch und Technik synchron in fünf Phasen. Es beginnt in jeder Phase mit dem Geschäftsproblem, nicht mit der Technologie. Und es arbeitet mit einem dritten, bislang unterschätzten Faktor: der Angst vor Veränderung als Gestaltungsressource, nicht als Hindernis.
Die fünf Phasen im Akronym:
- S — Sichten: Geschäftsproblem, Menschen und Daten sauber erfassen und bewerten.
- H — Handeln: Erste kontrollierte Erfahrungen mit priorisierten Use Cases sammeln.
- I — Integrieren: Rollen, Aufgaben und Arbeitsabläufe neu schneiden.
- F — Fokussieren: Auf wenige wirksame Fälle konzentrieren, technisch absichern.
- T — Tragen: In den Alltag überführen, Wirkung messen, weiterentwickeln.
Das Framework ist das inhaltliche Rückgrat der Marke Mindshift KI. Sprache, Haltung und Tonalität sind nicht Beiwerk, sondern Träger der Methode. Ein Leser dieses Dokuments soll nicht nur verstehen, wie SHIFT funktioniert, sondern warum nur dieser Weg hält, was KI in Unternehmen wirklich leisten kann.
Kapitel 1Ausgangslage: Warum KI-Einführungen systematisch scheitern
1.1 Die Zahlen
Der KI-Markt wächst. Die Erfolgsquote in den Unternehmen nicht:
- BCG (2025): 74 Prozent aller Unternehmen schaffen keinen skalierbaren KI-Wert.
- McKinsey (2025): 88 Prozent nutzen KI, nur 39 Prozent weisen EBIT-Beitrag nach.
- IDC: Von 33 Prototypen erreichen nur vier die Produktionsreife (88 Prozent Ausfall).
- Prosci: 63 Prozent der Hürden sind menschliche Faktoren.
- RAND: 84 Prozent der Fehlschläge gehen auf Führungsversagen zurück.
- Harvard (2025): 95 Prozent der Organisationen verzeichnen keinen messbaren ROI („AI Workslop").
- Gartner (2026): Bis 2027 werden über 40 Prozent der agentischen KI-Projekte an der Unvereinbarkeit mit Altsystemen scheitern.
Diese Zahlen sind nicht pessimistisch. Sie sind diagnostisch. Sie zeigen, dass die Lücke zwischen Pilot und produktiver Wirkung systematisch ist — kein Einzelfall, kein Brancheneffekt, kein Ausreißer. Wer diese Lücke ignoriert, wird sie wiederholen.
1.2 Die drei strukturellen Fehler
Fehler 1: Die Trennung von Mensch und Technik
Die meisten Einführungen trennen den technischen Strang (IT, Daten, Modelle) vom menschlichen Strang (HR, Change, Coaching). Beide laufen zeitlich und inhaltlich versetzt. Das Ergebnis: Die technische Ebene produziert Werkzeuge, für die es keine Nutzer gibt. Die menschliche Ebene produziert Akzeptanz für Werkzeuge, die noch nicht existieren. Am Ende blockiert eine Ebene die andere.
Fehler 2: Die falsche Reihenfolge
Ebenso verbreitet: Die Technologie wird vor dem Geschäftsproblem gewählt. Organisationen suchen zuerst ein Werkzeug aus und anschließend ein Problem, das damit gelöst werden könnte. Das Muster heißt „Technology Push". Seine Folgen sind in der Forschung belegt:
- Modelle passen nicht zur operativen Realität der Fachabteilungen.
- Es fehlen klare Definitionen der zu lösenden Geschäftsprobleme und damit messbare Erfolgskriterien.
- Initiativen bleiben in der „Pilothölle" stecken.
- Datenqualität und Integration werden erst nach Projektstart geprüft — mit teuren Abbrüchen als Folge.
Das Gegenmuster ist der „Demand Pull": Ausgangspunkt ist ein spezifischer geschäftlicher Engpass oder ein konkretes Nutzungspotenzial. Die Technologie wird danach ausgewählt. Das ist die Grundhaltung des SHIFT-Frameworks.
Fehler 3: Die unausgesprochene Angst
Dieser Fehler wird in Beratungsmodellen selten benannt. Er ist trotzdem der wirksamste. Er klingt so: „Wir müssen jetzt etwas mit KI machen, sonst werden wir überholt." Hinter diesem Satz steht nicht Überzeugung, sondern Angst. Angst vor dem Wettbewerb, Angst vor den eigenen Mitarbeitern, Angst vor Vorständen, Angst vor dem Markt.
Angst erzeugt Aktionismus. Aktionismus kauft Tools. Tools lösen keine Probleme. Damit ist der Zyklus vollständig: Angst → Aktion → Tool → kein Effekt → mehr Angst. Das SHIFT-Framework bricht diesen Zyklus an genau einer Stelle: am Anfang. Es erlaubt, die Angst zu benennen, bevor die Technologie ausgewählt wird.
Zack Kass bringt das Muster auf den Punkt: „Derzeit machen viele Menschen Geschäfte mit der Angst." Und er benennt das eigentliche Risiko präziser, als es die üblichen Job-Verlust-Narrative tun: „Das eigentliche Risiko ist keine Krise des Arbeitsplatzverlustes, sondern eine Krise der Identitätsverdrängung." Genau hier setzt das SHIFT-Framework an — nicht bei der Technik, sondern bei der Identität der Menschen, die sie tragen sollen.
1.3 Die wissenschaftliche Grundlage
SHIFT steht nicht auf Marketing-Narrativen. Es steht auf belegten Wirkmechanismen:
- Paul Leonardi (Harvard Business School): „Developing a Digital Mindset" — das Konzept der digitalen Fluency.
- Amy Edmondson (Harvard): „Psychological Safety" als Lernvoraussetzung in Teams.
- Stanford (Carol Dweck): Growth Mindset als Prädiktor für Nutzungsverhalten.
- Erweitertes Technology Acceptance Model (TAM).
- FERC-Modell (Frame, Explore, Refine, Commit) zur hybriden Intelligenz.
- Hampel (2025): Neue Fehlerkultur — Just Culture, Double-Loop-Learning, Pre-Mortem, After-Action-Review.
- Business-First-Forschung (KPMG, EY, Agility at Scale): Demand Pull, Pain-Point-Analyse, Use-Case-Priorisierung.
- Anthropic Economic Index (2025): Produktivitätseffekte bei Centauren-Mustern.
- Prosci ADKAR: Reinforcement und Verankerung.
1.4 Die Konsequenz für das Framework
Ein tragfähiges Umsetzungsmodell muss fünf Anforderungen erfüllen:
- Beide Ebenen — Mensch und Technik — gemeinsam und phasengleich führen.
- Am Geschäftsproblem beginnen, nicht an der Technologie.
- Pro Phase messbare Veränderungen ausweisen.
- Auf belegten Wirkmechanismen aufbauen, nicht auf Marketing-Narrativen.
- Die emotionale Dimension (Angst, Unsicherheit, Identität) gleichberechtigt behandeln — nicht als „Soft Factor" an den Rand schieben.
Das SHIFT-Framework ist für genau diesen Anspruch konzipiert.
Kapitel 2Grundidee: Business vor Technik, Mensch neben Technik
2.1 Die beiden Ebenen und der Business-Anker
Das Framework unterteilt eine KI-Einführung in fünf Phasen. In jeder Phase laufen zwei Ebenen parallel und zeitlich abgestimmt: die menschliche Ebene (Haltung, Verhalten, Rollen) und die technische Ebene (Daten, Modelle, Systeme). Beide Ebenen werden durch einen übergeordneten Bezugspunkt zusammengehalten: das Geschäftsproblem.
Keine Aktivität auf einer der beiden Ebenen beginnt, ohne dass der Geschäftsnutzen benannt und quantifiziert ist. Das unterscheidet SHIFT von Modellen, die entweder technikzentriert (MLOps) oder menschenzentriert (ADKAR, Kotter) operieren.
| Menschliche Ebene | Technische Ebene | Business-Anker | |
|---|---|---|---|
| Gegenstand | Haltung, Rollen, Verhalten, Fehlerkultur | Daten, Modelle, Schnittstellen, Governance | Engpass, Fehlerkosten, Wettbewerbsvorteil |
| Disziplin | Organisationsentwicklung, Psychologie | Data Science, Software Engineering | Betriebswirtschaft, Strategie |
| Zielgröße | Nutzungsverhalten, Growth Mindset | Modellgüte, Stabilität, Compliance | EUR/Jahr, Durchlaufzeit, Qualitätsquote |
| Scheitert, wenn | Angst tabuisiert wird | Context-freie Modelle gebaut werden | kein Sponsor, kein Nutzen beziffert |
2.2 Sieben Grundprinzipien
Prinzip 1: Business vor Technik
Ausgangspunkt jeder Maßnahme ist ein konkretes Geschäftsproblem — ein Engpass, eine Fehlerquelle, ein Wettbewerbsnachteil. Die Technologie folgt, sie führt nicht. Kein Use Case beginnt ohne benannten Fachbereichs-Sponsor und ohne quantifiziertes Nutzenpotenzial. Dieses Prinzip steht bewusst vor den übrigen, weil es die Reihenfolge vorgibt.
Prinzip 2: Mensch neben Technik, nicht nach Technik
Die menschliche Ebene ist keine Begleitmaßnahme, die nach der technischen Arbeit stattfindet. Sie ist gleichzeitig, gleichberechtigt, gleich budgetiert. Wer die Reihenfolge „erst technisch bauen, dann Akzeptanz erzeugen" wählt, baut zweimal.
Zack Kass, ehemaliger Head of Go-to-Market bei OpenAI, nennt dafür den Begriff „Automation Boundary": die bewusste Linie zwischen dem, was Maschinen tun sollten, und dem, was Menschen behalten müssen — entschieden entlang von Risiko, Wert und Akzeptanz. Genau diese Grenze zu ziehen, ist Aufgabe der menschlichen Ebene in SHIFT, nicht der technischen.
Prinzip 3: Synchronität statt Sequenz
In jeder Phase werden beide Ebenen im selben Takt bearbeitet. Keine Phase lässt eine der beiden Ebenen liegen. Das führt zu einer höheren Eingangskomplexität, aber deutlich geringerer Reibung in der Umsetzung.
Prinzip 4: Messbarkeit pro Phase
Jede Phase definiert beobachtbares Verhalten und konkrete Systemzustände. Am Ende jeder Phase steht eine Überprüfung, die auf Beobachtung und Kennzahlen beruht — nicht auf Selbstauskunft.
Prinzip 5: Wirkung vor Aktivität
Eine Maßnahme ist erfolgreich, wenn sich die definierten Indikatoren verändert haben — nicht, weil sie stattgefunden hat. Ein Workshop, ein Pilot, ein Governance-Meeting sind Aktivitäten. Sie werden an ihrem Wirkungsbeitrag gemessen, nicht an ihrer Durchführung.
Prinzip 6: Umkehrbarkeit nur kontrolliert
Jede Phase schließt ab, bevor die nächste beginnt. Rückschritte werden ausgewiesen und begründet. Das ist kein Wasserfall — Iterationen innerhalb einer Phase sind ausdrücklich vorgesehen —, aber das Überspringen von Gates ist nicht zulässig.
Prinzip 7: Builder-Strategist-Prinzip
Die Umsetzung liegt bei einer Person, die beide Ebenen beherrscht: Strategie und Umsetzung zugleich, ohne Schnittstellen zu einem getrennten Implementierungsteam. Das reduziert Abstimmungsverluste, erhöht die Verantwortungs-Klarheit und ist der zentrale Grund, warum SHIFT in einer Hand geführt werden kann.
2.3 Abgrenzung zu bestehenden Modellen
| Modell | Fokus | Was fehlt | Wo es in SHIFT eingeht |
|---|---|---|---|
| ADKAR (Prosci) | Change auf Individualebene | Technik, Business-Priorisierung | Wirkprinzipien menschliche Ebene, Reinforcement |
| Kotter (8 Schritte) | Organisatorischer Wandel | Messbarkeit, Technik | Sense of Urgency, Koalition |
| MLOps | Technischer Betrieb | Mensch, Business-Nutzen | Bausteine Phase F und T |
| KPMG / EY Roadmap | Use-Case-Priorisierung | Menschliche Ebene, Fehlerkultur | Impact/Effort, Pain-Point-Analyse |
| Agile / Scrum | Iteratives Vorgehen | Transformation als Ganzes | Sprint-Logik in Phase H |
| SHIFT | Beides, synchron, am Business | — | — |
2.4 Der emotionale Unterbau des Frameworks
Ein Framework ist Papier. Was ihm Wirkung gibt, ist der Modus, in dem es angewandt wird. SHIFT unterscheidet sich von klassischen Transformationsmodellen durch einen expliziten emotionalen Unterbau. Er besteht aus drei Sätzen, die in jeder Phase anwesend sein müssen:
- „Sie müssen das nicht verstehen, dafür gibt es mich." — Sicherheit für Entscheider.
- „Die Angst ist der Schlüssel, nicht das Problem." — Zulassen, was sonst verdrängt wird.
- „Aus „Ich kann das nicht" wird „Ich kann das noch nicht." — Growth Mindset im Alltag.
Diese Sätze sind keine Schmuckstücke. Sie sind Arbeitsmittel. Sie öffnen die Gespräche, in denen die eigentliche Arbeit passiert. Ein Use-Case-Workshop, in dem niemand Angst zeigen darf, produziert keine ehrlichen Pain Points. Ein Pilot, in dem Fehler stigmatisiert sind, produziert keine tragfähigen Erkenntnisse.
Kapitel 3Das SHIFT-Framework in der Tiefe
Jede Phase wird nach identischer Struktur beschrieben:
- Ausgangslage — Zielzustand
- Business-Ebene: Methodik, Artefakte, Fragen
- Menschliche Ebene: Instrumente, Rituale, Sprachmuster
- Technische Ebene: Bausteine, Abgrenzungen
- EU-AI-Act-Bezüge und Nachweise
- Typische Fallstricke
- Wirkung und Übergang in die Folgephase
Die Business-Ebene steht in jeder Phase an erster Stelle. Die menschliche und die technische Ebene folgen — nicht umgekehrt. Das ist kein redaktioneller Zufall, sondern Methode.
Ausgangslage
Die Organisation hat Ideen zu KI, meist ohne klare Priorisierung. Es gibt unterschiedliche Ausprägungen von Unsicherheit auf der menschlichen Seite. Technisch liegt eine heterogene Systemlandschaft vor: Daten sind weitgehend unstrukturiert (IDC: 90 Prozent), Schnittstellen unvollständig beschrieben, Schatten-KI ist an mehreren Stellen bereits aktiv, ohne dass jemand den Überblick hat.
Zielzustand
Am Ende der Phase S liegen drei belastbare Ergebnisse vor:
- Eine priorisierte Use-Case-Liste mit quantifiziertem Geschäftswert (EUR/Jahr) und Vier-Dimensionen-Bewertung.
- Ein belegbares Lagebild über Haltung, Bereitschaft und spezifische Ängste der Betroffenen.
- Ein Inventar der verfügbaren Daten, Systeme und bestehenden KI-Funktionen — einschließlich Schatten-KI.
Business-Ebene — die Use-Case-Landkarte
Dies ist der Einstiegspunkt jeder SHIFT-Einführung. Vor jeder Daten-Analyse und vor jedem Mitarbeitergespräch steht die Frage: An welchen Stellen des Geschäfts liegt der größte Nutzen?
Methodik im Detail:
- Pain-Point-Workshops mit Fachbereichsleitern, ausgehend von den strategischen Jahreszielen. Dauer typisch 3 Stunden je Bereich.
- Wertschöpfungsketten-Analyse: Wartezeiten, Doppelarbeit, Qualitätsverluste, Medienbrüche je Prozessschritt.
- Strategische Einordnung: Welche Pain Points tragen am stärksten zum Wettbewerbsvorteil bei, wenn sie gelöst werden?
- Quantifizierung: Jeder Pain Point wird mit einem Geschäftswert hinterlegt (EUR/Jahr, vermiedene Fehlerkosten, Zeitersparnis × Stundensatz).
Drei Use-Case-Kategorien werden systematisch durchgegangen:
| Kategorie | Beispielhafte Fälle | Typischer Hebel |
|---|---|---|
| Fehlervermeidung / QS | Reklamationsprüfung, Rechnungsfreigabe, Qualitätskontrolle | Vermiedene Fehlerkosten, Compliance-Risiko |
| Zeitersparnis / Effizienz | Angebotserstellung, Ausschreibungsprüfung, Onboarding-Dokumente | Durchlaufzeit, Kapazität |
| Vorhersage / Wettbewerbsvorteil | Preisprognose, Absatzprognose, Kundensegmentierung, Predictive Maintenance | Umsatz, Marge, Lagerbestand |
Das Vier-Dimensionen-Bewertungsraster. Jeder identifizierte Use Case wird anhand von vier Dimensionen bewertet. Erst wenn alle vier zusammen akzeptabel sind, wird ein Use Case in die Pilot-Auswahl der Phase H aufgenommen.
| Dimension | Frage | Bewertungsskala | Schwellwert |
|---|---|---|---|
| Business Value | Welcher Nutzen, quantifiziert in EUR oder Zeit? | 1 (< 50k EUR/Jahr) bis 5 (> 1 Mio EUR/Jahr) | ≥ 3 |
| KI-Eignung | Ist die Aufgabe mustererkennend, sprachbasiert, wiederkehrend, klar abgegrenzt? | 1 (ungeeignet) bis 5 (ideal) | ≥ 3 |
| Data Readiness | Liegen die Daten in ausreichender Qualität, Menge und Zugriffsform vor? | 1 (keine Basis) bis 5 (Production-ready) | ≥ 3 |
| Organisationsreife | Gibt es Sponsor, Rollen, Zeit und psychologische Bereitschaft? | 1 (kein Träger) bis 5 (Team steht) | ≥ 3 |
Ergebnis: Die Use Cases werden in einer Impact/Effort-Matrix visualisiert. Business Value auf der Y-Achse, Machbarkeit (gewichteter Mittelwert aus KI-Eignung, Data Readiness, Organisationsreife) auf der X-Achse. Quick Wins (hoch/hoch) werden bevorzugt in Phase H gestartet. Strategische Langläufer (hoch/niedrig) werden notiert und zurückgestellt, bis die niedrigen Faktoren adressiert sind.
Disziplin: Das Raster ist bewusst streng. Use Cases, die in einer Dimension unter dem Schwellwert liegen, scheiden aus — sie werden nicht nachbewertet. Das verhindert Lieblingsprojekte, die sich in die Folgephasen schleichen.
Menschliche Ebene — das Lagebild
Parallel zur Business-Analyse wird die menschliche Seite erfasst. Ziel ist nicht Überzeugungsarbeit, sondern ein ehrliches Bild. Drei Instrumente:
- Digitales Mindset Assessment (Leonardi): Selbstauskunft + Verhaltensbeobachtung zu digitaler Fluency.
- Growth-vs.-Fixed-Mindset-Befragung (Dweck): Identifiziert, wer bereits „noch nicht" denkt und wer „kann ich nicht" denkt.
- Angst-Kartografie (Mindshift-spezifisch): Offene Einzelinterviews von 30 Minuten, in denen drei Fragen gestellt werden: Was erleichtert Sie? Was belastet Sie? Was macht Sie wach?
Die Angst-Kartografie ist das wichtigste, am seltensten praktizierte Instrument dieser Phase. Sie liefert keine Statistik, sondern Zitate. Zitate, die in Phase H als Hypothesen-Checks dienen.
Sprachmuster in Phase S:
- „Was läuft gut genug?" (statt „Was muss anders?")
- „Was würde passieren, wenn wir gar nichts tun?" (löst ehrliche Dringlichkeits-Einschätzung aus)
- „Wo lügen Sie sich gerade selbst an?" (nur in vertrauensvollen Gesprächen, aber wirkungsvoll)
Technische Ebene — Daten-Audit und KI-Inventar
- Daten-Audit: Quellen, Qualität, Vollständigkeit, Zugriffsrechte, strukturiert vs. unstrukturiert. Je Use Case mindestens zwei Datenquellen dokumentiert.
- Schnittstellen-Inventur: Welche Systeme per API ansprechbar, welche nicht. Aufwand-Schätzung pro Integration.
- KI-Inventar: Alle bereits im Unternehmen vorhandenen KI-Modelle, KI-Funktionen und eingebetteten Features (auch Schatten-KI, auch private ChatGPT-Nutzung). Grundlage für die EU-AI-Act-Risikokategorisierung.
- Architektur-Skizze: Systemlandschaft auf einer Seite, mit Engpässen und Integrationsoptionen.
EU-AI-Act-Bezüge
- Art. 10 (Daten und Datenqualität): Nachweis der Datenqualität pro geplantem Use Case.
- Art. 11 (Technische Dokumentation): Start einer zentralen Dokumentation pro Use Case.
- Art. 4 (AI Literacy, seit 02.02.2025): Bereits in dieser Phase wird die AI-Literacy-Lücke kartiert.
Typische Fallstricke in Phase S
- Der Workshop wird zum Wunsch-Katalog.
- Die Daten werden nicht angefasst — Data Readiness wird aus Selbstauskunft der IT geschätzt.
- Angst wird als „HR-Thema" ausgelagert.
- Kein Sponsor: Use Cases werden priorisiert, ohne dass ein Fachbereichsleiter die Verantwortung übernimmt.
Wirkung und Übergang
Kernprodukt ist die priorisierte Use-Case-Liste. Sie wandert durch alle folgenden Phasen und wird in jeder Phase aktualisiert. Ohne diese Liste beginnt Phase H nicht.
Ausgangslage
Die priorisierte Use-Case-Liste aus Phase S liegt vor. Statt längerer Konzeptphasen oder breiter Einführungen werden kleine, kontrollierte Erfahrungen ausgelöst. Leitsatz: Start Small, Scale Fast.
Zielzustand
Zwei bis vier Piloten laufen auf den aus Phase S gewonnenen Top-Use-Cases. Pro Pilot liegt ein Nachweis vor, ob sich der im Raster angesetzte Business Value tatsächlich realisieren lässt. Mitarbeiter haben persönlich erlebt, dass sie KI bedienen können. Eine neue Fehlerkultur ist in den Piloten gelebte Praxis, nicht Wandschmuck.
Business-Ebene — Auswahl und Abbruchkriterien
Die Auswahl der Piloten folgt ausschließlich der Matrix aus Phase S. Quick Wins werden bevorzugt. Pro Pilot wird ein Fachbereichs-Sponsor benannt — ohne Sponsor kein Start (Joint Ownership).
Abbruchkriterien werden vor Pilotstart in dieser Reihenfolge schriftlich definiert:
- Wirtschaftlich: Ab wann lohnt sich die Fortführung nicht mehr?
- Technisch: Ab wann liefert das Modell keine brauchbaren Ergebnisse mehr?
- Organisatorisch: Wird der Pilot von den Beteiligten angenommen oder umgangen?
Zusätzlich: Pro Pilot wird eine Null-Hypothese formuliert. Beispiel: „Der Pilot hat keinen messbaren Effekt auf Durchlaufzeit." Die Aufgabe des Pilots ist, die Null-Hypothese zu widerlegen.
Menschliche Ebene — Growth Mindset im Alltag
Grundlage ist das technologische Wachstumsdenken. Menschen mit Growth Mindset iterieren bei fehlerhaften KI-Antworten, statt abzubrechen. Dies entspricht dem Konzept der Psychological Safety (Edmondson).
Konkretes Vorgehen:
- Pilot-Kick-off: 2 Stunden je Pilot. Erste Prompts werden gemeinsam geschrieben. Jeder Teilnehmer bedient das Werkzeug mindestens einmal live.
- Wöchentliche „Fehler-Runde" von 30 Minuten: Teilnehmer zeigen die schlechtesten KI-Antworten der Woche.
- Prompt-Tagebuch: Jeder Pilot-Teilnehmer führt ein kurzes Tagebuch (5 Minuten/Tag) mit Prompts, Ergebnissen, Nachbesserungen.
Die neue Fehlerkultur als kultureller Unterbau (Hampel 2025 mit integrierter Edmondson-Psychological-Safety):
- Fehler sind Datenpunkte und Lernsignale, nicht moralisches Versagen.
- Just Culture unterscheidet sauber zwischen Lernfehlern und grober Fahrlässigkeit.
- Systemblick statt Personenschuld.
- Entmoralisierte Sprache: „Versagen" wird „Hypothesenprüfung", „Schuld" wird „Iteration".
- Intelligente Fehler in unsicheren Situationen sind gewollt.
Operative Rituale: Pre-Mortem vor jedem Pilotstart, After-Action-Review nach jedem Meilenstein, Fehlerbudget für Experimente.
Technische Ebene — Sandbox, nicht Produktion
- Sandbox: Isolierte Testumgebung, strikte Trennung von Produktionssystemen, vollständige Protokollierung.
- Modellwahl: Verfügbare Foundation Models (GPT-Klasse, Claude-Klasse) ohne Custom-Training.
- Daten-Snapshots statt Live-Anbindung.
- Protokollierung: Jede Interaktion wird geloggt.
EU-AI-Act-Bezüge
- Art. 4 (AI Literacy): Mitarbeitende müssen über ausreichende KI-Kenntnisse verfügen.
- Art. 5 (Verbote): Prüfung, ob der geplante Use Case unter verbotene Praktiken fällt.
Typische Fallstricke in Phase H
- Der Pilot wird zum Mini-Produkt: Statt zwölf Wochen Lernen werden sechs Monate gebaut.
- Kein Abbruch: Ein Pilot, der die Abbruchkriterien reißt, wird trotzdem weitergeführt.
- Angst wird zensiert.
- Keine Messung: Bearbeitungszeit und Fixing Time werden nicht dokumentiert.
Wirkung und Übergang
Am Ende von Phase H liegen vor: zwei bis vier ausgewertete Piloten mit klaren Entscheidungen, eine erste Prompt-Bibliothek, ein dokumentiertes Angst- und Akzeptanzlagebild, erste Fehlerkultur-Rituale im Alltag. Der Gate-Übergang in Phase I ist nur möglich, wenn mindestens ein Pilot Business Value nachgewiesen hat.
Ausgangslage
Die Piloten aus Phase H haben Business Value nachgewiesen. Es reicht nicht mehr, KI als Zusatzwerkzeug bereitzustellen — die Arbeit selbst muss neu geschnitten werden. Dies ist die Phase, in der die meisten Organisationen stehen bleiben.
Zielzustand
Drei bis fünf Kernanwendungsfälle sind produktiv. Rollenbilder sind angepasst. Arbeitsabläufe sind neu modelliert mit Human-in-the-Loop-Freigabepunkten. Der Unterschied zwischen Erfolg und Workslop ist in den Prozess eingebaut.
Business-Ebene — vom Pilot zum Kernanwendungsfall
Die drei bis fünf Kernanwendungsfälle ergeben sich aus den Pilot-Gewinnern der Phase H. Auswahlkriterium: nachgewiesener Business Value plus Skalierbarkeit.
Zwei belastbare Studienergebnisse prägen diese Phase:
- McKinsey: KI-Vorreiter sind fast dreimal so häufig bereit, ihre Arbeitsabläufe grundlegend neu zu schneiden.
- BCG: Spitzenunternehmen konzentrieren 80 Prozent ihrer KI-Investitionen auf ein bis drei Kernfunktionen.
Das Prozess-Redesign-Raster. Jeder Kernanwendungsfall wird entlang dieser Fragen geschnitten:
- Welche Prozessschritte fallen komplett weg?
- Welche Schritte werden von der KI vorbereitet, aber vom Menschen entschieden (Human-in-the-Loop)?
- Welche Schritte werden von der KI autonom ausgeführt (mit Abweichungs-Alarm)?
- Welche Rolle entsteht neu — Prompt-Verantwortlicher, Qualitäts-Reviewer, Eskalationsinstanz?
- Welche Rolle verschwindet oder verschiebt sich inhaltlich?
Menschliche Ebene — der Rollenwechsel
Gegenstand ist der Rollenwechsel. Die produktive Nutzung generativer und agentischer KI erfordert die Verschiebung vom passiven Werkzeugnutzer zum Orchestrator. Das FERC-Modell beschreibt diese Rollenteilung:
| Schritt | Mensch macht | KI macht |
|---|---|---|
| Frame | Problemkontext, Zielbild, Kriterien | — |
| Explore | Prüfung, Nachfrage | Variante 1..n, Literatur, Entwürfe |
| Refine | Auswahl, Verfeinerung, Ausschluss | Ausarbeitung je Richtung |
| Commit | Entscheidung, Verantwortung | Umsetzung im Format |
Identitätsarbeit — der oft vergessene Faktor. Eine Rollenverschiebung berührt die berufliche Identität. SHIFT verlangt in Phase I deshalb explizit:
- Identitäts-Gespräche in jeder betroffenen Rolle.
- Umbenennung der Rollen, nicht nur der Aufgaben.
- Neue Kompetenzen sichtbar machen: Prompt-Design, Qualitäts-Review, KI-Eskalation.
Technische Ebene
- Prozess-Redesign: Visualisierung als Soll-Prozess (BPMN oder einfacher Fluss) pro Kernanwendungsfall.
- Einbau von Human-in-the-Loop-Schranken: Die KI generiert Vorschläge, die finale Freigabe ist technisch erzwungen.
- Rollenspezifische Oberflächen.
- Prompt-Vorlagen: versionierte, geprüfte Prompts.
- Integration in bestehende Kernsysteme (ERP, CRM, DMS).
EU-AI-Act-Bezüge
- Art. 13 (Transparenz, Erklärbarkeit): Nutzer-Dokumentation in verständlicher Sprache.
- Art. 50 (Kennzeichnung generativer Inhalte).
- Art. 14 (Menschliche Aufsicht): Operative Umsetzung über HITL-Schranken.
Typische Fallstricke in Phase I
- Prozesse werden nicht geschnitten, sondern nur ergänzt.
- Identität wird übergangen.
- HITL wird zur Schein-Aufsicht.
Wirkung und Übergang
Ergebnis: KI ist nicht mehr Zusatz, sondern Bestandteil des Prozesses. Übergang in Phase F, sobald alle drei bis fünf Kernanwendungsfälle produktiv laufen.
Ausgangslage
Nach Phase I laufen drei bis fünf Kernanwendungsfälle produktiv. Die Versuchung ist groß, jetzt in die Breite zu gehen. Genau dort scheitern viele Organisationen — nicht an Ideenmangel, sondern an zu vielen Ideen gleichzeitig.
Zielzustand
Die Organisation konzentriert ihre Mittel auf die wirksamen Anwendungsfälle. Die technische Grundlage ist skalier- und wartbar, rechtssicher. Schatten-KI ist abgebaut. Governance-Strukturen sind operativ, nicht nur dokumentiert.
Business-Ebene — Konsolidierung nach Wertbeitrag
Die kritische Durchsicht aller eingesetzten KI-Werkzeuge erfolgt nicht technisch, sondern nach Wertbeitrag. Werkzeuge, die keinem Use Case aus der priorisierten Liste dienen, werden abgeschaltet. In der Regel reduziert sich die Tool-Anzahl um 30–50 Prozent.
Menschliche Ebene
Mitarbeiter und Führungskräfte lernen, Tool-Dichte nicht mit Fortschritt zu verwechseln. Wer in drei Werkzeugen wirklich gut ist, verlangt nicht mehr nach dem vierten.
Technische Ebene — drei Bausteine mit Business-Begründung
Governance und MLOps. Erforderlich, weil die produktiven Use Cases revisionssicher und rechtskonform betrieben werden müssen. Kernkomponenten: Model-Registry, Deployment-Pipeline, Monitoring (Drift, Latenz, Qualität), Rollback-Fähigkeit.
Policy-as-Code. Erforderlich, weil manuelle Prüfungen in einer skalierenden Nutzung nicht mitwachsen. Regeln aus DSGVO, EU AI Act und internen Richtlinien werden technisch erzwungen.
Semantic Layer und MCP. Erforderlich, wenn die Use Cases auf unternehmensweite Kontextinformationen zugreifen müssen oder wenn agentische KI eingesetzt wird. Ohne diese Schicht produziert agentische KI systematisch Workslop. Das Model Context Protocol standardisiert die Kommunikation und reduziert Anbieter-Bindung.
EU-AI-Act-Bezüge
- Art. 9 (Risikomanagement): etabliertes, fortlaufendes Verfahren.
- Art. 14 (Menschliche Aufsicht): technisch in HITL-Schranken, organisatorisch in Aufsichtsrollen.
- Art. 43 (Konformitätsbewertung Hochrisiko): sofern anwendbar.
Typische Fallstricke in Phase F
- Fokussierung wird als „weniger KI" missverstanden.
- Governance ohne Business-Bezug.
- Agentic AI ohne Semantic Layer — führt reproduzierbar zu Workslop.
Wirkung und Übergang
Ergebnis: Weniger Werkzeuge, tiefere Beherrschung, rechtssicherer Betrieb, skalierbare Architektur.
Ausgangslage
Die Anwendungsfälle laufen produktiv. Die Gefahr: Rückbildung nach Projektende. Die Organisation verliert die Rituale, die Fehlerkultur erodiert, Prompt-Qualität sinkt.
Zielzustand
KI-Nutzung ist Teil der Arbeitsroutine. Veränderungen an Modellen, Daten und Richtlinien werden in einem definierten Rhythmus verarbeitet. Wirkung wird fortlaufend gemessen — nicht nur technisch, sondern geschäftlich.
Business-Ebene — laufender Wertbeitrag pro Use Case
Kernkennzahlen pro Use Case:
- Realisierter Nutzen (EUR/Monat), verglichen mit Baseline vor Start.
- Durchlaufzeit (Median und 90. Perzentil).
- Qualitätsquote (Fehler pro 100 Vorgänge).
- Nutzungsrate (Anteil der berechtigten Nutzer, die das System im Monat aktiv verwenden).
- Fixing Time — die einzige Zahl, die Workslop zuverlässig entlarvt.
Menschliche Ebene
Konkrete Rituale:
- „Prompt-Gipfel" pro Quartal: 60 Minuten, beste drei Prompts je Abteilung.
- Reverse Mentoring: Junge oder technikaffine Mitarbeiter geben Führungskräften KI-Stunden.
- Jahresgespräch-Erweiterung: Eine Kompetenzdimension „KI-Souveränität" als Wachstumsfeld.
Technische Ebene
- Dashboards zur Leistungsüberwachung (Modellgüte, Drift, Latenz).
- Dashboards zur Wirkungsmessung (Durchlaufzeit, Kosten, Qualität, Fixing Time).
- Rückkopplungsschleifen: Nutzerkorrekturen fließen in die Weiterentwicklung.
- Change-Prozess für Modelle und Prompts.
EU-AI-Act-Bezüge
- Art. 72 (Post-Market-Monitoring): automatisierte Überwachungsprotokolle.
- Art. 73 (Meldung schwerer Vorfälle): Prozess und Zuständigkeit dokumentiert.
Typische Fallstricke in Phase T
- Wirkung wird nicht gemessen — nur Nutzung.
- Workslop wird ignoriert: Die Fixing Time wird nicht erhoben.
- Die Rituale sterben: Nach sechs Monaten fällt die Nutzung in alte Muster zurück.
Wirkung und Übergang
Ergebnis: KI-Nutzung als Teil der Arbeitsroutine, monatlich belegter Wertbeitrag, lebendige Fehler- und Lernkultur. Die Einführung ist kein Projekt mehr — sie ist ein permanenter Prozess.
Kapitel 4Synchronität in einer Übersicht
Die folgende Matrix zeigt, was in jeder Phase auf beiden Ebenen simultan passiert. Sie ist als Arbeitsblatt gedacht, nicht nur als Darstellung.
| Phase | Business-Anker | Menschliche Ebene | Technische Ebene | Kernartefakt |
|---|---|---|---|---|
| S — Sichten | Welcher Engpass lohnt sich? | Angst-Kartografie, Mindset-Assessment | Daten-Audit, KI-Inventar | Priorisierte Use-Case-Liste |
| H — Handeln | Können wir den Wert realisieren? | Growth-Mindset-Übung, Fehlerkultur-Rituale | Sandbox, Foundation-Modelle | Pilot-Auswertung + Prompt-Tagebücher |
| I — Integrieren | Wie schneiden wir Rollen neu? | Identitätsarbeit, neue Rollenbilder | HITL-Schranken, Prozess-Redesign | Soll-Prozesse + Rollendefinitionen |
| F — Fokussieren | Wo liegt der größte Hebel? | Fokus vor Vielfalt als Haltung | Governance, MLOps, Semantic Layer | Konsolidierte Architektur + Governance |
| T — Tragen | Hält die Wirkung? | Reinforcement-Rituale, Reverse Mentoring | Monitoring, Fixing-Time-Messung | Wirkungs-Dashboard + Change-Prozess |
Die Matrix folgt einer strikten Logik: Die Business-Spalte führt, die beiden Ebenen sind nachgeordnet. Wer die Reihenfolge ändert, verliert das Prinzip.
Kapitel 5Branchenspezifische Zuordnung der Phasen
Kritikalität: + unterdurchschnittlich, ++ durchschnittlich, +++ überdurchschnittlich, ++++ zentral.
| Branche | S | H | I | F | T | Leitsatz |
|---|---|---|---|---|---|---|
| Industrie / Fertigung | +++ | +++ | ++++ | +++ | ++ | Fehlervermeidung und Predictive Maintenance vor Effizienz. |
| Handel / E-Commerce | ++ | +++ | +++ | +++ | ++++ | Personalisierung und Zeitersparnis, Skalierung entscheidet. |
| Finanzdienstleistungen | ++++ | ++ | +++ | ++++ | ++++ | Regulatorik und Audit in jeder Phase präsent. |
| Gesundheit / Pharma | ++++ | + | +++ | ++++ | +++ | Risikoklassifizierung dominiert Phase S. |
| Professional Services | ++ | ++++ | ++++ | ++ | +++ | Rollenverschiebung ist Kernhebel. |
| Öffentliche Verwaltung | ++++ | + | +++ | +++ | +++ | Hochrisiko-Fälle nach Anhang III, strenge Dokumentation. |
| Logistik / Transport | +++ | +++ | +++ | ++ | ++++ | Prognosen und Routing dominieren. |
Kapitel 6Kennzahlen je Phase und Unternehmensgröße
Zielwerte aus McKinsey-, BCG-, IDC-, Deloitte- und Prosci-Daten. Orientierung für den Gate-Abschluss. Größenklassen: Klein (bis 50 MA), Mittelstand (50–500), Mittlere Konzerneinheit (500–3.000), Großkonzern (über 3.000).
| Kennzahl | Klein | Mittelstand | Mittlere KE | Großkonzern |
|---|---|---|---|---|
| Identifizierte Use Cases | ≥ 8 | ≥ 15 | ≥ 25 | ≥ 40 |
| Priorisierte Use Cases (4-D bestanden) | 3–5 | 5–8 | 8–12 | 12–20 |
| Business Value Summe (EUR/Jahr) | ≥ 150k | ≥ 750k | ≥ 3 Mio | ≥ 10 Mio |
| Mitarbeiter mit Mindset-Assessment (%) | 100 | ≥ 60 | ≥ 40 | ≥ 25 |
| Datenqualität dokumentiert (%) | 100 | 100 | 100 | 100 |
| Kennzahl | Klein | Mittelstand | Mittlere KE | Großkonzern |
|---|---|---|---|---|
| Laufende Piloten | 2 | 2–4 | 3–5 | 4–6 |
| Pilot-Dauer (Wochen) | ≤ 12 | ≤ 12 | ≤ 14 | ≤ 16 |
| Piloten mit Business-Value-Nachweis (%) | ≥ 60 | ≥ 60 | ≥ 55 | ≥ 50 |
| AI-Literacy-Quote Zielgruppe (%) | ≥ 80 | ≥ 70 | ≥ 60 | ≥ 50 |
| After-Action-Reviews durchgeführt | 100 % | 100 % | 100 % | 100 % |
| Kennzahl | Klein | Mittelstand | Mittlere KE | Großkonzern |
|---|---|---|---|---|
| Produktive Kernanwendungsfälle | 2–3 | 3–5 | 4–6 | 5–8 |
| Durchlaufzeit-Reduktion (%) | ≥ 25 | ≥ 30 | ≥ 30 | ≥ 30 |
| HITL-Quote | nach Risiko | nach Risiko | nach Risiko | nach Risiko |
| Rollenbilder aktualisiert (%) | 100 | 100 | 100 | 100 |
| Kennzahl | Klein | Mittelstand | Mittlere KE | Großkonzern |
|---|---|---|---|---|
| Tool-Reduktion (%) | ≥ 20 | ≥ 30 | ≥ 40 | ≥ 40 |
| Governance-Struktur operativ | vorhanden | vorhanden | vorhanden | vorhanden |
| Policy-as-Code-Abdeckung (%) | ≥ 50 | ≥ 70 | ≥ 80 | ≥ 90 |
| Schatten-KI reduziert (%) | ≥ 80 | ≥ 80 | ≥ 80 | ≥ 80 |
| Kennzahl | Klein | Mittelstand | Mittlere KE | Großkonzern |
|---|---|---|---|---|
| Monatlich dokumentierter Wertbeitrag | ja | ja | ja | ja |
| Fixing Time / Bearbeitungszeit | ≤ 25 % | ≤ 25 % | ≤ 25 % | ≤ 25 % |
| Nutzungsrate Kern-Use-Cases (%) | ≥ 70 | ≥ 70 | ≥ 70 | ≥ 70 |
| Quartals-Prompt-Gipfel | ja | ja | ja | ja |
Kapitel 7EU-AI-Act-Mapping entlang der Phasen
Der EU AI Act (Verordnung 2024/1689) verpflichtet Unternehmen zu konkreten Maßnahmen. SHIFT integriert diese Pflichten in die Phasenlogik. Compliance wird nicht nachgelagert, sondern phasenbegleitend aufgebaut.
7.1 Pflichten je Phase
| Phase | Relevante Artikel | Konkrete Nachweise |
|---|---|---|
| S | Art. 4, 10, 11 | Daten-Audit, KI-Inventar mit Risikokategorisierung, AI-Literacy-Gap-Analyse |
| H | Art. 4, 5 | Schulungsnachweise, Verbots-Check pro Pilot |
| I | Art. 13, 14, 50 | Modelldokumentation, HITL-Protokolle, Kennzeichnung generativer Inhalte |
| F | Art. 9, 14, 43 | Risikomanagement-Prozess, Aufsichtsrollen, Konformitätserklärung |
| T | Art. 72, 73 | Post-Market-Monitoring, Vorfall-Meldeprozess, Audit-Trails |
7.2 Fristen
- 02.02.2025: Verbote (Art. 5), AI-Literacy-Pflicht (Art. 4) in Kraft.
- 02.08.2025: GPAI-Modelle und Governance-Strukturen.
- 02.08.2026: Großteil der Hochrisiko-Pflichten anwendbar.
- 02.08.2027: Hochrisiko-Pflichten auch für bestehende Systeme im öffentlichen Bereich.
7.3 Hochrisiko-KI
Fällt ein Anwendungsfall unter Anhang III, verschieben sich die Anforderungen nach vorn:
- Phase S enthält eine verpflichtende Risikoklassifizierung je Use Case.
- Phase F ist nicht optional, sondern verpflichtend.
- Die Gate-Kriterien werden um formale Compliance-Prüfungen ergänzt.
Kapitel 8Gate-Audit: Abschluss jeder Phase
Jede Phase wird durch ein Gate abgeschlossen. Ohne bestandenes Gate beginnt die Folgephase nicht. Das Gate ist kein Meeting, sondern ein formaler Akt mit Vorbereitung, Prüfung, Entscheidung und Dokumentation.
8.1 Grundlogik
Ein Gate prüft vier Dinge:
- Business-Ergebnisse: Liegen die priorisierten Use Cases und der nachgewiesene Wert vor?
- Kennzahlen: Sind die Zielwerte aus Kapitel 6 erreicht?
- Artefakte: Liegen alle Pflichtartefakte vor (Anhang B)?
- EU-AI-Act-Pflichten: Sind die in Kap. 7 genannten Nachweise erbracht?
8.2 Ablauf
- Vorbereitung (1 Woche): Gate-Dossier erstellen.
- Prüfung (1 Tag): Audit-Team prüft Dossier.
- Entscheidung (halber Tag): bestanden / bedingt / nicht bestanden.
- Dokumentation: Protokoll signiert und archiviert.
8.3 Pflichtartefakte je Phase
| Phase | Pflichtartefakte |
|---|---|
| S | Use-Case-Liste mit 4-D-Bewertung, Impact/Effort-Matrix, Mindset-Lagebericht, Daten-Audit, KI-Inventar |
| H | Pilot-Chartas, Abbruchkriterien, Pilot-Auswertungen, Prompt-Tagebücher, Pre-Mortem- und AAR-Protokolle |
| I | Soll-Prozesse, Rollendefinitionen, HITL-Spezifikationen, Nutzungsanweisungen, Identitäts-Gesprächsprotokolle |
| F | Tool-Konsolidierungsbericht, Governance-Charta, MLOps-Architektur, Policy-as-Code-Regelwerk, Semantic-Layer-Architektur |
| T | Wirkungs-Dashboard, Fixing-Time-Messung, Change-Prozess, Post-Market-Monitoring, Vorfall-Meldeprozess |
8.4 Drei Gate-Ergebnisse
- Bestanden: Phase vollständig abgeschlossen, Folgephase beginnt.
- Bedingt (Auflage): Phase abgeschlossen, definierte Lücke mit Termin.
- Nicht bestanden: Phase wird fortgesetzt, bis Kriterien erfüllt sind. Kein Überspringen.
Eine vierte Option: Teil-Gate. Nur ein Teilbereich wird freigegeben, die übrigen bleiben in der Phase. Sinnvoll bei großen Organisationen mit heterogenem Fortschritt.
Kapitel 9Standard-Arbeitspakete und Preisarchitektur
Value-Ladder-Prinzip: Einstieg, Kernangebote, spezialisierte Sprints, kontinuierliche Begleitung. Zusätzlich erfolgsabhängige Preismodelle.
9.1 Angebot im Überblick
| ID | Produkt | Dauer | Kernnutzen |
|---|---|---|---|
| P1 | SHIFT Assessment | 4–6 Wochen | Priorisierte Use-Case-Liste, Investitionsentscheidungs-Input |
| P2 | SHIFT Sprint | 12 Wochen | 2–4 Piloten auf P1-Basis, 3 Kernanwendungsfälle inkl. HITL |
| P3 | SHIFT Begleitung | 9–18 Monate | Vollständige fünf Phasen inkl. Governance, MLOps, Dashboards |
| P4 | Fokus-Sprint | 6–8 Wochen | Phase F isoliert bei Tool-Wildwuchs |
| P5 | Integrations-Sprint | 8–10 Wochen | Phase I isoliert für Rollen- und Prozess-Neuschnitt |
| P6 | Betriebs-Retainer | monatlich | Laufende Begleitung, halbjährlicher Gate-T-Review |
| P7 | Impuls / Keynote | 1 Tag | Sichtbarkeit, Einladung ins Framework |
9.2 P1 SHIFT Assessment — das Einstiegsprodukt
Das Einstiegsprodukt liefert ein deutlich klareres Kernergebnis als übliche „Readiness Assessments":
- Hauptergebnis: Priorisierte Use-Case-Liste mit Vier-Dimensionen-Bewertung und quantifiziertem Business Value (EUR/Jahr) pro Use Case.
- Begleitergebnisse: Mindset-Lagebild, Daten-Inventar, KI-Inventar mit Risikokategorisierung, Angst-Kartografie.
- Handlungsempfehlung für den Folgeschritt (P2, P4 oder anderes).
9.3 Paket-Beschreibungen
P2 SHIFT Sprint: 12 Wochen, 2–4 Piloten aus P1-Liste, 3 Kernanwendungsfälle inkl. HITL. Enthält Sandbox-Aufbau, Fehlerkultur-Rituale, erste Prompt-Bibliothek, Pilot-Auswertung mit Empfehlung.
P3 SHIFT Begleitung: Vollständige fünf Phasen inkl. Governance, MLOps, Compliance, Dashboards. Typische Laufzeit 9–18 Monate.
P4 Fokus-Sprint: Phase F isoliert — für Organisationen, die in Tool-Überflutung geraten sind.
P5 Integrations-Sprint: Phase I isoliert — für Rollen- und Prozess-Neuschnitt.
P6 Betriebs-Retainer: Monatliche Begleitung nach abgeschlossener SHIFT-Begleitung.
P7 Impuls: Keynote nach neun Schritten (Geisselhart). Fachlicher Einstieg in die Business-First-Logik.
9.4 Erfolgsabhängige Preismodelle
Voraussetzungen: robuste Messinfrastruktur (Phase T), vereinbarte Baseline (Phase S), vertragliche Absicherung. Wird zusätzlich zum Festpreis angeboten, nie anstelle.
- Outcome-based: fester Prozentsatz am realisierten Wertbeitrag.
- Value-based: Pauschale am Business Case orientiert.
- Success-based: Bonus bei Gate-T-Erfolg, Malus bei Verfehlung.
Kapitel 10Führungsperspektive: Fünf Haltungsverschiebungen
Ohne Verschiebung in der Führungshaltung bleibt jede KI-Einführung isoliert. RAND belegt: 84 Prozent der KI-Fehlschläge gehen auf Führungsversagen zurück.
Zack Kass formuliert das Kernprinzip: „KI wird Dinge billig machen und sie wird Menschen wertvoll (precious) machen." Und: „Im Zeitalter der KI wird verhaltensbezogene Anpassungsfähigkeit die wahre Währung der Arbeit sein."
10.1 Die fünf Verschiebungen
| Von | Zu | Konkreter Satz im Alltag |
|---|---|---|
| Gewissheit | Neugierde | „Ich weiß das nicht. Welche Hypothesen haben wir?" |
| Kontrolle | Orchestrierung | „Wer macht hier welchen Schritt — Mensch, KI, System?" |
| Expertise | Lerngeschwindigkeit | „Was haben wir diese Woche gelernt, was wir letzte Woche nicht wussten?" |
| Risikovermeidung | Intelligentes Experimentieren | „Wo können wir scheitern, ohne dass es teuer wird?" |
| Silo-Denken | Vernetzung | „Welche Abteilung hat ein ähnliches Problem schon gelöst?" |
10.2 Die schwierigste Verschiebung: von Gewissheit zu Neugierde
Führungskräfte geben ihren Anspruch auf, immer die richtige Antwort zu haben. Sie stellen Fragen, deren Antworten sie nicht kennen. Wer 25 Jahre lang dafür bezahlt wurde, Antworten zu haben, erlebt die Umstellung auf Fragen nicht als intellektuelle Herausforderung, sondern als Identitätsverlust.
10.3 Was das Framework der Führung abverlangt
Drei Dinge, die nicht delegierbar sind:
- Sponsoring je Use Case — ohne namentlich benannten Fachbereichs-Sponsor kein Start.
- Konsequenz bei Abbruchkriterien — wer eine Abbruchbedingung definiert und dann doch weiterführt, zerstört das Framework von innen.
- Persönliche Beteiligung an der AI-Literacy — Führungskräfte, die KI nicht selbst bedienen, verlieren die Autorität, sie einzuführen.
Kapitel 11Ausblick 2026–2028: Neue Use-Cases durch agentische KI
Dieses Kapitel beschreibt, welche Geschäftsmöglichkeiten in den nächsten zwei bis drei Jahren entstehen — und welche technische Architektur sie tragen muss.
11.1 Was ab 2026 möglich wird
Die bisherige Phase der KI-Nutzung (2022–2024) war auf Einzelaufgaben begrenzt. Ab 2025–2026 entstehen drei neue Business-Use-Case-Klassen:
A) End-to-End-Prozesse statt Einzelschritte. Agentische KI kann ganze Abläufe autonom bearbeiten — eine Reklamation von Eingang bis Entscheidungsvorschlag, eine Angebotserstellung von Anfrage bis Preis-Kalkulation. Der Mensch bleibt in der Freigaberolle.
B) Selbstständige Langläufer. Agenten, die über Tage oder Wochen an einem Vorgang arbeiten und auf Zwischenstandsanfragen antworten.
C) Individualisierung in Produktions-Maßstab. Tausend individuelle Versicherungsangebote mit je passender Begründung, in Minuten statt Wochen.
11.2 Was diese Use Cases an Architektur brauchen
- Universal Semantic Layer: Zugriff auf implizites Unternehmenswissen. Ohne semantische Schicht greifen Agenten ins Leere und produzieren Workslop.
- Model Context Protocol (MCP): Standardisierte Kommunikation zwischen Modellen, Datenbanken und Werkzeugen. Reduziert Anbieter-Bindung.
- Layering statt Replacement: Agenten werden über bestehende Kernsysteme (SAP, Salesforce, Branchen-ERP) gelegt, nicht als Ersatz.
- KI als Betriebssystem (AIOS): Das Modell übernimmt die Rolle eines Kernels — kein Produkt, ein Architekturprinzip.
11.3 Der Workslop-Effekt und wie SHIFT ihn adressiert
Die Harvard-Studie 2025 dokumentiert: Oberflächlich fehlerfreie, aber substanzlose KI-Ergebnisse verschieben Zeit von Produktion auf Prüfung. SHIFT adressiert das an drei Stellen:
- Phase I: Human-in-the-Loop-Freigabe fängt Workslop vor der produktiven Nutzung ab.
- Phase F: Semantic Layer liefert die substanzielle Grundlage.
- Phase T: Messung der Fixing Time zusätzlich zur Bearbeitungszeit.
11.4 Der Produktivitätsnachweis
Bei gezielter Augmentation (Centauren-Muster) belegt der Anthropic Economic Index Effekte bis zu 80 Prozent Zeitersparnis bei komplexen Aufgaben — von 4,5 Stunden auf 11 Minuten. Phase I ist im SHIFT-Framework der Ort, an dem diese Rollenteilung konkret geschnitten wird.
Kapitel 12Go-to-Market und Sichtbarkeitsaufbau
Wie das Angebot sichtbar wird und erste Kunden findet — ohne Referenzen, Testimonials oder Bestandsmärkte.
12.1 Prinzipien
- Glaubwürdigkeit über Forschung, eigene Praxis und nachvollziehbares Framework.
- Erkennbare Position bei einer begrenzten Zielgruppe — vor maximaler Reichweite.
- „Helfen und Dienen": Jeder Beitrag liefert Nutzwert.
- Substanz vor Sichtbarkeit.
- „Nicht für einen Pitch. Für ein Gespräch."
12.2 Drei Säulen
| Säule | Zweck | Kern-Asset |
|---|---|---|
| Substanz | Glaubwürdigkeit | Buch + Whitepaper-Reihe + Fachartikel |
| Reichweite | Sichtbarkeit | LinkedIn + Keynote + Newsletter + PR |
| Konversion | Erstgespräch | Online-Vor-Assessment + P1 + P7 |
12.3 Substanz, Reichweite, Konversion
Substanz: Buch („SHIFT — KI-Einführungen, die ankommen"); Whitepaper-Reihe; 12 Fachartikel/Podcast-Auftritte in 12 Monaten.
Reichweite: LinkedIn rollenspezifisch; Keynote-Format nach neun Schritten (Geisselhart); Newsletter monatlich; PR mit 10–15 Journalistenkontakten.
Konversion: Einstieg über P1 (Assessment) oder P7 (Keynote); Online-Vor-Assessment (15–20 Fragen); Erstgespräch 45–60 Minuten — Ziel: fachliche Einordnung, nicht Abschluss.
Kapitel 13Häufige Fehler und wie das Framework sie adressiert
| Häufiger Fehler | Symptom | SHIFT-Gegenmittel |
|---|---|---|
| Technology Push | Tool ohne Problem | Phase S beginnt mit Pain Point |
| Fehlender Sponsor | Pilot ohne Verantwortlichen | Joint Ownership ist Startvoraussetzung |
| Pilothölle | Piloten werden nie produktiv | Phase I schneidet Prozesse um, nicht Phase H |
| Angst-Zensur | Schein-Akzeptanz | Angst-Kartografie in Phase S, entmoralisierte Sprache |
| Workslop | Nachbearbeitung frisst Zeitersparnis | Fixing-Time-Messung in Phase T, Semantic Layer in F |
| Tool-Wildwuchs | Mehr Werkzeuge, weniger Wirkung | Phase F reduziert konsequent |
| Fehlende Reinforcement | Rückfall in alte Muster | Rituale in Phase T, Prompt-Gipfel, Reverse Mentoring |
| Compliance als Nachgang | EU-AI-Act-Überraschung | Phasenbegleitende Mapping-Logik (Kap. 7) |
| Identität wird übergangen | Stiller Widerstand in Phase I | Identitäts-Gespräche, Rollen-Umbenennung |
| Gate übersprungen | Fehler akkumulieren sich | Kein Überspringen, nur Teil-Gates mit Auflage |
Kapitel 14Bezug zur Marke Mindshift KI
Das SHIFT-Framework ist der inhaltliche Kern der Marke.
- Mindshift — Veränderung auf der menschlichen Ebene.
- AI Consultants — Arbeit auf der technischen Ebene.
- Business vor Technik — die verbindende Logik.
14.1 Marktlücke und Positionierung
Keine Person im deutschsprachigen Raum liefert Mindset-Arbeit und KI-Implementierung konsequent aus einer Hand — und mit Business-First-Disziplin. Positionierung nach Pole-Position-Prinzip (Hermann Scherer): nicht das größte Angebot, sondern das am klarsten erkennbare. Ziel: Sog, nicht Akquise.
14.2 Claim
14.3 Sprache und Haltung
SHIFT ist ein Framework, aber es wird nicht wie ein Framework verkauft. Die Einladung kommt vor dem Argument. Die Angst wird benannt, bevor die Methode erklärt wird. Der Mut wird gestärkt, bevor der nächste Schritt verlangt wird.
14.4 Wissenschaftliche Verankerung
- Amy Edmondson (Harvard): Psychological Safety.
- Paul Leonardi (Harvard / UCSB): Developing a Digital Mindset.
- Prosci ADKAR: Reinforcement.
- Hampel (2025): Neue Fehlerkultur.
- KPMG, EY, Agility at Scale: Use-Case-Priorisierung und Business-First-Frameworks.
- Anthropic Economic Index (2025): Produktivitätsnachweis Centauren-Muster.
Kapitel 15Offene Punkte und Weiterentwicklung
Das Framework ist stabil. Die Umsetzungs-Assets werden laufend erweitert:
- Buchtitel und Verlagsauswahl.
- Online-Assessment als eigenständiges Werkzeug.
- Jahresredaktionsplan für Newsletter, LinkedIn, Whitepaper.
- Vertragsvorlagen für P1–P7 inkl. Gate-Ergebnisse als Abnahmekriterien.
- Vertragsklauseln für erfolgsabhängige Modelle.
- Branchenvertiefungen mit branchentypischen Use-Case-Katalogen.
- Keynote-Repertoire: drei bis fünf Varianten.
- Referenz-Architektur für Semantic Layer und MCP als Demo-Asset.
- Fixing-Time-Messverfahren standardisieren.
- Use-Case-Katalog (Anhang A) laufend erweitern.
Anhang A: Use-Case-Katalog — 30 wiederkehrende Fälle
Dieser Katalog ist ein Beschleuniger für Phase S. Er ersetzt keine Pain-Point-Workshops, aber er gibt eine Ausgangsliste, an der sich Fachbereichsleiter orientieren können.
| # | Use Case | Kategorie | Bereich | Typischer Hebel |
|---|---|---|---|---|
| 1 | Angebotserstellung auf Basis Kundenhistorie | Zeitersparnis | Vertrieb | Durchlaufzeit −60 %, Abschlussquote +10 % |
| 2 | Ausschreibungsprüfung | Fehlervermeidung | Einkauf / Vertrieb | Vermiedene Ausschluss-Fehler, Zeit −70 % |
| 3 | Rechnungsfreigabe und Abweichungs-Alarm | Fehlervermeidung | Finanzen | Durchlaufzeit −50 %, Fehlerquote −80 % |
| 4 | Reklamationsbearbeitung End-to-End | Zeitersparnis | Service | Durchlaufzeit −70 %, CSAT +15 % |
| 5 | Technische Dokumentation aus Engineering-Daten | Zeitersparnis | Engineering | Zeit −60 %, Konsistenz +++ |
| 6 | Vertragsprüfung (Risiko-Klauseln) | Fehlervermeidung | Legal | Review-Zeit −65 % |
| 7 | Lieferantenbewertung aus unstrukturierten Quellen | Vorhersage | Einkauf | Risiko-Früherkennung, Marge +2–4 % |
| 8 | Predictive Maintenance Maschinenpark | Vorhersage | Produktion | Stillstand −30 %, Wartungskosten −20 % |
| 9 | Qualitätskontrolle Bild-/Video-gestützt | Fehlervermeidung | Produktion | Ausschuss −40 % |
| 10 | Absatzprognose auf Wochenbasis | Vorhersage | Supply Chain | Lager −15 %, OOS −25 % |
| 11 | Preisoptimierung dynamisch | Vorhersage | Pricing | Marge +1–3 % |
| 12 | Kundensegmentierung für Kampagnen | Vorhersage | Marketing | Conversion +15–30 % |
| 13 | Content-Produktion mit Markenleitplanken | Zeitersparnis | Marketing | Output 3–5x, Qualität stabil |
| 14 | HR-Screening Vorauswahl (AI-Act Art. 6) | Zeitersparnis | HR | Screening-Zeit −70 %, Bias-Kontrolle |
| 15 | Onboarding-Dokumente individualisiert | Zeitersparnis | HR | Zeit bis Produktivität −20 % |
| 16 | Mitarbeiter-Wissensassistent | Zeitersparnis | Querschnitt | Anfragen-Zeit −60 % |
| 17 | Interne FAQ-Automation | Zeitersparnis | IT / HR | Ticket-Volumen −30–50 % |
| 18 | Betrugserkennung Transaktionen | Fehlervermeidung | Finanzen | Fraud-Quote −40 % |
| 19 | KYC-Prozess beschleunigen | Zeitersparnis | Finanzen | Durchlaufzeit −60 % |
| 20 | Meetings zusammenfassen + Aktionspunkte | Zeitersparnis | Querschnitt | Nachbereitungszeit −80 % |
| 21 | Marktanalyse als Agenten-Langläufer | Vorhersage | Strategie | Tiefe +++, Aktualität wöchentlich |
| 22 | Compliance-Monitoring Richtlinien-Änderungen | Fehlervermeidung | Legal / Compliance | Time-to-Comply −50 % |
| 23 | Training individualisierter Lernpfade | Zeitersparnis | HR / L&D | Abschlussquote +25 % |
| 24 | Vertriebs-Coaching mit Call-Analyse | Vorhersage | Vertrieb | Abschlussquote +10 % |
| 25 | Ticket-Routing und Priorisierung | Zeitersparnis | Service / IT | Erstlösung +20 % |
| 26 | Code-Assistenz Development | Zeitersparnis | IT | Lieferzeit −25–40 % |
| 27 | Test-Case-Generierung | Fehlervermeidung | IT / QA | Testabdeckung +30 % |
| 28 | Versicherungsangebot individualisiert | Zeitersparnis | Versicherung | Angebotsquote 5–10x |
| 29 | Medizinische Vorbefundung (Hochrisiko, Art. 6) | Fehlervermeidung | Healthcare | Nur unter strenger Aufsicht, Zeit −40 % |
| 30 | ESG-Reporting-Aufbereitung | Zeitersparnis | Sustainability | Reportzeit −60 % |
Anhang B: Gate-Artefakte im Überblick
B.1 Phase S
- Use-Case-Liste (priorisiert, Vier-Dimensionen-bewertet, quantifiziert)
- Impact/Effort-Matrix
- Mindset-Lagebericht mit Angst-Kartografie
- Daten-Audit je geplantem Use Case
- KI-Inventar mit Risikokategorisierung (Art. 6 + Anhang III)
- Schatten-KI-Bericht
B.2 Phase H
- Pilot-Charta je Pilot (Sponsor, Null-Hypothese, Abbruchkriterien, Messlogik)
- Pilot-Auswertung
- Prompt-Tagebücher
- Pre-Mortem-Protokolle
- After-Action-Review-Protokolle
- AI-Literacy-Nachweis (Art. 4)
B.3 Phase I
- Soll-Prozess je Kernanwendungsfall (BPMN oder einfacher Fluss)
- Rollendefinitionen alt/neu
- HITL-Spezifikation
- Nutzungsanweisungen (Art. 13)
- Identitäts-Gesprächsprotokolle
- Kennzeichnungs-Konzept (Art. 50)
B.4 Phase F
- Tool-Konsolidierungsbericht
- Governance-Charta mit Gremien und Entscheidungswegen
- MLOps-Referenzarchitektur
- Policy-as-Code-Regelwerk
- Semantic-Layer-Architektur (sofern nötig)
- Konformitätserklärung (sofern Hochrisiko)
B.5 Phase T
- Wirkungs-Dashboard (EUR-Wert, Durchlaufzeit, Qualitätsquote, Nutzungsrate, Fixing Time)
- Monatsbericht mit Baseline-Vergleich
- Change-Prozess für Modelle, Prompts, Regeln
- Post-Market-Monitoring-Protokolle (Art. 72)
- Vorfall-Meldeprozess (Art. 73)
- Ritual-Nachweise (Quartals-Prompt-Gipfel, Reverse Mentoring)
Anhang C: Wesentliche Quellen
C.1 Studien
- McKinsey 2025; BCG 2025; Deloitte; IDC; Gartner; Prosci; RAND; Bitkom; BDU.
- Harvard 2025: AI Workslop.
- Anthropic Economic Index (2025): bis zu 80 Prozent Zeitersparnis bei Centauren-Mustern.
- AIDOLS, Abbacus Technologies: KI-Beratungshonorare.
C.2 Frameworks und Methoden
- Business First, Technology Follows: Demand Pull, Pain-Point-Analyse, Impact/Effort-Matrix, 4-Dimensionen-Bewertung.
- Paul Leonardi: Digital Mindset.
- Amy Edmondson: Psychological Safety.
- Stanford / Carol Dweck: Growth Mindset.
- FERC-Modell; Technology Acceptance Model (TAM).
- triangility 6 Dimensionen; KPMG Digital Mindset; Forbes 5 Leadership Mindset Shifts.
- Hampel 2025: Neue Fehlerkultur, Pre-Mortem, AAR.
- Hermann Scherer: Pole Position. Oliver Geisselhart: Keynote-Aufbau.
C.3 Preismodelle
- Outcome-based, Value-based, Success-based Pricing (Hormozi, Brunson).
C.4 Regulatorik
- EU AI Act 2024/1689: Art. 4, 5, 9, 10, 11, 13, 14, 43, 50, 72, 73.
- DSGVO. BaFin MaRisk, DORA, GxP.
C.5 Marktspezifisch
- Wettbewerbsanalyse Mindshift KI vom 07.04.2026.
- Internationale Referenzen: Britton, Gibbons, Li, Jankel, Bersin, McGowan.