In den letzten Monaten höre ich immer wieder dieselbe Lektion. Daten müssen perfekt sein. Sauber. Zugänglich. Vollständig zusammengeführt, bevor auch nur daran zu denken ist, KI-Vorhaben zu starten. Eine aktuelle Studie untermauert diese Sichtweise mit beeindruckenden Zahlen: Über 90 Prozent der IT-Entscheider können nicht auf alle benötigten Daten zugreifen. Fast ein Drittel sieht Verzögerungen beim Datenzugriff als Hauptgrund für schwächelnde Renditen ihrer KI-Projekte. Die Botschaft scheint klar – erst die Hausaufgaben machen, dann Neues wagen.

Doch meine Erfahrungen mit Kunden zeichnen ein differenzierteres Bild.

Warum Unternehmen ihre Daten vor der KI-Einführung aufräumen wollen

Die Überlegung ist verlockend einfach. Wenn Daten in getrennten Dateninseln verstreut liegen, wenn verschiedene Abteilungen unterschiedliche Systeme nutzen, wenn niemand genau weiß, wo welche Information schlummert – dann kann KI ihr volles Potenzial nicht entfalten. Das stimmt. Ohne Zweifel. Ich habe Projekte erlebt, die genau daran gescheitert sind: An fehlenden Daten, an widersprüchlichen Formaten, an mangelnder Verknüpfung. Ein Maschinenbau-Unternehmen wollte vorausschauende Wartung einführen. Die Sensordaten lagen im Fertigungssystem. Die Wartungshistorie im ERP. Die Ersatzteilbestellungen in einem dritten System. Niemand hatte jemals diese Welten verbunden.

Die Befragten nennen konkrete Zahlen: 28 Prozent sehen Verzögerungen beim Datenzugriff als Killer für die Wirtschaftlichkeit, 24 Prozent beklagen schwache Einbindung in bestehende Arbeitsabläufe. Das sind keine theoretischen Probleme. Das sind Vorhaben, die Millionen verschlingen und dann versanden, weil die Datengrundlage fehlt. Mehr als die Hälfte der Unternehmen hat mittlerweile verstanden, dass Datenqualität und Datenzugriff für KI entscheidend sind. Sie investieren in Datenverwaltung, schaffen klare Verantwortlichkeiten, brechen Dateninseln auf.

Das klingt nach dem einzig vernünftigen Weg. Oder?

Die versteckten Kosten des Perfektionismus bei der Datenvorbereitung

Hier beginnt mein Unbehagen. In meiner Arbeit habe ich ein wiederkehrendes Muster beobachtet: Unternehmen, die sich diesem Ideal verschreiben, landen in einem Lähmungszustand aus endloser Planung. Sie planen. Kartieren. Dokumentieren. Sie erstellen Datenstrukturen, die beeindruckend aussehen – auf dem Papier. Währenddessen vergehen Monate. Manchmal Jahre. Der Wettbewerb? Der probiert bereits KI-Lösungen aus, die nicht perfekt sind, aber funktionieren.

Ein mittelständischer Logistiker wartete 18 Monate auf die vollständige Verknüpfung seiner Transport-, Lager- und Kundensysteme. Das Ziel: Eine umfassende KI-Plattform für Wegoptimierung, Bestandsvorhersage und Kundenvorlieben-Auswertung. Edel. Ehrgeizig. Und völlig unnötig als Einstieg. Ein Konkurrent startete nach sechs Wochen mit einem einfachen Modell, das ausschließlich GPS-Daten nutzte, um Fahrtzeiten besser vorherzusagen. Nichts Außergewöhnliches. Aber es sparte sofort Treibstoff und verbesserte Lieferzeitfenster.

Der Irrtum liegt in der Annahme, dass KI nur mit vollständigen Daten funktioniert.

Kleine Dateninseln, große Wirkung: KI-Projekte ohne vollständige Datenintegration

Was ich bei erfolgreichen KI-Einführungen beobachte, folgt oft einem anderen Muster. Man beginnt dort, wo Daten bereits verfügbar sind. Nicht perfekt. Nicht vollständig. Aber vorhanden. Eine Einzelhandelskette hatte keine zusammengeführte Kundendatenplattform. Ihre Filialen nutzten unterschiedliche Kassensysteme, der Online-Shop lief getrennt, die Kundenkarten-Daten lagen in einer veralteten Datenbank. Die übliche Empfehlung wäre gewesen: Erst alles zusammenführen. Stattdessen starteten sie mit dem Online-Shop allein.

Produktempfehlungen, gestützt ausschließlich auf den Online-Handel-Datensatz. Innerhalb von drei Monaten lief ein KI-Modell, das die Umwandlungsrate um 15 Prozent steigerte. Der Erfolg erzeugte Schwung. Plötzlich wollten auch die Filialen KI nutzen. Plötzlich fand sich Geld für die Datenverknüpfung. Plötzlich war die Geschäftsführung überzeugt, dass KI kein Modewort war, sondern ein Werkzeug mit messbarem Wert.

Das Grundprinzip: Beweis zuerst, Aufbau später.

Verteilt statt zentralisiert: Moderne KI-Ansätze ohne Datenzusammenführung

Die technologische Landschaft hat sich verändert. Moderne KI-Rahmenwerke müssen Daten nicht mehr körperlich an einen zentralen Ort bewegen. Verteiltes Lernen erlaubt es Modellen, direkt dort zu trainieren, wo Daten liegen. Virtuelle Datenzugriffe schaffen eine Zugangsschicht, ohne dass Datenquellen umgezogen werden müssen. Schnittstellen verbinden Systeme, ohne dass diese verschmolzen werden.

Ein Pharmaunternehmen nutzte genau diesen Ansatz. Klinische Studien in verschiedenen Ländern, behördliche Anforderungen, die eine zentrale Datenhaltung verhinderten. Statt Jahre in eine weltweite Datenplattform zu investieren, setzten sie ein verteiltes Modell um: Die KI trainierte örtlich auf verschlüsselten Datensätzen, teilte nur zusammengefasste Erkenntnisse. Das Vorhaben startete in acht Monaten statt in drei Jahren.

Natürlich gibt es Grenzen. Vielschichtige Auswertungen, die Zusammenhänge über verschiedene Datenquellen hinweg erfordern, brauchen Verknüpfung. Aber nicht jeder Anwendungsfall ist vielschichtig. Viele KI-Anwendungen lösen klar abgegrenzte Probleme mit begrenzten Datenbeständen.

Der schrittweise Weg: Lernen beim Laufen statt endloser Vorbereitung

Was mich am Perfektionismus-Ansatz am meisten stört, ist die verpasste Lernchance. Wenn man erst nach zwei Jahren Datenvorbereitung die erste KI-Anwendung startet, hat man zwei Jahre lang nichts über KI gelernt. Man hat nichts über Veränderungsbegleitung gelernt. Nichts darüber, wie Mitarbeitende auf rechnergestützte Entscheidungen reagieren. Nichts über die tatsächlichen Herausforderungen bei der Modellpflege.

Ein Versicherer folgte dem schrittweisen Pfad. Erstes Vorhaben: Selbsttätige Schadeneinteilung gestützt auf Fotos. Begrenzte Datenquelle, überschaubares Risiko. Das Modell war nach vier Monaten im Einsatz. Es hatte Fehler. Natürlich. Aber diese Fehler lehrten das Team mehr über KI-Verwaltung, Verzerrungserkennung und Modell-Überwachung als jedes theoretische Rahmenwerk es hätte tun können. Vorhaben zwei nutzte diese Erkenntnisse. Vorhaben drei war bereits deutlich ausgereifter.

Die Organisation lernte gleichzeitig mit der Datenreife zu wachsen, nicht danach.

Die unbequeme Wahrheit über Dateninseln: Manchmal sind sie sinnvoll

Hier wird es streitbar: Manchmal sind Dateninseln kein Fehler, sondern ein Feature. Sie entstehen aus guten Gründen – unterschiedliche Verantwortlichkeiten, behördlich verordnete Trennung, organisatorische Eigenständigkeit. Sie alle aufzubrechen, kann mehr Schwierigkeiten schaffen als lösen. Datenschutzgrenzen verschwimmen. Regelkonformität wird verwickelt. Politische Kämpfe um Datenbesitz entstehen.

Ich habe ein Krankenhaus begleitet, das seine Patientendaten, Abrechnungsdaten und Forschungsdaten bewusst getrennt hält. Verschiedene rechtliche Rahmenbedingungen, verschiedene Zugriffsrechte, verschiedene Zwecke. Ein KI-Vorhaben zur Vorhersage von Wiederaufnahmen nutzte ausschließlich klinische Daten. Funktionierte einwandfrei. Ein zweites Vorhaben zur Betrugserkennung nutzte nur Abrechnungsdaten. Ebenfalls erfolgreich. Die Dateninseln blieben bestehen, die KI-Wertschöpfung nicht.

Wann Datenklärung vor der KI-Einführung wirklich nötig ist

Damit kein Missverständnis entsteht: Ich predige nicht Durcheinander. Es gibt Anwendungsfälle, bei denen Datenverknüpfung unausweichlich ist. 360-Grad-Kundensicht? Braucht zusammengeführte Daten. Lieferketten-Verbesserung über mehrere Stufen? Erfordert Datenzugriff über Unternehmensgrenzen hinweg. Konzernweite Berichte? Unmöglich ohne Datenlager.

Die Frage ist nicht ob, sondern wann und wofür. Ein großer Fehler, den ich wiederholt sehe: Unternehmen bereiten ihre gesamte Datenlandschaft für einen einzigen, noch unklaren KI-Anwendungsfall vor. Sie wissen nicht genau, was sie mit KI machen wollen, aber sie wollen "KI-bereit" sein. Das ist wie ein Fundament für ein Haus zu bauen, dessen Grundriss man noch nicht kennt.

Besser: Konkreter Anwendungsfall zuerst, Datenanforderungen daraus ableiten, dann gezielt verknüpfen.

Die Psychologie des Anfangens: Warum schnelle KI-Erfolge wichtiger sind als perfekte Daten

Es gibt noch einen Gesichtspunkt, der selten besprochen wird: die Unternehmenspsychologie. Große Datenverknüpfungsvorhaben sind abstrakt. Sie dauern lange. Sie erzeugen keine sichtbaren Geschäftsergebnisse. Führungskräfte verlieren die Geduld. Teams verlieren die Antriebskraft. Geldmittel werden gekürzt, bevor der erste KI-Nutzen entsteht.

Schnelle, kleinere KI-Erfolge haben den gegenteiligen Effekt. Sie erzeugen Begeisterung. Sie schaffen Fürsprecher. Sie machen KI greifbar. Ein Handelsunternehmen, mit dem ich arbeitete, startete mit einem Chatbot für Mitarbeiteranfragen – gestützt nur auf das interne Wiki. Kein weltbewegender Anwendungsfall. Aber die Zeitersparnis war spürbar. Plötzlich fragten andere Abteilungen nach KI-Lösungen. Plötzlich war KI kein IT-Vorhaben mehr, sondern eine Geschäftsaufgabe.

Dieser psychologische Schwung ist wertvoll. Er lässt sich nicht in Wirtschaftlichkeitsberechnungen erfassen, aber er bestimmt oft über Erfolg oder Scheitern von Umgestaltungen.

Der sachliche Mittelweg: KI-Einführung und Datenaufbau gleichzeitig

Was also ist meine Empfehlung, nach Jahren der Begleitung von KI-Vorhaben in allen Reifegraden? Ein Sowohl-als-auch-Ansatz. Gleichzeitiges Vorgehen. Man startet schnell mit dem, was verfügbar ist. Gleichzeitig baut man planvoll an der langfristigen Datengrundlage. Diese beiden Pfade müssen nicht wetteifern – sie können sich ergänzen.

Die schnellen Erfolge mit begrenzten Daten liefern Erkenntnisse darüber, welche Datenverknüpfungen wirklich Vorrang haben sollten. Sie finanzieren durch ihre Erfolge die teureren Grundlagenvorhaben. Sie schaffen die unternehmensweite Zustimmung, die für größere Umgestaltungen nötig ist. Und sie stellen sicher, dass das Unternehmen bereits Wert aus KI zieht, während die perfekte Datenlandschaft entsteht – wenn sie denn jemals entsteht.

Praxis schlägt Theorie: Warum Sie nicht auf perfekte Daten warten sollten

Die Studie hat recht mit ihrer Feststellung: Dateninseln sind ein Problem. Fehlender Zugriff bremst. Schlechte Qualität gefährdet den Erfolg. Aber die mitschwingende Behandlung – erst alles ordnen, dann starten – übersieht die Vielschichtigkeit betrieblicher Wirklichkeit. Sie übersieht die Möglichkeiten heutiger Technologie. Sie unterschätzt den Wert von Lernen durch Tun.

In einer idealen Welt hätten alle Unternehmen perfekt verknüpfte, qualitätsgeprüfte, jederzeit zugängliche Datenlandschaften. In der wirklichen Welt haben sie Altsysteme, politische Grabenkämpfe, begrenzte Geldmittel und ungeduldige Entscheider. Auf die perfekte Datenlage zu warten, bedeutet oft, endlos zu warten.

Die erfolgreichsten KI-Umgestaltungen, die ich begleitet habe, waren die, die nicht gewartet haben. Die mit dem Unvollkommenen angefangen haben. Die gelernt haben, dass "gut genug" oft besser ist als "perfekt geplant". Datenklarheit ist wichtig. Aber sie ist keine Vorbedingung für jeden ersten Schritt. Manchmal ist der beste Weg, Ordnung in die Daten zu bringen, zu zeigen, wofür diese Ordnung gut sein könnte.

Und das gelingt am überzeugendsten durch funktionierende KI-Anwendungen, nicht durch Bauplanzeichnungen.

Sie wollen mit KI starten, ohne Zeit und Geld in langfristige Datenklärung zu stecken?
Wir machen das möglich!