|

Juni 2, 2025

|

7 min. Lesezeit

Warum so viele GenAI-Projekte scheitern und wie sich das verhindern lässt

Nach Aussage des Analystenhauses Gartner steht mehr als die Hälfte aller Initiativen zur Einführung von Generativer KI vor dem Aus. Wieso? Und droht der mit Milliardeninvestitionen der Hyperscaler aufgebaute Hype zu verpuffen? Die Antwort lautet wieder einmal „jein“. Aber der Reihe nach. 

 

Die Marktentwicklung rund um generative KI 

Es ist eindeutig: die generative KI in Form großer Sprachmodelle hat einen disruptiven Charakter, der viel tiefer greift als die meisten Anwender von ChatGPT und anderen Internetangeboten wahrnehmen können. Die Technologie bietet das Potenzial, ganze Prozesse zu automatisieren und die Produktivität von Unternehmen zu steigern. Es wird prognostiziert, dass Unternehmen, die KI einsetzen, ihre Rentabilität bis 2025 um 38 % steigern können. Die Investitionen liegen zunächst einmal jedoch auf Seiten großer Cloud-Anbieter und deren Kapitalangebern. Auch technologiebedingt: generative KI ist extrem ressourcenintensiv. OpenAI verfügt aktuell über ein Kapital von 40 Milliarden US-Dollar aus der letzten Finanzierungsrunde im Frühjahr 2025. Microsoft hat in den letzten 2 Jahren mehr als 13 Mrd. in das Thema KI investiert, und plant eine Investition von rund 80 Milliarden US-Dollar in KI-Rechenzentren. Der Trend ist nicht auf die USA beschränkt. Selbst in Deutschland sind in den letzten Jahren die größten Investitionen mit Aleph Alpha in ein Unternehmen geflossen, das dafür bekannt ist, ein eigenes LLM entwickelt zu haben.
 

Kann so viel Geld irren?  

Die Antwort darauf ist: „ja“! 

Generative KI wäre nicht die erste von Kapitalmärkten getriebene Technologieblase, die platzt. Generative KI ist zum großen Teil eine Marktstrategie großer Technologiekonzerne. Mit einem großen blumigen Versprechen, dass die Technologie so gut wie alles spielerisch einfach kann. Dafür müssten die Unternehmen nichts anderes tun, als mit all ihren Daten in die Cloud zu kommen, denn nur dort sei das möglich. Die Anbieter verdienen daran mehrfach. Nicht nur sind die Kosten für die Migration von Bestandssystemen in die Cloud aufwändig und teuer. Auch die Kosten für den Betrieb von Cloud-Applikationen sind im Schnitt höher als der eigene Betrieb – von den Risiken der Abhängigkeit einmal ganz abgesehen. Diese Kosten explodieren dann weiter, denn die Kosten für die fortwährende Nutzung der KI kommen noch einmal obendrauf. Da generative KI das universelle „immer-mit-dabei“-Werkzeug ist, das für alles angewendet kann (oder soll), ist die Kostenspirale nicht vorhersehbar. Offenbar stehen nun viele Unternehmen, die schnell und ohne die Prüfung von Alternativen auf diesen Zug aufgesprungen sind, genau an diesem Punkt.  

 

Sind damit zwangsläufig Investitionen in Vorhaben mit Generativer KI zum Scheitern verurteilt?  

Die Antwort ist ebenso klar: „nein“! 

Dafür ist es zunächst wichtig, die Ursachen für die mangelhafte Wirtschaftlichkeit von KI-Initiativen zu verstehen. Diese sind 

    1. Explodierende Kosten 
    2. Schlechte Daten 
    3. Fehlende Messbarkeit 

All diese Probleme sind nicht unabhängig voneinander. De facto verstärken sie sich sogar gegenseitig. Doch der Reihe nach: 

 

Explodierende Kosten von generativer KI 

Die Problematik habe ich bereits oben kurz dargestellt. Das Kernproblem ist die irrige, aus Sicht der Anbieter jedoch begründete Hypothese, generative KI sei das universelle Werkzeug für alle erdenklichen Probleme im Umgang mit Daten und Wissen. Aber ergibt das wirklich Sinn? Welcher Handwerker kommt mit nur genau einem Werkzeug auf die Baustelle? Ähnlich verhält es sich im Bereich Verkehr und Mobilität. Es hat seine nachweislichen Gründe wann, wo und warum im Verkehr in verschiedenen Bereichen verschiedene Arten von Motoren eingesetzt werden. Dieselmotoren im gewerblichen Bereich und bei großen Lasten, Ottomotoren für kleine PKWs und elektrische Antriebe für den Personenschienenverkehr. Diese Entwicklungen haben sich über lange Zeiträume als die jeweils besten herauskristallisiert. Im Bereich der KI wird jedoch mit unermesslich viel Geld eine einzige Technologie in den Markt gedrückt.  

 

Schlechte Datenqualität 

Fast jeder, der in einem Unternehmen mit Daten zu tun hat, kennt es: mangelhafte Datenqualität. Ob in der CRM-Datenbank oder den Stammdaten zu eigenen Produkten und Waren – immer gibt es Probleme. Entweder fehlen Einträge bei Datensätzen, Daten sind veraltet oder – der schwierigste Fall – es gibt mehrfache Einträge mit widersprüchlichen Angaben („Was stimmt den nun?“). Bei der Verarbeitung solcher Daten ist dann auch eine vermeintlich unlimitiert kluge KI komplett verwirrt und wird niemals korrekte, verlässliche Antworten geben. Wer also erwartet, dass generative KI einfach alle Probleme löst, wird enttäuscht.  

Dabei ist KI durchaus in der Lage, Probleme der Datenqualität zu lösen. Allerdings nicht die generative KI, sondern deutlich effizienter arbeitende andere Algorithmen aus dem Bereich des Maschinellen Lernens. Bevor Daten überhaupt der generativen KI übergeben werden, sollten diese so aufbereitet werden, dass sie eine Form haben die zur Lösung der Aufgabenstellung geeignet ist. Es braucht auch niemals eine perfekte Datenqualität. Die Daten müssen nur so vorliegen, dass sie gut und einheitlich interpretierbar sind. Diese Datenaufbereitung erfolgt weitaus effizienter und verlässlicher mit analytischer KI, die – wie fleißige Ameisen – diszipliniert ihre Arbeit verrichtet und für Ordnung sorgt. Übrigens mit nur etwa 3 % des Energieeinsatz generativer KI und so, dass Qualität und Ergebnisfortschritt systematisch gemessen werden können.  

Damit sind wir beim dritten Punkt angelangt:  

 

Fehlende Messbarkeit 

Der Einsatz einer Technologie untersteht immer einem Zweck und sollte an die Wirtschaftlichkeit gekoppelt sein. Diese lässt sich stets über entsprechende Key Performance Indikatoren (KPI) messen. Bereits die Messung der Auswirkungen des Einsatzes der KI auf die KPIs wird häufig unterlassen. Viel wesentlicher jedoch: es nützt wenig, die Prozess-KPIs zu messen, wenn ich keine systematischen Stellschrauben im Hintergrund habe, die ich variieren und die Auswirkungen der Veränderungen in der Ergebnisqualität nachvollziehen kann. In Fachkreisen wird dies „Trusted AI / Vertrauenswürdige KI“ genannt. Erst eine vollständig durchgängige Sicht auf die Daten, von den Rohdaten bis zum Output der KI, ermöglicht diese Nachvollziehbarkeit und somit ein Verständnis, was die KI wirklich tut oder warum sie dann leider doch nicht das tut, was ich von ihr erwarte.  

Übrigens, all diese Punkte zahlen auch ein auf das Phänomen „Hilfe, meine KI halluziniert“. Diesen Aspekt werden wir in einem späteren Beitrag weiter vertiefen. 

 

Fazit: generative KI schafft einen riesigen Nutzen – aber eben nicht allein 

Generative KI dient nicht als universelles Werkzeug und als Problemlöser für alle Fälle. Ihr disruptiver Charakter liegt darin begründet, dass sie mit umfassendem Wissen ausgestattet ist und mit jeder Form von Daten spontan umgehen kann. Sie versteht natürliche Sprache in jeder erdenklichen Weise und bietet somit ein vollkommen neues Benutzererlebnis: statt Knöpfe zu drücken oder zu suchen, kommunizieren wir einfach mit Computern. Aber zu glauben, man könne mit immer mehr Geld und immer mehr Energie (Donald Trump möchte allein für den Bedarf der generativen KI den Energieverbrauch der USA verdoppeln!) immer mehr Intelligenz erzeugen, ist naiv, wenn nicht sogar dumm. Menschliche Intelligenz braucht geringste Energie und hat sich evolutionär über Milliarden Jahre entwickelt. 

Die KI-Plattform der moresophy wurde nicht in kürzester Zeit mit viel Geld aus dem Boden gestampft, um einen Markt zu besetzen. Sie ist über mehr als 20 Jahre durch Erfahrung in der Lösung von hunderten von Anwendungsfällen gereift. Sie bietet die gesamte Breite an Werkzeugen, Verfahren und Messinstrumenten, um spezifische Probleme in Prozessen – wie auch in den sie treibenden Daten – zu analysieren und mittels einer KI-gestützten Datenverarbeitung zu beheben. All das messbar und immer pragmatisch auf die jeweilige Aufgabenstellung ausgerichtet.  

MORESOPHY bietet die einzige Plattform, die genAI, Knowledge Graphs und Responsible AI in einer integrierten Lösung vereint – für “truly intelligent applications” ohne Halluzinationen auf eigenen Daten. Statt eines reinen Technologie-Baukastens stellt sie ein abgestimmtes Set aus Verfahren und Anwendungen bereit, das es ermöglicht, spezifische Herausforderungen mit den jeweils passenden Mitteln effizient zu lösen. 

Portrait von Prof. Dr. Heiko Beier

CEO von MORESOPHY

Heiko Beier ist Professor für Medienkommunikation und Unternehmer mit Schwerpunkt Data-Analytics und Künstlicher Intelligenz. Als Experte für Cognitive Business Transformation begleitet er Unternehmen in verschiedenen Industrien bei der Konzeption und Umsetzung digitaler Geschäftsmodelle auf Basis von Smart Data Technologien.

Weitere Artikel von Responsible AI

Nach oben scrollen
Cookie Consent Banner von Real Cookie Banner