|

November 28, 2025

|

6 min. Lesezeit

Teil 2: Rechnen statt Raten – Wie verlässliche KI-Systeme aussehen

Im ersten Teil dieser Serie haben wir geklärt, warum häufig bereits in der Entscheidungsphase für KI der Stein für die hohe Misserfolgsquote bei KI-Projekten gesetzt wird: Unternehmen stellen die falschen Fragen. Sie fragen „Wozu können wir KI nutzen?“ statt „Welches Problem wollen wir mit KI lösen?“. 

Doch selbst wenn die richtigen Fragen in der richtigen Reihenfolge gestellt werden, bleibt ein gravierendes Problem bestehen – und genau das ist Thema dieses zweiten Teils: 

Wie stellen Sie sicher, dass KI-Systeme verlässlich sind? 

Das ist DIE kritische Frage, besonders für Finanzunternehmen, aber auch alle anderen Unternehmen, die mit Risiken und Compliance-Anforderungen jonglieren. 

Das Verlässlichkeitsproblem: Warum generative KI allein die Antwort nicht sein kann 

BCG hat im April 2025 ein aufschlussreiches Briefing zur Künstlichen Intelligenz und insbesondere zu „AI Agents and the Model Context Protocol“ veröffentlicht. Die zentrale Erkenntnis ist beunruhigend: Die Verlässlichkeit vollautonomer KI-Agenten wird mit „Low-Medium“ bewertet. 

Und noch entscheidender: Die Zuverlässigkeit sinkt drastisch mit dem Umfang der Aufgabe. Nach einer Stunde Laufzeit liegen wir bei nur noch 50% Zuverlässigkeit. Bei über 4 Stunden nur noch bei 10%. 

Das ist keine theoretische Spielerei. Das bedeutet konkret: Sie können nicht einfach generative KI in Ihre Kernprozesse einbinden und hoffen, dass es funktioniert. Besonders nicht in einem End-to-End-Agenten-System mit vielen nacheinander ablaufenden Schritten. Risikobewertung im Finanzbereich zum Beispiel ist immer qualitativ und quantitativ.  

Warum generative KI per se nicht verlässlich ist 

Quantitative Analysen kann Generative KI nicht. Sie ist per se nicht verlässlich. Das klingt provokativ, ist aber eine Tatsache. Warum? 

Weil der Input bei Ihnen im Unternehmen etwas ist, das die KI so noch nie gesehen hat. Ihre Daten. Ihre Organisation. Ihre Prozesse. Ihre Erwartungen. Das ist alles nicht in den Trainingsdaten des Modells enthalten. 

Und bei generativen KI-Systemen funktioniert das so: Sie liefern das, was plausibel klingt, nicht das, was wahr ist. Sie sind „made to please you“. Sie werden so trainiert, möglichst hilfreich und zufriedenstellend zu wirken – auch wenn die Faktenlage eine andere ist. 

Das ist das Phänomen der „Halluzinationen“, das inzwischen alle kennen. Ein Modell erfindet Fakten. Es gibt Literaturverweise an, die es nie gelesen hat. Es versichert Ihnen, dass etwas so ist, obwohl das Gegenteil der Fall ist – mit absoluter Überzeugung. 

Jetzt fragen Sie sich vielleicht: Aber diese Halluzinationen sind doch bekannt, warum werden sie nicht einfach behoben? 

Weil sie im Wesen der Technologie liegen. Generative KI-Modelle funktionieren nach dem Prinzip: „Was ist die wahrscheinlichste nächste Sequenz von Tokens?“ Sie optimieren nicht auf Wahrheit, sondern auf Wahrscheinlichkeit und Plausibilität. 

Die Lösung: Context Engineering und Hybrid AI 

Wie löst man das? Das BCG-Briefing zeigt: Es braucht einen enormen methodischen Aufwand drum herum. Aber nicht mit mehr generativer KI – sondern mit einer durchdachten Kombination von analytischer und generativer KI. 

Hier sind die vier Säulen verlässlicher KI-Systeme:

1. Kalibrierte Modelle und Human-in-Loop

Modelle müssen lernen, wann sie einen Menschen triggern sollten. Nicht alle Entscheidungen können automatisiert werden. Ein kalibriertes System erkennt: „In dieser Situation habe ich nicht genug Vertrauen darin, das allein zu entscheiden. Ich eskaliere zu einem Menschen.“ 

2. Confidence Scores

Jede Antwort des Systems sollte mit einem Confidence Score versehen sein – eine numerische Bewertung, wie sicher sich das Modell selbst mit der Antwort ist. Das ist nicht perfekt, aber es gibt Ihnen einen Anhaltspunkt. 

3. Constraint-Regeln

Klare Regeln definieren, was der Agent wann freigeben darf und wann er eskalieren muss. Das sind nicht einfach technische Regeln – das sind Geschäftsregeln, die Ihr Risikomanagement abbilden. 

4. Analytische KI als Fundament

Und hier kommt der entscheidende Punkt: All das funktioniert nur, wenn Sie ein Fundament aus analytischer KI haben. 

Die Symbiose: Analytische KI + Generative KI 

Bei moresophy nennen wir das die Symbiose von analytischer und generativer KI. 

Die analytische KI arbeitet wie fleißige Ameisen: 

  • Sie bereitet Daten systematisch, transparent und nachvollziehbar auf. 
  • Sie vermisst Ihre Daten. 
  • Sie vergleicht systematisch historische mit aktuellen Fällen. 
  • Sie identifiziert Auffälligkeiten und Muster. 
  • Sie liefert präzise Metriken, mit denen Sie das Ganze steuern können. 

Das ist reproduzierbar. Das ist transparent. Das ist nachvollziehbar. Und – das ist entscheidend – es funktioniert mit etwa 3% des Energieaufwands, den generative KI kostet. 

Im nächsten Schritt kommt die generative KI ins Spiel: Sie interpretiert diese Daten und macht Signale für Menschen verständlich. Sie hilft bei der Bewertung und Entscheidungsfindung. Sie ist das Werkzeug für die intelligente Interpretation – nicht für die Datenaufbereitung. 

Das ist die Antwort auf die Frage: „Rechnen statt Raten.“ 

Beispiele aus der Praxis 

Banking und Chart-Analysen 

Im Banking will ein Analyst verstehen: Warum reagiert Aktie A anders auf politische Veränderungen als Aktie B? 

Naiver KI-Ansatz: „Analysiere mir die letzten 10 Jahre Chart-Daten von Aktie A und B.“ Das wird nicht funktionieren, weil die KI keine echte Kausalität erkennen kann. 

Der richtige Ansatz: 

  1. Analytische KI sammelt Multi-Source-Daten: Chart-Daten, Marktentwicklungen, Technologie-Trends, Branchenberichte, Markenreputation, Makro-Faktoren wie Klima- und Politikentwicklungen. 
  2. Sie vermisst und korreliert: Das System erkennt, welche dieser Faktoren mit den Aktienbewegungen korrelieren – und mit welcher Stärke. 
  3. Signale als Metriken: Das System liefert Signale wie „Wenn die Regulierung in Sektor X verschärft wird, dann sinkt Aktie A um durchschnittlich 2%, aber Aktie B um 5%.“ 
  4. Generative KI erklärt die Zusammenhänge. Das KI-System interpretiert: „Aktie B reagiert stärker, weil Unternehmen B höhere Compliance-Kosten hat. Das ist hier das wesentliche Treiber-Verhältnis.“ 

Das ist verlässlich, transparent underklärbar. 

Das Kernprinzip: Der Wert liegt in der Fokussierung 

Hier ist das entscheidende Takeaway dieses Teils: 

Der Wert liegt nicht in der Menge der KI-Agenten, die Sie implementieren. Der Wert liegt in der Fokussierung auf die richtigen Prozesse und deren verlässliche Ausführung. 

Das bedeutet: Nicht schnell 10 KI-Agenten bauen und hoffen, dass einer funktioniert. Sondern: 1-2 kritische Prozesse wirklich verstehen, mit analytischer KI aufbereiten, mit präzisen Metriken steuern, und dann – nur dann – generative KI intelligent einsetzen. 

Das ist der Unterschied zwischen den 95% Misserfolgen und den 5% Erfolgen. 

 

Im nächsten Teil dieser Serie: Wir zeigen Ihnen, warum Regulierung – insbesondere die BaFin-Anforderungen – nicht Ihr Feind sind, sondern Ihr Wettbewerbsvorteil. 

 

Portrait von Prof. Dr. Heiko Beier

CEO von MORESOPHY

Heiko Beier ist Professor für Medienkommunikation und Unternehmer mit Schwerpunkt Data-Analytics und Künstlicher Intelligenz. Als Experte für Cognitive Business Transformation begleitet er Unternehmen in verschiedenen Industrien bei der Konzeption und Umsetzung digitaler Geschäftsmodelle auf Basis von Smart Data Technologien.

Weitere Artikel von Data-Driven Business

Demografischer Wandel als Treiber
Friederike Scholz

|

 
September 1, 2025

|

 
7 min. Lesezeit
Beitragsbild Was ist das beste LLM - Ameisen vs Monster
Friederike Scholz

|

 
Juli 21, 2025

|

 
5 min. Lesezeit
Nach oben scrollen
Cookie Consent Banner von Real Cookie Banner