Stellen Sie sich vor, Sie sind Anwalt und Ihr Gerichtsverfahren wird eingestellt, weil Sie dank zeitsparender KI-Unterstützung mit Zitaten aus nicht existenten Gerichtsdokumenten argumentiert haben. Was für uns nach einem schlechten Scherz klingt, ist in der Praxis ein echtes Problem: Große generative KI-Modelle wie ChatGPT, Copilot oder Gemini erfinden manchmal Antworten, die zwar überzeugend klingen, aber mit der Realität wenig zu tun haben. Bei juristischen Fragen kann das sogar in 69 bis 88 Prozent der Fälle zutreffen. Klingt absurd? Willkommen in der Welt der KI-Halluzinationen!
Warum halluziniert KI überhaupt?
Man könnte sagen „AI is made to please you“. Große generative KI-Modelle sind so konzipiert, dass sie möglichst immer eine Antwort liefern und somit den Nutzer zufriedenstellen – also „to please“. Haben Sie sich auch schon einmal in einer (nicht zielführenden) Diskussion mit ChatGPT oder einem anderen Modell wiedergefunden, weil Sie sicher waren, dass die gelieferte Antwort falsch ist?
Die Ursache ist schnell erklärt: Generative KI-Modelle sind wahre Meister im Erkennen von Mustern und dem Formulieren plausibler Sätze. Sie „verstehen“ aber nicht wirklich, was sie schreiben.
Verstärkt wird dieses Problem durch die schiere Datenmenge, mit der moderne LLMs trainiert werden. Die Modelle verarbeiten Petabytes an Informationen, und das macht LLMs zu digitalen Alleskönnern. Wie ein Berater, der stolz verkündet, “das haben wir schon mal gemacht”, ziehen sie aus ihrem riesigen Wissensschatz scheinbar passende Antworten. Doch Quantität ersetzt nicht Qualität: Viel Wissen bedeutet nicht automatisch das richtige Wissen für den jeweiligen Kontext.
Findet das Modell auf eine sehr spezifische Frage keine passende Information – etwa, weil die Trainingsdaten lückenhaft oder zu allgemein sind oder eben der Kontext fehlt – dann bastelt es sich eine mit (basierend auf der Datengrundlage) hoher Wahrscheinlichkeit korrekte Antwort zusammen. Das Ergebnis: Scheinbar fundierte Aussagen, die schlicht erfunden sind. In der Fachsprache nennt man das „Konfabulation“ oder eben KI-Halluzination.
Warum ist das so problematisch?
Die Gefahr liegt auf der Hand: Nutzer verlassen sich auf die scheinbar korrekten Antworten – und treffen im schlimmsten Fall falsche Entscheidungen. Besonders in Unternehmen, wo es um Compliance, Dokumentation oder Kundenkommunikation geht, kann das schnell teuer werden. Vertrauen in die KI schwindet, und der Nutzen bleibt auf der Strecke.
Wie geht MORESOPHY mit dem Halluzinations-Problem um?
Bei uns gibt‘s Substanz statt Show. Wir wissen, dass KI nicht alles kann, und kommunizieren das auch klar. Für die Umsetzung von KI-gestützten Projekten haben wir eine Basis geschaffen, um Halluzinationen vorzubeugen und auf ein Minimum zu beschränken. Dafür nutzen wir Hybride KI. Unsere zum Patent angemeldete DAPHY®-Technologie kombiniert die kreative Kraft generativer KI mit der analytischen Präzision klassischer Datenmodelle. Was heißt das konkret?
- Daten im Mittelpunkt: Wir bereiten Unternehmensdaten mit Algorithmen aus dem Bereich des Maschinellen Lernens intelligent auf, um sie für die spezifischen Aufgaben nutzbar zu machen.
- Transparenz und Nachvollziehbarkeit: Jede Antwort kann auf Wunsch mit Quellen belegt werden. So ist immer klar, woher eine Information stammt und im Zweifel schnell nachvollziehbar, ob sie korrekt ist.
- Automatisiertes, kontrolliertes Prompting: DAPHY® generiert Prompts automatisch und kontextsensitiv und übergibt sie zusammen mit den relevanten Daten für die Antwortgenerierung an die generative KI. Das sorgt dafür, dass sich diese in einem vorgegebenen Rahmen bewegt und reduziert Halluzinationen.
Mit MORESOPHY bleibt die KI auf dem Boden der Tatsachen
Natürlich kann auch die beste KI mal danebenliegen – aber mit unserer Technologie minimieren wir das Risiko von Halluzinationen deutlich. Sie erhalten nachvollziehbare, überprüfbare Ergebnisse, die Sie weiterbringen. So wird auch generative KI zum zuverlässigen Partner und lässt den Märchenerzähler hinter sich.
Neugierig geworden? Sprechen Sie uns an – wir zeigen Ihnen gern, wie KI auch in Ihrem Unternehmen den Unterschied macht.
Senior Customer Success Manager
Friederike Scholz hilft Kunden seit über 20 Jahren dabei, aus neuen Technologien echten Nutzen zu ziehen. Bei MORESOPHY begleitet sie Kunden bei der zielgerichteten Planung und erfolgreichen Einführung von KI-Lösungen und ist Schnittstelle zu Vertrieb und Produkt.
Weitere Artikel von Responsible AI

|
|

|
|

|
|