|

April 14, 2025

|

7 min. Lesezeit

KI im Marketing und generative KI kritisch betrachtet

Von Monstern und Ameisen – Warum es im
KI-gestützten Marketing und der Customer Experience beides braucht (Teil 1 von 3)

Künstliche Intelligenz (KI) ist längst zu einem festen Bestandteil unseres Alltags geworden und gewinnt zunehmend an Bedeutung – auch im Marketing und der digitalen Customer Experience (CX). Mit wenigen Klicks lassen sich moderne generative KI-Tools nutzen, sei es zur Texterstellung, Datenanalyse oder Bildgenerierung. Doch mit der zunehmenden Verbreitung stellt sich für Unternehmen eine entscheidende Frage: Wie lässt sich KI sinnvoll und gleichzeitig verantwortungsvoll einsetzen?

Dieser Frage widmete ich mich meinem Vortrag „Von Monstern und Ameisen – warum KI-gestütztes Marketing & CX beides braucht“, gehalten am 11. März 2025. Auf vielfältigen Wunsch habe ich die zentralen Themen und Aussagen des Vortrags in einer dreiteiligen Blogserie für Sie aufbereitet – fundiert, verständlich und praxisnah.

Den vollständigen Vortrag finden Sie auf der  wo Sie auch weitere spannende Inhalte, rund um digitale Transformation, KI und Customer Experience entdecken können. Schauen Sie gerne vorbei!

Die Demokratisierung der KI – wer darf mitspielen?

KI ist kein Nischenthema mehr. Früher ausschließlich in Forschungseinrichtungen oder bei Tech-Giganten im Einsatz, stehen generative KI-Systeme und KI-Technologien heute auch kleineren bis mittelständischen Unternehmen und der breiten Öffentlichkeit zur Verfügung. Dieser Trend zur Demokratisierung bedeutet: Immer mehr Menschen können leistungsfähige KI nutzen – ganz ohne tiefes technisches Wissen.

Gerade im Bereich der generativen KI zeigt sich, wie sehr sich unser Umgang mit Technologie verändert hat. KI-Tools wie ChatGPT, Google Gemini oder Adobe Firefly ermöglichen es, in Sekundenschnelle Inhalte zu erzeugen – sei es Text, Bild oder Ton. Laut einer Umfrage von Statista verwendeten im Jahr 2024 rund 48 % der befragten Deutschen ChatGPT – 2022 waren es noch 19 %. Die Nutzung dieser Technologien hat sich also in kurzer Zeit mehr als verdoppelt. (Quelle Statista)

Infografik Statista: Welche GenAI-Tools werden in Deutschland genutzt?

Diese Entwicklung bringt viele neue Chancen, aber auch Pflichten und Herausforderungen mit sich. Denn je intensiver generative KI im Marketing, oder auch anderen Bereichen, wie zum Beispiel Kundenservice oder Content Management eingesetzt wird, desto höher ist die Verantwortung. Es reicht nicht aus, die KI-Tools einfach einzusetzen – es braucht eine bewusste und strategische Auseinandersetzung mit ihren Risiken, Möglichkeiten, Qualitätsstandards und Grenzen.

Wenn KI außer Kontrolle gerät: Risiken & Chancen

Ein prägnantes Beispiel, wie schnell sich KI-Systeme verselbstständigen können, liefert der Paketdienstleister DPD. Das Unternehmen hatte einen KI-basierten Chatbot im Kundenservice, um Anfragen zu bearbeiten. Doch statt hilfreicher Antworten beleidigte der Bot plötzlich das Unternehmen selbst im Chat.

DPD reagierte schnell und deaktivierte das System umgehend. Doch der Schaden war angerichtet: Die negativen Reaktionen in sozialen Medien ließen nicht lange auf sich warten. Ein Shitstorm brach los, Medien griffen den Fall auf und das Vertrauen in die Marke erlitt sichtbare Kratzer. (Quelle)

DPD Chatbot beleidigt eigenes Unternehmen
DPD Chatbot beleidigt eigenes Unternehmen

DPD Chatbot beleidigt eigenes Unternehmen und muss Bot offline nehmen. (Quelle Bilder)

Solche Vorfälle verdeutlichen, wie wichtig ein durchdachtes Vorgehen beim Einsatz von KI, wie hier im Kundenservice und KI-Marketing in Form eines Chatbots, ist. Neben kurzfristigen Imageschäden können auch langfristige Folgen entstehen – von Vertrauensverlust über Umsatzeinbußen bis hin zu rechtlichen Problemen. Unternehmen müssen sich bewusst machen, dass ein unkontrollierter KI-Einsatz gravierende Konsequenzen haben kann.

Verborgene Fehler – wenn generative KI Fakten verdreht

Nicht immer sind die Risiken im Umgang mit KI so offensichtlich wie im Fall von DPD. Oft bleiben Fehler lange unentdeckt und richten schleichend Schaden an.

Ein anschauliches Beispiel liefert das generative KI-Tool ChatGPT: Fragt man das, warum der deutsche Grafikdesigner Otl Aicher Bildhauerei studierte, erhält man – je nach Formulierung – einmal eine korrekte und einmal eine falsche Antwort. Allein das Hinzufügen des Worts „keine“ führt plötzlich zu einer signifikant abweichenden Aussage.

Was hier deutlich wird: Die generative KI zielt nicht primär auf inhaltliche Korrektheit, sondern auf Plausibilität und Nutzerzufriedenheit. Inhalte wirken oft glaubwürdig – auch wenn sie objektiv falsch sind. Die Algorithmen sind so trainiert, möglichst plausibel und hilfreich zu wirken – selbst, wenn die Faktenlage nicht stimmt.

Das generative KI-Tool ChatGPT von OpenAI antwortet nur durch das Hinzufügen des Wortes „keine“ plötzlich ganz anders – dadurch stimmt die Antwort auch nicht mehr.

Wenn man sich vorstellt, dass in Bereichen wie etwa dem KI-gestützten Marketing ständig Fehlinformationen verbreitet werden, könnte dies langfristig zu erheblichen Problemen führen. Solche Inkonsistenzen stört die Customer Experience und können Nutzer:innen schnell verunsichern. Besonders problematisch ist dabei, dass diese Art von Fehlern auf den ersten Blick kaum auffällt. Unternehmen bemerken sie häufig erst, wenn sich Beschwerden häufen oder das Vertrauen bereits beeinträchtigt ist.

Gerade diese subtilen Unstimmigkeiten bergen ein enormes Risiko: Sie sind schwer zu erkennen, entwickeln aber langfristig eine hohe Wirkung auf die Außenwahrnehmung eines Unternehmens.

Täuschend echt – warum KI-Content nicht gleich guter Content ist

Viele Unternehmen setzen KI-Tools ein, um Content schnell und kosteneffizient zu erstellen. Doch ohne klare Content-Strategie und redaktionelle Qualitätsprüfung droht eine Flut an oberflächlichem oder fehlerhaftem KI-Content.

KI-basierte Inhalte wirken oft beeindruckend – doch das bedeutet nicht automatisch, dass sie korrekt oder qualitativ hochwertig sind. Gerade in Bereichen, in denen Nutzer:innen wenig Vorwissen haben, kann KI sehr überzeugend, aber irreführend sein.

Im Content Marketing zeigt sich dieser Effekt besonders deutlich. Viele Unternehmen setzen KI ein, um in kurzer Zeit große Mengen an Inhalten zu produzieren. Dabei wird jedoch häufig auf Qualität, Relevanz und Faktenprüfung verzichtet. Das Resultat: eine wachsende Menge an KI-generiertem Content, der oberflächlich wirkt oder schlichtweg falsche Informationen enthält ohne eine konkrete Strategie dahinter.

Ein kritischer Blick auf diesen Trend kommt von Journalist Joseph Cox in seinem Artikel „Google News Is Boosting Garbage AI-Generated Articles“. Darin zeigt er auf, wie Google scheinbar unkritisch KI-generierte Inhalte in seine News-Plattform einspeist – oftmals ohne Prüfung, ob sie von Menschen oder Maschinen stammen. Dabei werden häufig gestohlene Inhalte automatisiert umgeschrieben und wiederverwendet mit Hilfe von KI. Als Resultat steht ein Google News Feed mit KI-generiertem „Bullshit-Content“, was dazu führt, dass viele Nutzer eine unbefriedigende Customer Experience erleben.

Eine weitere Quelle, NewsGuard, fand heraus, dass es im Web über 1.200 Webseiten gibt, die unzuverlässige, Inhalte erstellt mit KI-Tools in zahlreichen Sprachen verbreiten – ein bedenklicher Trend mit weitreichenden Folgen für Informationsqualität und Medienkompetenz.

Generative KI – ein mächtiges Werkzeug oder ein unberechenbares Monster?

All diese Beispiele führen zu einer zentralen Erkenntnis: Generative KI ist ein extrem leistungsfähiges Werkzeug – doch sie kann sich schnell gegen ihre eigenen Ziele und Intentionen  wenden, wenn sie nicht durchdacht implementiert wird. Sie besitzt das Potenzial, Effizienz und Innovation zu fördern, doch ohne klare Kontrolle und Strategie kann sie auch massiven Schaden anrichten.

Generative KI im Marketing - ein unberechenbares Monster

Vergleicht man generative KI mit einer Bestie, trifft man den Nagel auf den Kopf: Sie ist mächtig, unermüdlich und in der Lage, Großes zu leisten – doch wenn man sie entfesselt, ohne die Regeln zu kennen, wird sie zum Risiko.

Die Lösung liegt darin, diese Technologie nicht nur technisch, sondern auch kulturell und strategisch zu verstehen. Es reicht nicht, KI als eine universelle Lösung zu betrachten – sie muss in die Unternehmens-DNA integriert, laufend überprüft und für die Customer Experience optimiert werden. Vor allem KI in der Kundenkommunikation und im Marketing kann falsch eingesetzt langfristig Schaden anrichten.

Ausblick: KI bändigen – Wie Unternehmen KI verantwortungsvoll einsetzen können

Im nächsten Teil dieser Blogreihe zeigen wir auf, wie Unternehmen die generative KI „zähmen“ können: mit klaren Prozessen, gezielten Anwendungsfällen und einem kritischen Blick auf Chancen und Risiken.

Im dritten und abschließenden Teil gehen wir dann noch einen Schritt weiter: Wir erklären konkrete Anwendungsbeispiele, um eine verlässlich und kontrollierte KI-Strategie erfolgreich umzusetzen – speziell am Beispiel von KI-gestütztem Marketing.

Bleiben Sie dran – Teil 2 und 3 folgen in Kürze.

 

Kontaktieren Sie uns noch heute, um Ihren Business-Case zu besprechen und gemeinsam eine individuelle KI-Lösung zu entwickeln, die Ihr Unternehmen voranbringt!

Portrait von Prof. Dr. Heiko Beier

CEO von MORESOPHY

Heiko Beier ist Professor für Medienkommunikation und Unternehmer mit Schwerpunkt Data-Analytics und Künstlicher Intelligenz. Als Experte für Cognitive Business Transformation begleitet er Unternehmen in verschiedenen Industrien bei der Konzeption und Umsetzung digitaler Geschäftsmodelle auf Basis von Smart Data Technologien.

Weitere Artikel von Responsible AI

Woman holding a AI brain in her hands
Andreas Zwick

|

 
Juli 10, 2023

|

 
5 min. Lesezeit
Nach oben scrollen
Cookie Consent Banner von Real Cookie Banner