Für das Erstellen von Produktbeschreibungen setzen Onlinehändler immer häufiger KI-gestützte Tools ein. Manchmal kann ihr Einsatz aber zu kuriosen Fehlern und Missverständnissen führen. Welche Folgen Fehler in KI-erzeugten Inhalten für Händler haben können und warum menschliche Kontrolle unerlässlich ist, erklärt Michael Kugler, CEO von Contentserv, in diesem Gastbeitrag.
„Sorry, I cannot fulfill this request“, „Es tut mir leid, ich kann diese Anfrage nicht erfüllen“ oder „Ich kann die von Ihnen gewünschten Informationen leider nicht liefern.“ Statt der erhofften Produktinformationen lesen verdutzte Kunden, die im Internet auf der Suche nach Informationen sind, diese und andere Sätze immer öfter.
Der Hintergrund: Da immer mehr Verbraucher digital einkaufen, müssen Unternehmen mit der Nachfrage nach Inhalten Schritt halten und auf den Verkaufsplattformen korrekte und zutreffende Produktinformationen bereitstellen. Für 85% der Käufer spielen laut Consumer Insights von Google Produktinformationen und Bilder eine zentrale Rolle, wenn sie sich für eine Marke oder einen Händler entscheiden.
© IMAGO / Westend61
Ratlose Kundin: Die KI-gestützte Erstellung von Produktbeschreibungen führt bisweilen zu unkonventionellen bis unverständlichen Texten – oder gar zu Fehlermeldungen.
Wenn der Gartenstuhl gegen die Policies verstößt
Doch wenn die Erzeugung der KI-Produktbeschreibungen nicht richtig funktioniert, kommt es zu skurrilen Ergebnissen. Bei Amazon etwa finden sich einige Beispiele, wo die KI zu seriösen Produkten unkonventionelle Namen und Beschreibungen liefert. Sie legen noch bestehende Fehler von KI-Modellen wie ChatGPT, Jasper und CopyAI offen.
So wird beispielsweise ein Holztor als „Sorry, but I cannot create the analysis you are looking for“ bezeichnet. Diese ungewöhnliche Beschreibung zeigt, dass die KI hier statt der Produktbezeichnung etwas formuliert hat, das überhaupt nichts mit dem eigentlichen Produkt zu tun hat. Auch die weiteren Produktbeschreibungen liefern fehlerhafte Informationen.
© Screenshot
KI-generierter Produktbeschreibungsfehler auf dem Marktplatz von Amazon
Beim Gartenstuhl von „khalery“ konnte man statt der gewünschten Produktinformation kürzlich den Satz finden: „Entschuldigung, ich kann ihre Anfrage nicht beantworten, da sie gegen unsere OpenAI-Richtlinien verstößt.“ Ursache sind hier fehlgeleitete Vorgaben („Policies“) für den Einsatz von generativer KI zur Bewältigung von ethischen, rechtlichen, rufschädigenden und gesellschaftlichen Herausforderungen.
Dennoch sind KI-generierte Inhalte auf dem Vormarsch. Sie erhöhen die Effizienz und Produktivität von Onlinehändlern. 60% der Marketingmanager nutzen laut AI Marketing Benchmark Report 2024 bereits KI-Tools, 25% setzen sie der aktuellen Studie von KBV Research zufolge explizit zur Erstellung von Produktbeschreibungen ein. Der weltweite Markt für künstliche Intelligenz steigt bis 2028 voraussichtlich auf 25,8 Milliarden US-Dollar.
© Screenshot
Hier führten offenbar fehlgeleitete Vorgaben („Policies“) für den Einsatz von generativer KI zur fehlerhaften Produktbeschreibung.
KI-generierte Fehler haben Konsequenzen
Dabei sollten die Produktbeschreibungen sowohl hohe Qualitätsstandards als auch die gesetzlichen Vorgaben erfüllen. Händler gehen ins Risiko, wenn sie ohne Kontrolle KI-generierte Inhalte veröffentlichen. Deshalb ist menschliche Kontrolle zur Sicherstellung der Qualität und Compliance von Produktinformationen essentiell.
Unternehmen, die mit ihren automatisiert erstellten Inhalten sorgsam umgehen, haben bessere Karten, wenn sie sich durch Sorgfalt und Konsistenz vom Wettbewerb abheben. Aber auch Händler, die ihre umfangreichen Produktlistungen nochmals manuell überprüfen, können Fehler übersehen, wie diverse Beispiele auf Online-Plattformen zeigen.
Ohne adäquate Kontrollen und Sicherheitsvorkehrungen können Fehler in KI-generierten Inhalten eine ganze Reihe von negativen Konsequenzen haben:
- Reputationsschaden: Durch die Integration von KI beim Erstellen von Inhalten gehen Unternehmen das Risiko ein, dass ihr Ruf Schaden nimmt. Unkontrollierte, KI-generierte Fehlinformationen können sich schnell verbreiten und großen Schaden anrichten, der sich im Nachhinein nur schwer eindämmen lässt.
- Vertrauensverlust: Viele Verbraucher sind wegen Fehlinformationen durch KI-Tools wie Google Bard, ChatGPT und Bing Chat besorgt. Im Cisco 2022 Consumer Privacy Survey unter Verbrauchern zum Thema Datenschutz sagten 65% der Befragten, dass sie als Käufer das Vertrauen in Unternehmen verloren haben, weil diese KI mit fragwürdigen Ergebnissen einsetzten.
- Umsatzverlust:Ungenauigkeiten bei KI-generierten Inhalten, bei denen das System Informationen nicht korrekt wiedergibt, können bei Kunden leicht zu Verwirrung und Unzufriedenheit und in der Folge zu Umsatzeinbußen führen.
An künstlicher Intelligenz führt kein Weg vorbei
Es gibt mittlerweile viele Systeme auf dem Markt, die Unternehmen in unterschiedlicher Weise dabei helfen, Produktinhalte zu managen und in Vertriebskanälen bereitzustellen. Dabei gilt insbesondere das Product-Information-Management, das sich inzwischen vom reinen Produktdaten-Backend zum Product-Experience-Management entwickelt hat, als Umsatztreiber.
Immer mehr Anbieter solcher Lösungen für Marketingspezialisten, Produktteams und IT-Profis setzen dabei auf KI-gestützte Technologien. Das beginnt beim Onboarding und Anreichern von Produktinformationen und geht bis zur Mehrfachverwendung von Inhalten (Syndizieren). Sollen die Daten in einem geschlossenen Kreislauf zusammenlaufen und die Inhalte mit Hilfe von Channel-Insights und Digital-Shelf-Analytics-Funktionen ständig optimiert werden, um sie dann in Echtzeit erneut in die Kanäle zu leiten, führt an der KI kein Weg vorbei.
Die Ansätze zur Content-Überprüfung in den Workflows sollte jedoch immer die systematische Freigabe durch Menschen mit einschließen. Nur so können Unternehmen ihren Kunden hochwertige und richtlinienkonforme Produktinhalte auf allen Kanälen garantieren und durch KI generierte Fehler ausschließen.