Sie heißen „ogGPT“, „dmGPT“ oder „Direct Chat“: In den vergangenen Monaten haben verschiedene Unternehmen eigene ChatGPT-ähnliche KI-Chatbots eingeführt. Damit soll Firmenwissen für Beschäftigte leichter zugänglich sein. Eine Zwischenbilanz.
Wie kann ich meine Reisekosten abrechnen? Welche Weiterbildungsangebote gibt es? Wer kennt sich mit IT-Problemen aus? Es sind solche und andere Fragen, die von Mitarbeitern in Unternehmen immer wieder gestellt werden. Manchmal werden befreundete Kollegen gefragt, manchmal die Chatforen im Intranet genutzt. Nicht immer kommen Antworten, manchmal sind sie auch nicht richtig.
Der Hype um den KI-Chatbot ChatGPT hat dazu geführt, dass zahlreiche Unternehmen dieses Problem mit Generativer KI lösen wollen. Die Idee: Die Angestellten müssen ihre Fragen nur noch in ein Chatfenster eintippen. Dann sucht die Künstliche Intelligenz im Hintergrund in firmeneigenen Daten und Dokumenten nach den richtigen Fakten und setzt daraus mithilfe eines Sprachmodells (LLM) innerhalb von Sekunden die passende Antwort zusammen.
Der firmeninterne Alleswisser
„Man muss keine Bibliothek mehr mit wichtigen FAQs, Themen oder anderen relevanten Informationen pflegen“, sagt Fabrice Berrez, Vice President Data & AI des Tech-Dienstleisters Digitall. „Die Chatbots sparen Zeit, sind leicht zu bedienen, beantworten komplexe Fragen und sind außerdem eine ideale Lösung, um den Wissensverlust in bestimmten Bereichen zu vermeiden.“ Wenn Mitarbeiter das Unternehmen verlassen oder durch Umstrukturierungen an bestimmten Stellen Wissen versickert, ist das Know-how weiterhin abrufbar: Der Firmen-Chatbot weiß weiterhin alles.
Die Drogeriemarktkette dm zählt zu den Vorreitern in diesem Bereich. Vergangenen August hat sie eine unternehmensinterne Alternative zu ChatGPT geschaffen. Ihr Name: dmGPT. Mehr als 10.000 Mitarbeitende haben Zugriff, täglich werden mehrere tausend Anfragen gestellt, berichtet Roman Melcher, als Geschäftsführer verantwortlich für IT und das Tochterunternehmen dmTech.
Auch der Mode-Discounter Takko Fashion, der Versandhändler Otto, die Automobilmarke Mercedes-Benz oder die Unternehmensberatung KPMG haben eigene KI-Chats eingeführt. Die erste Bilanz sei sehr gut, bestätigt Dirk Mannweiler, Manager Data Science bei Takko Fashion. Genutzt werde Takko, so der Name des Bots, derzeit von den 500 Mitarbeitenden im Headquarter. Nach und nach werden seine Funktionen ausgebaut und der Bot immer mehr Abteilungen zur Verfügung gestellt. Mannweiler: „Langfristig sollen sämtliche Angestellten auf den Bot und damit alle unternehmensinternen Daten zugreifen können.“ Das werde die Arbeit einfacher und angenehmer machen und nebenbei die Produktivität erhöhen.
Abgesicherter Zugang zu Generativer KI
In vielen Fällen soll der unternehmenseigene KI-Chatbot die Angestellten erst einmal mit Künstlicher Intelligenz vertraut machen. „Die Implementierung hat viele Vorteile“, sagt Björn Lorenzen, Regional Vice President EMEA Central bei Yext. „Unter anderem werden die Mitarbeitenden auf das Thema KI geschult. Das erweitert ihre Kompetenzen und fördert ein tieferes Verständnis für den Umgang mit KI.“
Tatsächlich war dies auch für die Beratungsgesellschaft KMPG ein wichtiger Grund, den internen KI-Chat zu entwickeln. Damit habe man alle ermutigt, sich intensiv mit den Einsatzmöglichkeiten von KI zu befassen, so eine Sprecherin. Ein weiterer Grund war für viele Unternehmen die Datensicherheit. Denn bevor Mitarbeiter ChatGPT für berufliche Zwecke nutzen und dort sensible Daten eingeben, ist es sinnvoller, hierfür eine abgesicherte Umgebung anzubieten. „Unser Ziel war es, möglichst vielen Mitarbeitenden einen sicheren Zugang zu generativer KI zu ermöglichen und ihnen den Arbeitsalltag zu erleichtern“, bestätigt Jan Brecht, CIO der Mercedes-Benz Group und der Mercedes-Benz AG.
Dieses Ziel hat der Automobilkonzern inzwischen erreicht. Nach einer Entwicklungszeit von sechs Monaten hat Mercedes-Benz Ende vergangenen Jahres den Roll-Out für seinen „Direct Chat“ gestartet. Inzwischen können 140.000 Beschäftigte die KI-Anwendung nutzen.
Keine Daten an OpenAI
Technisch setzt der Direct Chat auf GPT-3.5 Turbo auf und wurde über den Microsoft Azure OpenAI Service integriert. Damit kann das generative KI-Modell von OpenAI genutzt werden, gleichzeitig greifen die Sicherheitsfunktionen der Azure Cloud. „Die Texteingaben der Mitarbeiterinnen und Mitarbeiter werden nicht auf den Servern gespeichert oder für Trainingszwecke der KI verwendet“, erklärt Jan Brecht. Die Web-Applikation werde in europäischen Rechenzentren betrieben, Mercedes-Benz behalte die Hoheit über die IT-Prozesse im Hintergrund. Brecht: „Damit ist auch sichergestellt, dass keine weiteren Daten durch Microsoft verwendet werden. Eine Weitergabe von Daten an OpenAI oder Dritte findet nicht statt.“
Die Vorteile von ChatGPT nutzen, unternehmensinterne Daten hinzufügen, diese aber so absichern, dass davon nichts nach außen dringt – auf dieser Basis bauen die meisten firmeninternen KI-Chatbots auf. Auch bei der Otto Group wollte man die Angestellten zur Nutzung von Generativer KI ermuntern. Gleichzeitig sehen die internen Richtlinien vor, dass das nur mit öffentlich verfügbaren Informationen geschehen durfte. Damit aber ließ sich das Potenzial der Lösung nicht wirklich ausschöpfen. Mitte September launchte die Otto Group deshalb ogGPT.
„Damit können derzeit rund 26.000 Mitarbeiterinnen und Mitarbeitern in der Otto Group die Funktionalitäten und Technologien von OpenAI in einem sicheren Umfeld zur Verfügung gestellt werden“, erklärt Anja Körber, Head of Artificial Intelligence & Automation in der Otto Group. „Aber auch interne Daten können mit ogGPT genutzt werden, mit Ausnahme besonders sensibler Daten wie Gesundheitsdaten.“ Generell werden bei Otto die Daten nicht im Azure Open AI Service gespeichert. Sie bleiben unter der Kontrolle des Unternehmens und fließen damit nicht in etwaige KI-Trainingsprogramme ein.
Kundenspezifische Daten bleiben gesperrt
Wie wichtig hohe Datensicherheitsstandards sind, wird auch am Beispiel der KMPG deutlich. Der Chatbot kann dort auf eine eigens erstellte Datenbank mit Dokumenten zugreifen. Dazu zählen Gesetzestexte, unternehmenseigene Beratungsmodelle und interne Trainingsunterlagen. „Es handelt sich grundsätzlich um Dokumente, die wir nach hohen inhaltlichen Standards geprüft haben und die qualitätsgesichert sind. Kundenspezifische Informationen nutzen wir nicht“, betont eine Sprecherin. „Der KPMG AI Chat kann auf Basis dieser Informationen Handlungsempfehlungen ableiten, umfangreiche Datenmengen zusammenfassen und bei der Erstellung von Konzepten und Schriftstücken helfen.“
Die meisten Unternehmen haben den Aufbau des firmeneigenen KI-Chatbots innerhalb weniger Monate umsetzen können. Es sei realistisch, in vier bis sechs Wochen einen Use Case zu entwickeln und zu implementieren, sagt Björn Lorenzen. Anschließend sollten weitere vier Wochen für das Testen und Trainieren eingeplant werden. Danach können die ersten Mitarbeitenden darauf zugreifen, womit das System weiter verbessert wird. Die Implementierung sei aufgrund der bereits bestehenden Software-Modelle in der Azure Cloud relativ schnell und zu überschaubaren Kosten möglich, sagt Roman Melcher. „Anspruchsvoller sind dann aber die unternehmensindividuellen Erweiterungen.“
Doch der Aufwand sei auf jeden Fall gerechtfertigt, so die übereinstimmende Aussage der Unternehmen. Die Otto Group hat bei ihrem ogGPT inzwischen jeden Tag knapp 1.000 aktive User, die dort seit kurzem ihre Präsentation auch mit Bildern aus dem DALL-E-Feature aufpeppen können. Auch der Direct Chat von Mercedes soll künftig Bildgenerierung bieten, und KPMG arbeitet daran, demnächst spezialisierte Knowledge-Chatbots freizuschalten.
Das Potenzial sei so gewaltig, dass die Nutzung von KI wettbewerbsrelevant sein werde, so Roman Melcher von dm. Eine sinnvolle Nutzung von KI werde damit zur Pflicht. Melcher: „Jedes Unternehmen verfügt heute über große Datenmengen, aber die Mitarbeitenden finden sie nicht schnell genug. Jetzt können diese Daten schnell und durch eine intuitiv nutzbare Schnittstelle zugänglich gemacht werden.“