Kann Künstliche Intelligenz ethisch, sicher und nachhaltig sein? Und gleichzeitig Innovation und Fortschritt fördern? Genau das wurde auf dem AI Action Summit in Paris gefordert. Ein Gespräch mit Romain Lerallut von Criteo, einem der führenden europäischen KI-Experten im Ad-Tech-Bereich.
Der AI Action Summit Mitte Februar in Paris brachte Regierungschefs, Vertreter internationaler Organisationen, Unternehmen und Forschungseinrichtungen zu den gesellschaftlichen Auswirkungen von Künstlicher Intelligenz zusammen. Die Abschlusserklärung, das „Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet“ betont die Notwendigkeit einer verantwortungsvollen Entwicklung von KI, die auf wissenschaftlichen Erkenntnissen basiert und ethische, nachhaltige sowie inklusive Prinzipien berücksichtigt. Sie wurde von 60 Staaten und internationalen Organisationen unterzeichnet, nicht aber von den USA und UK.
Im Interview ordnet Romain Lerallut, Head of Criteo AI Lab in Paris, diese Erklärung ein. Er sagt, warum er den europäischen Ansatz für richtig hält. Und er erklärt, wie sich ethische Anforderungen und Innovation ergänzen und warum China mit der Entwicklung von DeepSeek hier einen wichtigen Schritt getan hat.
Wie wertvoll ist die Abschlusserklärung des AI Action Summit, wenn sie von den USA und Großbritannien gar nicht unterzeichnet wurde?
Romain Lerallut: Die USA haben offenbar derzeit wenig Lust auf große, internationale Verträge. Aber viele amerikanische und britische Unternehmen legen nach wie vor großen Wert auf eine ethisch ausgerichtete KI. Zahlreiche globale Unternehmen engagieren sich aktiv in diesem Bereich. Wenn die USA und UK hier außen vor bleiben, laufen sie Gefahr, ihre Führungsrolle und Glaubwürdigkeit in diesem Bereich zu verlieren. Denn der breite Konsens unter den Unternehmen weltweit zeigt, dass eine ethische und nachhaltige KI höchste Priorität hat. Die vorgeschlagene „Coalition for Sustainability“, die von vielen Unternehmen unterzeichnet wurde, ist hier ein wichtiges Signal für Fortschritt und kollektive Verantwortung.

© Criteo
Romain Lerallut, Head of Criteo AI Lab in Paris
In der Erklärung heißt es, dass KI offen, integrativ, transparent, ethisch, sicher und vertrauenswürdig sein sollte. Gleichzeitig soll sie aber auch nachhaltig sein und Innovationen fördern. Ist das nicht ein Widerspruch?
Lerallut: Diese Grundsätze sind nicht unbedingt widersprüchlich, sondern spiegeln vielmehr die Werte wider, die wir in Einklang bringen wollen. Europa legt besonderen Wert auf eine verantwortungsvolle KI-Entwicklung und will, dass Innovationen mit ethischen und nachhaltigen Zielen in Einklang stehen. Das Geheimnis liegt darin, klar definierte Rahmenbedingungen zu schaffen, die Fortschritte ermöglichen und gleichzeitig grundlegende Werte respektieren. Im Gegensatz zu Ländern, die den schnellen Fortschritt in den Vordergrund stellen, verfolgt Europa einen vorsichtigeren, strukturierteren Ansatz, um unbeabsichtigte Folgen zu vermeiden.
Glauben Sie, dass es möglich ist, eine ethisch orientierte KI zu entwickeln, ohne Wachstum und Innovation zu behindern?
Lerallut: Ja, und in einigen Fällen kann ethische KI die Leistung sogar steigern. Bei der Entwicklung unvoreingenommener Algorithmen haben wir festgestellt, dass die Hinzufügung ethischer Einschränkungen die Ergebnisse verbessern kann, weil sie die KI zu besseren Entscheidungen anleitet. Künstliche Intelligenz erkennt bestimmte Voreingenommenheiten nicht immer von selbst. Aber durch die Einbettung von entsprechenden Werten in ihr Design können wir Systeme schaffen, die die Welt nicht nur nachbilden, sondern aktiv verbessern. Ethische KI ist also kein Innovationshemmnis, sondern kann zu zuverlässigeren und effektiveren Lösungen führen. Die Herausforderung besteht darin, das richtige Gleichgewicht zwischen Kontrolle und Flexibilität zu finden, damit KI sowohl dem Fortschritt als auch der Gesellschaft dient.
Was sind für Sie die wichtigsten ethischen Bedenken?
Lerallut: Das hängt von der jeweiligen Anwendung ab. In der Werbung kann eine Voreingenommenheit geringfügige Folgen haben – wenn eine KI Erdbeer- statt Bananenjoghurt empfiehlt, ist das kein großes Problem. Aber in Bereichen wie dem Gesundheitswesen, selbstfahrenden Autos oder der Sozialfürsorge können KI-Entscheidungen das Leben der Menschen stark beeinflussen. Fälle in den Niederlanden haben gezeigt, dass eine voreingenommene KI im Sozialbereich zu diskriminierenden Ergebnissen führen kann. Wir müssen KI also auf der Grundlage ihrer realen Auswirkungen bewerten und so sicherstellen, dass Systeme mit möglichen gesellschaftlichen Folgen mit besonderer Sorgfalt und Verantwortlichkeit entwickelt werden.
Was bedeutet das für die Werbung?
Lerallut: Die Werbung ist ein wichtiges Testfeld für KI, da sie täglich Millionen von Menschen anspricht und verhältnismäßig geringe Risiken birgt. Allerdings können Verzerrungen beim Targeting immer noch gesellschaftliche Ungleichheiten verstärken – zum Beispiel werden in Stellenanzeigen oft Führungsrollen für Männer und Assistenzrollen für Frauen angezeigt. Um dem entgegenzuwirken, haben wir den „Fair-Job“-Datensatz erstellt. Er hilft der Forschung, solche Verzerrungen zu erkennen und abzuschwächen. Ethische KI in der Werbung bedeutet, Fairness bei der Zielgruppenansprache zu gewährleisten und gleichzeitig die Effizienz zu erhalten. Es geht darum, KI zu nutzen, um bestehende Ungleichheiten zu verbessern und nicht ungewollt zu verschlechtern.
Kann KI ethisches Verbraucherverhalten unterstützen?
Lerallut: Auf jeden Fall. Die Verbraucher, insbesondere in Europa, suchen zunehmend nach ethischen und nachhaltigen Produkten und berücksichtigen dabei Faktoren wie den CO2-Fußabdruck und die lokale Produktion. KI kann Werbung auf diese Vorlieben abstimmen und die User mit den Marken verbinden, die ihre Werte teilen. Die Herausforderung für die Ad-Tech-Branche besteht darin, diese Absicht der Verbraucher zu erfassen und sicherzustellen, dass die KI-gesteuerten Empfehlungen auch wirklich ethische Entscheidungen widerspiegeln. Wenn es richtig gemacht wird, kann KI einen verantwortungsvollen Konsum fördern und gleichzeitig die Unternehmensziele unterstützen.
Criteo zählt zu den führenden Ad-Tech-Unternehmen und setzt seit Jahren stark auf KI. Welche Schritte unternehmen Sie, um eine ethische und vertrauenswürdige KI zu gewährleisten?
Lerallut: Wir haben strenge Guidelines und eine spezielles Ethik Kommission, die sich aus Experten der Bereiche Recht, Technik, Wirtschaft und Marketing zusammensetzt. Dieses Team trifft sich alle drei Monate, um die Richtlinien zu überprüfen, ethische Bedenken zu bewerten und Anpassungen zu empfehlen. Seine Aufgabe ist es, sicherzustellen, dass unsere KI den ethischen Standards in unterschiedlichen kulturellen und rechtlichen Kontexten entspricht. Mit diesem strukturierten Ansatz können wir Herausforderungen proaktiv angehen und die Fairness und Transparenz unserer KI-Systeme kontinuierlich verbessern.
Die USA und China sind führend im Bereich der KI, während die EU oft für übermäßige Regulierung kritisiert wird. Stimmen Sie dem zu?
Lerallut: Die EU räumt den Menschenrechten und ethischen Erwägungen Vorrang ein, wie die Datenschutzgrundverordnung zeigt. Vorschriften bieten einen Rahmen, der sicherstellt, dass die KI-Entwicklung mit den gesellschaftlichen Werten in Einklang steht. Zu viele Beschränkungen können Innovationen bremsen, aber gut ausgearbeitete Regeln können Vertrauen und langfristigen Fortschritt fördern. Der Schlüssel liegt darin, ein Gleichgewicht zwischen Aufsicht und Flexibilität zu finden – Innovation zuzulassen und gleichzeitig klare Grenzen zu setzen, um ungewollte Auswirkungen zu verhindern. Richtig gemacht, kann die Regulierung eher ein Vorteil als eine Einschränkung sein.
Glauben Sie, dass die Erklärung des AI Action Summit solche klaren Grenzen setzt?
Lerallut: Die Erklärung ist klar genug, aber die Vorschriften müssen praktisch und leicht umsetzbar sein. Entwickler und Wissenschaftler sollten keine Rechtsexperten brauchen, die jede Regelung erst auslegen müssen. Die Herausforderung besteht darin, einen Rahmen zu schaffen, der klare Grenzen setzt und gleichzeitig Raum für Innovationen lässt. Lange, komplexe Rechtstexte wie die DSGVO oder der EU AI Act können die Einführung verlangsamen, weshalb eine Vereinfachung der Vorschriften von Vorteil wäre. Ein gut strukturierter Ansatz sollte sichere Bereiche skizzieren, in denen sich die KI ungehindert entwickeln kann, während Hochrisikobereiche klar erkennbar sein sollten.
Wie werden sich die KI-Ansätze in China, den USA und Europa in den kommenden Monaten entwickeln? Wird es ein gemeinsames Verständnis geben?
Lerallut: Der Schlüsselfaktor bei der Entwicklung von KI wird nicht die geografische Lage sein, sondern die Offenheit. China hat seine wissenschaftliche Erkenntnisse für Deep Seek öffentlich zugänglich gemacht und so eine globale Zusammenarbeit ermöglicht. In ähnlicher Weise treiben Unternehmen wie Mistral und Meta offene Modelle voran, die sich damit möglicherweise schneller entwickeln als geschlossene Systeme. Dies ist kein Wettbewerb im Stil des Kalten Krieges, sondern vielmehr eine Chance für gemeinsamen Fortschritt. Je mehr KI-Forschung gemeinsam betrieben wird, desto wahrscheinlicher sind rasche Fortschritte, von denen alle profitieren. Gleichzeitig können regulatorische Unterschiede die Standardisierung verlangsamen. Aber deshalb wird eine internationale Zusammenarbeit immer wichtiger.
Welche Bedeutung hat der Ansatz von Deep Seek für die Zukunft der KI in Bezug auf Effizienz und Nachhaltigkeit?
Lerallut: Die Leistung von Künstlicher Intelligenz hat sich rapide verbessert. Deep Seek konzentriert sich auf die Senkung der Kosten für Training und Inferenz. Der Ansatz von Deep Seek erzielt die gleichen Ergebnisse zu einem Zwanzigstel der Kosten, sowohl in finanzieller Hinsicht als auch in Bezug auf den CO2-Fußabdruck. Dies ist ein bedeutender Durchbruch für nachhaltige KI. Er beweist, dass Effizienz nicht auf Kosten der Leistung gehen muss. Deep Seek hat diese Erkenntnisse öffentlich zugänglich gemacht und schafft dadurch einen Präzedenzfall für eine kostengünstigere und umweltfreundlichere KI-Entwicklung. Wenn andere diesem Modell folgen, könnten wir einen Wandel hin zu KI-Systemen erleben, die sowohl leistungsstark als auch ressourcenschonend sind.
Sollte Europa mehr in KI investieren? Eine Gruppe von 20 Unternehmen und Start-ups hat im Umfeld des Pariser AI Action Summit eine Investition von 150 Milliarden Euro über fünf Jahre zugesagt. Ist dies der richtige Schritt?
Lerallut: Ja, und zwar aus zwei Gründen. Erstens legt Europa großen Wert auf Nachhaltigkeit und stellt sicher, dass die Entwicklung von KI mit der Politik für grüne Energie in Einklang steht. Selbst hocheffiziente KI-Modelle benötigen immer noch eine enorme Rechenleistung. Aber Europas Fokus auf erneuerbare Energien kann dazu beitragen, die damit verbundenen Umweltauswirkungen zu mildern. Zweitens stärkt diese Investition die europäische KI-Souveränität, indem sie die Abhängigkeit von ausländischen Technologien verringert und gleichzeitig Innovationen fördert, die europäische Werte widerspiegeln. Wenn diese Investitionen richtig eingesetzt werden, könnte sich Europa in der ethischen und nachhaltigen KI-Entwicklung führend positionieren.