Wie muss sich Compliance neu erfinden?

Beitrag als PDF (Download)

 

Einleitung

Täuschend echte Fotos, imitierte Stimmen, Antworten auf komplexe Fragen in Sekundenschnelle – was künstliche ­Intelligenz (KI) heute leisten kann, ist atemberaubend. Auch auf die Compliancefunktion wird die Technologie signifikante Auswirkungen haben. Eine aktuelle Umfrage zeigt, wie Complianceverantwortliche KI gegenüberstehen, welche Anwendungsfälle es bereits gibt und wo die Reise hingehen könnte.

Auf einmal war es da: ein faszinierend intelligentes System, das alle Siris und Alexas in den Schatten gestellt hat. Schon mehr als ein halbes Jahr ist es her, dass ChatGPT in unsere Welt getreten ist und wir jedes Mal wieder von dessen Antworten überrascht sind. Und seitdem stellt sich die Frage: Was wird diese Technologie alles verändern? Und was bedeutet sie für Complianceverantwortliche?

Um Antworten auf diese Fragen zu bekommen, haben wir zwischen Mai und Juni unsere Kunden befragt: Compliance­verantwortliche aus Deutschland, Österreich und der Schweiz, vom kleinen Startup bis hin zum internationalen Großkonzern. Mehr als 200 Teilnehmer haben ihre Ansichten zu künstlicher Intelligenz und Compliance geteilt, inklusive ihrer Erwartungen, Hoffnungen und Ängste.

Ergebnisse der EQS-Kundenbefragung zum Thema KI

Dabei zeigt sich: In Bezug auf künstliche Intelligenz spannt sich ein weites Feld unter Complianceverantwortlichen auf, von techaffinen Early-Adoptern bis hin zu kritischen KI-Skeptikern. Immerhin 41% der Befragten haben KI-Tools bereits im beruflichen Kontext eingesetzt. Ein Großteil davon insbesondere für Kommunikation (74,2%), zum Beispiel das Schreiben von E-Mails, Formulieren von Berichten, Richtlinien und Stellenbeschreibungen oder für Übersetzungen. Weitere 40,4% haben KI-Tools für allgemeine Recherchen eingesetzt, beispielsweise zu bewährten Compliance­praktiken oder zur Complianceorganisation. Ein kleinerer Prozentsatz (7,9%) setzt KI für Screening-Prozesse ein, beispielsweise für Transaktionsüberprüfungen und Geschäftspartner-/Lieferanten-Screenings.

Auch ganz konkrete Anwendungsfälle sind in der Umfrage genannt worden: „Entwurf einer Grundsatzerklärung“ beispielsweise für das Lieferkettensorgfaltspflichtengesetz. ­„Erstellung von Richtlinien und Arbeitsanweisungen“ – hier ist es ebenfalls beeindruckend, was KI-basierte Sprach­modelle wie ChatGPT mit dem richtigen „Prompt“ produzieren können. Darüber hinaus kamen „Brainstorming“, „Testfragen“, „Stellenanforderung für Compliance-Job“ oder „Schulungsunterlagen“ auf – alles spannende Beispiele.

Datenschutz und Datensicherheit

Allerdings: 59% der befragten Complianceverantwortlichen haben bisher noch gar keine KI-basierten Tools eingesetzt. Dafür führen sie klare Begründungen an: Mehr als die Hälfte (54,7%) hat Vorbehalte in Bezug auf den Datenschutz und die Datensicherheit. Das ist nachvollziehbar, schließlich werden beispielsweise bei ChatGPT die von Usern eingegebenen Fragen zum Trainieren des Sprachmodells verwendet, wenn diese Funktion nicht ausdrücklich deaktiviert wird. Das ist auch der Grund, weshalb viele Unternehmen nun ihre ­eigene Version von ChatGPT entwickeln – Bosch hat „BoschGPT“ angekündigt, die Drogeriekette dm ein „dmGPT“. So lässt sich das Potential von KI-Technologie mit europäischen ­Datenschutzanforderungen in Einklang bringen.

Die Frage der Ethik

Doch nicht nur Datenschutzaspekte halten Compliance­verantwortliche davon ab, sich mit KI auseinanderzusetzen: 35,2% gaben an, bisher schlicht noch keine Zeit dafür gehabt zu haben. Weitere 18% haben Vorbehalte in Bezug auf ethische Aspekte. Insbesondere zu Beginn stand ChatGPT diesbezüglich auch heftig in der Kritik: Es war nicht schwer, rassistische, antisemitische und andere ethisch fragwürdige Antworten aus dem KI-Modell zu erhalten. Mittlerweile hat OpenAI auch mit Hilfe des Feedbacks der breiten Nutzerbasis nachgesteuert und viele Sicherheitsmechanismen eingebaut, um offensichtlichen Missbrauch des Modells zu unterbinden.

Nichtsdestotrotz: Die „Ethikfrage“ beim Einsatz von künstlicher Intelligenz insbesondere in der Compliancefunktion bleibt hochrelevant. Schließlich geht es nicht nur darum, ­unter welchen ethischen Gesichtspunkten KI-Modelle entwickelt und trainiert wurden und welchen Output sie generieren, sondern vor allem darum, wofür sie eingesetzt werden. Und KI ermöglicht grundsätzlich auch Anwendungsfälle, die ganz und gar nicht mit den typischen ethischen und moralischen Standards in europäischen Unternehmen übereinstimmen: beispielsweise Echtzeitüberwachung von E-Mail- und Videocall-Kommunikation von Mitarbeitern im Hinblick auf sich anbahnende Complianceverstöße. „Minority Report“ lässt grüßen.

Einsatz von KI im Unternehmen: Compliancefunktion ist in der Verantwortung

Nicht zuletzt deshalb waren sich die Teilnehmenden der Umfrage in einem Punkt einig: Für Compliancefachleute wird es wichtig sein, über die neueste KI-Technologie und ihre Auswirkungen auf dem Laufenden zu bleiben. 85,2% stimmten dem zu. Und immerhin 77,8% schließen sich dieser ­Aussage an: Die Compliancefunktion muss dafür sorgen, dass in ­unserer Organisation Leitlinien und Richtlinien für den Einsatz von KI im geschäftlichen Kontext festgelegt und ethische Aspekte berücksichtigt werden.

Keine leichte Aufgabe für Complianceverantwortliche. Schließlich ist es bereits eine Herausforderung, über neue Geschäftsfelder, Innovationen und compliance­relevante Projekte im eigenen Unternehmen auf dem Laufenden zu bleiben, um sicherzustellen, dass rechtliche und ethische ­Aspekte nicht nur im Nachgang bedacht werden. Nun kommt mit künstlicher Intelligenz noch eine weitere Ebene der ­Unvorhersehbarkeit hinzu: Welche externen KI-­Modelle und -Services setzt das eigene Unternehmen bereits ein? ­Welche eigenen KI-Modelle oder KI-gestützten Produkte werden entwickelt? Und dann vor allem: Welche rechtlichen und ethischen Fragestellungen bringen diese mit sich, die Compliance adressieren und moderieren sollte?

Um hierbei den Entwicklungen nicht hinterherzulaufen, sondern aktiv mitgestalten zu können, müssen Compliance­verantwortliche dem technischen Fortschritt offen gegenüberstehen. Das erfordert kein Informatikstudium und ­keinen Abendkurs über neuronale Netze. Aber es erfordert, dass Complianceverantwortliche sich auf dem Laufenden halten, mit den KI-Expertinnen und -Experten im eigenen Unternehmen austauschen und keine signifikanten, compliance­relevanten Entwicklungen verpassen.

Schließlich bedeutet künstliche Intelligenz nicht nur neue Herausforderungen für Complianceverantwortliche, sondern auch ein immenses Potential für die Funktion selbst: Repetitive und administrative Aufgaben können automatisiert, Recherchen beschleunigt, Entscheidungen effizienter vorbereitet werden. Auch dieser Aspekt kam in unserer ­Umfrage auf: Die Teilnehmenden freuen sich auf „Automatisierung“, „Unterstützung“, „Zeitersparnis“, „Erleichterung der tägl­ichen Arbeit“, „mehr Überblick im Compliance­dschungel“ und „neue Perspektiven“.

Auf der einen Seite also neue Herausforderungen, auf der anderen Seite neue Chancen. Fest steht: Der Alltag von Complianceverantwortlichen wird sich durch KI-Technologie ­erheblich verändern, und 68,3% stimmen dem auch zu. Was aber auch klar ist: So intelligent KI-Systeme heute bereits sind und so rasant die Entwicklung voranschreitet, sind wir doch weit davon entfernt, dass Complianceverantwortliche durch Technologie ersetzt werden könnten. So sehen auch nur 10,1% diese Gefahr – 71,9% sind überzeugt, dass es auch in Zukunft den „menschlichen Faktor“ braucht.

Und wo sollte das auch zutreffender sein als bei ­Compliance und Ethik: Am Ende geht es doch um menschliches ­Verhalten. Und KI-Modelle werden zwar auch besser und besser darin, menschliches Verhalten zu analysieren, zu verstehen und nachzubilden, sie sind am Ende aber doch auf Wahrscheinlichkeitsrechnung basierte, mathematische ­Systeme. Deshalb: Künstliche Intelligenz kann ein mächtiges Werkzeug sein, um Complianceverantwortliche effektiver und effizienter zu machen. Ersetzen wird sie sie auf ­absehbare Zeit nicht.

 

[email protected]

Aktuelle Beiträge