KI und Compliance in der Zukunft – Künstliche Intelligenz im Blickwinkel des EU AI Act 2024


Prolog:
„KI könnte die tiefgreifendste Technologie sein, die die Menschheit je entwickelt hat. Tiefgreifender als die Entdeckung des Feuers, der Elektrizität oder irgendetwas, das wir in der Vergangenheit getan haben.”
Sundar Pichai (* 10. Juni 1972 in Madurai, Indien) ist CEO von Google sowie dessen Holding Alphabet Inc.

Die Rolle von KI in der Compliance verstehen
Die Künstliche Intelligenz (KI) hat sich in einer Ära, in der der technologische Fortschritt die Industrien revolutioniert, zu einem wesentlichen Bestandteil der Compliance entwickelt. Die KI ist aufgrund ihrer Fähigkeit, umfangreiche Datenmengen zu analysieren und Muster zu identifizieren, ein unverzichtbares Instrument für Unternehmen, die gesetzliche Regelungen befolgen müssen.

KI in der Einhaltung gesetzlicher Vorschriften
Für jedes Unternehmen ist es äußerst wichtig, dass gesetzliche Vorschriften eingehalten werden und sich auf dem aktuellen Stand befinden. Dies umfasst die strikte Befolgung von Gesetzen, Vorschriften und Spezifikationen, die für geschäftliche Abläufe von Bedeutung sind.

Durch die Automatisierung der Prozesse der Überwachung und Berichterstattung macht KI diese Aufgabe deutlich einfacher. Um neue Anforderungen oder Aktualisierungen zu erkennen und die Einhaltung regulatorischer Anforderungen zu verwalten, kann sie große Mengen regulatorischer Inhalte schnell verarbeiten. KI-Systeme lassen sich so entwickeln, dass sie mit den aktuellen gesetzlichen Veränderungen Schritt halten und Unternehmen dabei unterstützen, die Vorschriften einzuhalten und auf Veränderungen oder Aktualisierungen schnell zu reagieren.

Maschinelles Lernen für Compliance
Maschinelles Lernen, ein Teilbereich der KI, ist dadurch gekennzeichnet, dass es Muster und Anomalien erkennt, die für die Einhaltung von Regeln von entscheidender Bedeutung sind. Um mögliche Compliance-Risiken zu prognostizieren und somit ein proaktives Risikomanagement zu ermöglichen, ist es möglich, zurückliegende und gleichzeitig aktuelle Daten auszuwerten, zu verknüpfen und miteinander in eine Beziehung zu setzen. Auf diese Weise können Algorithmen der KI und des maschinellen Lernens ihre Präzision bei der Identifizierung von Compliance-Problemen stetig erhöhen.

KI-Tools für Compliance-Beauftragte
Compliance-Mitarbeiter können ihre Effizienz durch die Automatisierung von alltäglichen Aufgaben wie der Datenanalyse mithilfe von KI-Tools erhöhen und Zeit für andere Aufgaben im Unternehmen sparen. KI-gesteuerte Analysen ermöglichen Einsichten in Risiken, steigern die Präzision von Berichten und reduzieren die Notwendigkeit von Ressourcen, die so für andere Tätigkeiten im Unternehmen genutzt werden können.

KI und Risikomanagement in der Compliance
KI hat beim Risikomanagement im Umfeld der Compliance eine wesentliche Bedeutung. Sie kann mögliche, potenzielle Compliance-Risiken prognostizieren und Maßnahmen zur Verringerung dieser vorschlagen. KI-Systeme sind in der Lage, Transaktionen in Echtzeit zu überwachen und vor potenziellen Betrugs- oder Compliance-Verstößen zu warnen. Die Echtzeitanalyse unterstützt dabei den Compliance-Beauftragten, Entscheidungen schnell zu treffen, um Compliance-Verstöße zu vermeiden.

Implementierung von KI in Compliance-Prozesse
Die Einbindung von Künstlicher Intelligenz (KI) in Compliance-Prozesse führt zu einer grundlegenden Veränderung der Herangehensweise von Unternehmen an die Einhaltung von Regeln. Die fortgeschrittenen KI-Algorithmen und Datenverarbeitungsfunktionen eröffnen unvorstellbare Chancen, um Compliance-Aufgaben zu optimieren und zu vereinfachen.

KI-Anwendungsfälle bei Compliance-Aktivitäten
Die Anwendungsmöglichkeiten von KI sind vielfältig. Sie kann zur Vorhersage potenzieller Compliance-Risiken verwendet werden, die auf historischen Daten beruhen. KI trägt auch zur Dokumentenanalyse bei, indem sie ausführliche rechtliche und regulatorische Unterlagen rasch durchsucht und auslegt, um sicherzustellen, dass Vorschriften eingehalten werden.
Außerdem ist es möglich, dass KI-gesteuerte Chatbots interaktive und maßgeschneiderte Lernerfahrungen zur Unterstützung von Compliance-Trainings für Mitarbeiter im Unternehmen bereitstellen.

Nutzung von KI zur Einhaltung von AML-Vorschriften
Die Befolgung der Anti-Geldwäsche-Vorschriften (AML) ist für Finanzinstitute, aber auch für andere Unternehmen aus unterschiedlichen Branchen, von großer Bedeutung. KI leistet einen bedeutenden Beitrag zu den Bestrebungen der AML, da sie moderne Instrumente zur Überwachung von Transaktionen, zur Identifizierung verdächtiger Aktivitäten, zur Verringerung von Fehlalarmen und zur Durchführung von Sorgfaltsprüfungen zur Verfügung stellt.
KI-Systeme sind in der Lage, Muster und Trends in Finanztransaktionen zu untersuchen, um mögliche Geldwäscheaktivitäten zu identifizieren. Dadurch können sie dazu beitragen, Finanzkriminalität frühzeitig aufzudecken und zu verhindern.

Wann tritt der EU AI Act in Kraft?
Die EU-Staaten haben den EU AI Act am 13.06.2024 verabschiedet und die Verordnung ist seit dem 01.08.2024 in Kraft. Grundsätzlich findet sie erst nach einer Übergangszeit von 24 Monaten – voraussichtlich August 2026 – Anwendung. Die KI-Verordnung verfolgt einen risikobasierten Ansatz, der KI-Systeme ausgehend von ihrem Risiko für die Sicherheit, Gesundheit und Grundrechte von Menschen bewertet. Die Verordnung differenziert im Grundsatz zwischen vier Risikostufen, an die unterschiedlich intensive Compliance-Anforderungen gestellt werden.

Die vier Risikostufen des EU AI Act

Grafik: WIRTSCHAFTScampus

Beispiel für Unannehmbares Risiko:
Echtzeit Fernidentifizierung durch KI (weitere Beispiele folgen)
Beispiel für Hohes Risiko:
Prüfung der Kreditwürdigkeit durch KI (weitere Beispiele folgen)
Beispiel für Begrenztes Risiko:
Chatbots, KI-generierte Videos
Beispiel für Minimales Risiko:
Spamfilter, KI in Videospielen

Der nachfolgende Text und die Erklärungen beziehen sich auf die Veröffentlichung „KI-Gesetz: erste Regulierung der künstlichen Intelligenz“ des Europäischen Parlamentes aus 2023/2024. Die ausführliche Quellenangabe folgt am Schluss.

Was das Parlament von der KI-Gesetzgebung erwartet
Das Europäische Parlament will vor allem sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern. Das Parlament möchte außerdem eine technologieneutrale, einheitliche Definition für KI festlegen, die auf zukünftige KI-Systeme angewendet werden könnte.

Gesetz über künstliche Intelligenz: ein risikobasierter Ansatz
Die neuen Vorschriften legen Verpflichtungen für Anbieter und Nutzer fest, die sich nach dem Risiko, das von dem KI-System ausgeht, richten. Obwohl viele KI-Systeme ein minimales Risiko darstellen, müssen sie bewertet werden.

Unannehmbares Risiko
KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme werden verboten. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;
  • Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrische Identifizierung und Kategorisierung natürlicher Personen;
  • biometrische Echtzeit-Fernidentifizierungssysteme, zum Beispiel Gesichtserkennung.

Einige Ausnahmen können für Strafverfolgungszwecke zugelassen werden. Biometrische Echtzeit-Fernidentifizierungssysteme werden in einer begrenzten Anzahl schwerwiegender Fälle zulässig sein. Systeme zur nachträglichen biometrischen Fernidentifizierung, bei denen die Identifizierung erst mit erheblicher Verzögerung erfolgt, können zur Verfolgung schwerer Straftaten und nur nach gerichtlicher Genehmigung zulässig sein.

Hochrisiko-KI-Systeme
KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.
1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.
2. KI-Systeme, die in spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:

  • Verwaltung und Betrieb von kritischen Infrastrukturen;
  • allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Verwaltung von Migration, Asyl und Grenzkontrollen;
  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.

Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet. Die Bürger werden das Recht haben, bei den zuständigen nationalen Behörden Beschwerden über KI-Systeme einzureichen.

Transparenzanforderungen
Generative Foundation-Modelle wie ChatGPT werden nicht als risikoreich eingestuft, müssen aber Transparenzanforderungen und das EU-Urheberrecht erfüllen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;
  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.

KI-Systeme mit allgemeinem Verwendungszweck und beträchtlichen Auswirkungen, die ein Systemrisiko darstellen könnten, wie das fortgeschrittene KI-Modell GPT-4, müssten gründlich bewertet werden und alle schwerwiegenden Vorfälle wären der Kommission zu melden.
Inhalte, die mit Hilfe von KI erzeugt oder verändert wurden – Bilder, Audio- oder Videodateien (z. B. Deepfakes) –, müssen eindeutig als KI-generiert gekennzeichnet werden, damit die Nutzer wissen, wenn sie auf solche Inhalte stoßen.

Nächste Schritte
Das Parlament verabschiedete das Gesetz über künstliche Intelligenz im März 2024 und der Rat erteilte seine Zustimmung im Mai 2024. Das Gesetz wird 24 Monate nach seinem Inkrafttreten in vollem Umfang anwendbar sein. Einige Teile werden jedoch schon früher anwendbar sein:

  • das Verbot von KI-Systemen, die unannehmbare Risiken darstellen, wird sechs Monate nach Inkrafttreten gelten;
  • die Verhaltenskodizes werden neun Monate nach Inkrafttreten gelten;
  • Vorschriften für KI-Systeme mit allgemeinem Verwendungszweck, die den Transparenzanforderungen genügen müssen, gelten zwölf Monate nach Inkrafttreten.

Systeme mit hohem Risiko werden mehr Zeit haben, um die Anforderungen zu erfüllen; die sie betreffenden Verpflichtungen werden 36 Monate nach dem Inkrafttreten gelten.

„© Europäische Union, 2024 – Quelle: Europäisches Parlament“ – KI-Gesetz: erste Regulierung der künstlichen Intelligenz – Veröffentlichung des Europäischen Parlamentes / 19.06.2024

Die Bedeutung und Schwierigkeit der Rolle der Künstlichen Intelligenz (KI) bei der Einhaltung von Vorschriften nimmt mit der Entwicklung von Unternehmen und dem regulatorischen Umfeld zu. Eine stärker integrierte, intelligente und proaktive Herangehensweise wird in der Zukunft der KI in der Compliance deutlich.

Prädiktives Compliance-Management
Es ist unwahrscheinlich, dass die Zukunft der KI in der Compliance von ihren Fähigkeiten zur Vorhersage bestimmt wird. Nicht nur, dass KI-Systeme vorhandene Compliance-Probleme identifizieren, sondern auch künftige Gefahren prognostizieren. Unternehmen können durch diese Umstellung von einem reaktiven auf ein proaktives Compliance-Management vor rechtlichen und finanziellen Schwierigkeiten geschützt werden.

Compliance-Überwachung in Echtzeit
Mit dem Fortschritt der KI wird es immer wichtiger, die Einhaltung von Vorschriften in Echtzeit zu überwachen. Um sicherzustellen, dass gesetzliche Vorschriften eingehalten werden, werden KI-Systeme fortlaufend Transaktionen, Kommunikation und andere Geschäftsaktivitäten analysieren. Diese Echtzeitanalyse erlaubt eine unmittelbare Reaktion auf mögliche Verstöße gegen die Compliance.

Personalisierte Compliance-Lösungen
Von KI wird erwartet, dass sie maßgeschneiderte Compliance-Lösungen bereitstellt, die den individuellen Anforderungen jedes Unternehmens entsprechen. Das individuelle Risikoprofil und die Compliance-Historie eines Unternehmens werden von der KI analysiert, um individuelle Empfehlungen und Strategien für das Compliance-Management zu entwickeln.

Verbesserte regulatorische Intelligenz
Durch die automatische Sammlung und Verarbeitung von regulatorischen Informationen aus verschiedenen Quellen wird KI eine wichtige Funktion in der regulatorischen Intelligenz übernehmen. Dazu zählt es, die gegenwärtigen Regeln zu verstehen, künftige Trends und Veränderungen in den Regeln vorherzusagen und Unternehmen im Voraus vorzubereiten.

Umgang mit ethischen und datenschutzrechtlichen Bedenken
Eine Priorität wird es sein, ethische und datenschutzrechtliche Bedenken zu berücksichtigen, da KI immer mehr in die Compliance integriert wird. Um sicherzustellen, dass KI in der Compliance ethisch angewendet werden kann, müssen zukünftige Entwicklungen darauf abzielen, KI-Systeme zu entwickeln, die transparent, fair und datenschutzkonform sind.

Die Rolle der Compliance-Fachleute entwickelt sich weiter
Gerade auch im Hinblick auf die kommenden Anforderungen durch den EU AI Act ist die Weiterbildung im Bereich Compliance sowohl für den Chief Compliance Officer, den Compliance Officer aber auch für alle Mitarbeiter im Segment Compliance unausweichlich und dringend erforderlich. Sie werden nicht ersetzt, sondern kooperieren mit KI, wobei ihr Fokus auf den Bereichen Compliance-Strategie, Interpretation und Entscheidungsfindung liegt. KI wird die Kompetenzen des Compliance-Beauftragten und Compliance-Spezialisten ausbauen und nicht ihre Bedeutung verringern. Hier stehen die Compliance-Weiterbildung und Spezialisierung an erster Stelle.

Compliance-Weiterbildung: Jetzt starten!
Der WIRTSCHAFTScampus unterstützt Sie beim Erwerb der notwendigen Fachkunde in Compliance und Betreuung von Meldesystemen mit seinen Weiterbildungsangeboten:
Certified Compliance Officer
Certified Chief Compliance Officer
Compliance-Spezialisierungen:
Certified ESG Compliance Officer
Certified Export Compliance Officer
Certified Tax Compliance Officer
Certified IT Compliance Officer

Ausblick
In einem zweiten Teil dieses Blogbeitrags werden wir intensiver und detaillierter auf den EU AI Act im Hinblick auf Compliance- Fragen und neue Anforderungen eingehen.

KI und Compliance – Künstliche Intelligenz und der Compliance Officer


Prolog:
„KI wird die Welt mehr verändern als das Internet.“
Yann LeCun (* 8. Juli 1960), Professor an der New York University und Direktor für KI-Forschung bei Facebook.

Wie künstliche Intelligenz in der Compliance eingesetzt werden kann
Künstliche Intelligenz (KI) verändert verschiedene Industriezweige grundlegend und wird damit selbstverständlich auch Auswirkungen auf den Bereich Compliance mit sich bringen. In diesem Blogbeitrag werden die Vorzüge von KI für Compliance-Beauftragte im Hinblick auf die Einhaltung von Vorschriften, die Einhaltung von Anti-Geldwäsche-Richtlinien (AML), die Folgen für Compliance-Programme sowie die damit verbundenen Herausforderungen und Möglichkeiten für die Branche behandelt.

Der Einfluss von KI auf Compliance-Programme
KI trägt zur Weiterentwicklung von Compliance-Programmen bei, indem sie den Compliance-Beauftragten nützliche Erkenntnisse und umsetzbare Lösungen bereitstellt. Ihr Gebrauch erlaubt es, Compliance-Prozesse zu automatisieren und hilft bei der Entscheidungsfindung sowie bei der Einhaltung von Regeln mit höherer Genauigkeit und Geschwindigkeit.

Die Verwendung von KI in der Compliance hat zwar zahlreiche Vorzüge, bringt aber auch spezielle Schwierigkeiten mit sich. Unternehmen müssen diesen zweifachen Aspekt berücksichtigen, wenn sie KI in ihre Compliance-Strategien einbeziehen. Nachfolgend werden die Vorzüge und Schwierigkeiten der Anwendung von KI in Compliance-Prozessen kurz dargestellt.

  1. Die Verarbeitung und Analyse von Regulierungsdaten, die eine wesentliche Komponente von Compliance-Aufgaben darstellen, werden durch KI deutlich effizienter und genauer. Eine präzisere Berichterstattung und Entscheidungsfindung werden durch die rasche Verarbeitung und die Fähigkeit der KI, menschliche Fehler zu reduzieren, ermöglicht.
  2. Durch die vorhersehbaren Analysefähigkeiten von KI ist es Unternehmen möglich, mögliche Compliance-Risiken vor dem Eintreten zu identifizieren. Die Auswertung von Datentrends und -mustern ermöglicht es der KI, Problembereiche zu erkennen und somit ein proaktives Risikomanagement anstelle eines reaktiven zu betreiben.
  3. Kosteneinsparung: Mit der Zeit kann KI erhebliche Einsparungen bei Compliance-Aufgaben im Unternehmen bewirken. Die Automatisierung von alltäglichen Aufgaben, die Reduzierung des Bedarfs an manueller Überwachung und die Steigerung der Präzision ermöglichen es Unternehmen, die Betriebskosten im Zusammenhang mit der Einhaltung von Vorschriften zu reduzieren.
  4. Die Fähigkeit zur Anpassung an regulatorische Veränderungen: KI-Systeme lassen sich an Compliance-Vorschriften und -Standards anpassen. Diese Fähigkeit zur Anpassung gewährleistet, dass Unternehmen sich rasch auf Veränderungen in den Regeln einstellen können und dass die Einhaltung der Regeln jederzeit garantiert ist.
  5. Durch die umfassende Datenanalyse von KI ist es Compliance-Beauftragten möglich, gesicherte und (schnell) geprüfte Entscheidungen zu fällen. Compliance-Strategien werden durch KI verbessert, da sie tiefe Einblicke ermöglicht, die bei manueller Analyse möglicherweise nicht sichtbar sind.

  1. Die Integration von KI in bereits bestehende Compliance-Regelwerke kann aufgrund ihrer Komplexität eine Herausforderung darstellen. Die Anwendung von KI in bestimmten Compliance-Situationen bzw. Strukturen im Unternehmen erfordert technisches Fachwissen, erhebliche Anfangsinvestitionen und ein Verständnis im Segment der IT. Hier kann zum Beispiel ein spezieller IT Compliance Officer mehr als hilfreich sein.
  2. Datenschutz- und Sicherheitsbedenken: Aufgrund der großen Menge an Daten, die KI-Systeme benötigen, können Bedenken und Probleme bezüglich des Datenschutzes entstehen. Ein Problem hier ist dafür zu sorgen, dass die Datenschutzbestimmungen von der KI selbst eingehalten werden.
  3. Abhängigkeit und exzessives Vertrauen: Bei Compliance-Entscheidungen kann es vorkommen, dass man sich zu stark auf KI stützt. Um sicherzustellen, dass die KI nicht das menschliche Urteilsvermögen ersetzt, ist es entscheidend, eine Balance zwischen automatisierten und menschlichen Entscheidungen zu bewahren. Die KI kann und wird den menschlichen Compliance Officer nicht ersetzen!
  4. Regulatorische Unsicherheit: KI in der Compliance stellt einen vergleichsweisen neuen Bereich dar, und die gesetzlichen Rahmenbedingungen für die Funktion der KI in der Compliance stehen noch aus. Für Unternehmen kann es schwierig sein, sich in dieser unsicheren Gesetzeslandschaft zurechtzufinden.
  5. Ethische Überlegungen: KI muss in der Lage sein, bei der Einhaltung von ethischen Standards oder beim Auftreten von ethischem Fehlverhalten zu reagieren, vor allem bei Entscheidungen, die sich auf Kunden oder Mitarbeiter auswirken können. Es ist notwendig, dafür zu sorgen, dass KI-Systeme gerecht, transparent und diskriminierungsfrei sind.

All dies zeigt deutlich, dass jetzt und in den nächsten Jahren die KI ein gewichtiger Faktor im Segment der Compliance sein kann und an Wichtigkeit gewinnen wird. Den menschlichen Compliance Officer oder den Compliance-Spezialisten, wie zum Beispiel den ESG- oder Tax Compliance Officer, wird die KI aber mit Sicherheit nicht ersetzen können.

Die Rolle der Compliance-Fachleute entwickelt sich weiter
Mit der Entwicklung der KI wird die Funktion der Compliance-Experten weiterentwickelt. Sie werden nicht ersetzt, sondern kooperieren mit KI, wobei ihr Fokus auf den Bereichen Compliance-Strategie, Interpretation und Entscheidungsfindung liegt. KI wird die Kompetenzen des Compliance-Beauftragten und Compliance-Spezialisten ausbauen und nicht ihre Bedeutung verringern. Hier stehen die Compliance-Weiterbildung und Spezialisierung an erster Stelle.

Compliance-Weiterbildung: Jetzt starten!
Der WIRTSCHAFTScampus unterstützt Sie beim Erwerb der notwendigen Fachkunde in Compliance und Betreuung von Meldesystemen mit seinen Weiterbildungsangeboten:

Compliance-Spezialisierungen:

Epilog
„KI kann für den Menschen gefährlich werden, aber es hängt davon ab, wie sie eingesetzt wird. ChatGPT ist nur der Anfang der Entwicklung von immer leistungsfähigeren KI-Systemen.“
ChatGPT über sich selbst!

ChatGPT; von englisch to chat „plaudern, sich unterhalten“; Generative Pre-trained Transformer ist ein im November 2022 vorgestellter Chatbot des US-amerikanischen Unternehmens OpenAI, der in der Lage ist, mit Nutzern über textbasierte Nachrichten und Bilder zu kommunizieren.

Compliance Officer und KI: Heute – Morgen – Übermorgen

Prolog

1956: Die Geschichte beginnt: Der Begriff „KI“ entsteht.

Im Sommer 1956 treffen sich Wissenschaftler zu einer Konferenz am Dartmouth College im US-Bundesstaat New Hampshire. Sie sind der Ansicht, dass Aspekte des Lernens sowie andere Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. Der Programmierer John McCarthy schlägt dafür den Begriff „Künstliche Intelligenz“ vor.

 

Eine aktuelle Compliance-Studie aus dem Jahr 2023 zeigt: Nein, die künstliche KI wird den menschlichen Compliance Officer nicht ersetzen können, aber die Arbeitsaufgaben im Bereich Compliance in den nächsten Jahren deutlich beeinflussen. In diesem Beitrag finden Sie die aktuellen Ergebnisse dieser Befragung, doch zu Beginn ein kurzer Einstieg in die Thematik der künstlichen Intelligenz (KI).

 

KI: Eine kurze Definition

Künstliche Intelligenz (KI) ist die Intelligenz von Maschinen oder Software, im Gegensatz zur Intelligenz von Menschen. Sie ist auch das Fachgebiet der Informatik, das sich mit der Entwicklung und Erforschung intelligenter Maschinen befasst. Der Begriff „KI“ kann sich auch auf die Maschinen, zum Beispiel auf einen Roboter oder Androiden, selbst beziehen.

 

Die KI-Technologie hat sich in der Industrie, in der Regierung und in der Wissenschaft in den letzten Jahren sehr weit verbreitet. Einige bekannte Anwendungen sind u.a.:

  • Internet-Suchmaschinen (Google / Bing)
  • Empfehlungssysteme (verwendet von YouTube, Amazon und Netflix)
  • das Verstehen / Übersetzung menschlicher Sprache (Siri / Alexa)
  • selbstfahrende Autos (Waymo von Google / Cruise von General Motors)
  • generative oder kreative Werkzeuge (ChatGPT / KI-Kunst)
  • strategische Spiele (Schach / Go).

Allgemeine Intelligenz, das heißt, die Fähigkeit, ein beliebiges Problem oder eine Aufgabenstellung zu lösen, gehört zu den primären Zielen der künstlichen Intelligenz.

 

KI und Compliance im Unternehmen

In jedem Unternehmen, gleich welcher Branche und Größe, wird die Menge der Daten, die täglich verarbeitet werden müssen, immer größer. Was früher Tage und bis zu Wochen und Monate dauern konnte, erledigt heute die KI in Sekunden.

Das entlastet Mitarbeiter, beschleunigt und optimiert interne Prozesse und spart Zeit bei Entscheidungsfindungen oder der Einschätzung von Risiken. Selbstverständlich beinhaltet dies auch die Aufgaben der Compliance-Abteilung im Unternehmen und kann nachhaltig den Compliance Officer in seiner Arbeit und bei seinen Aufgaben entlasten.

 

Wo kann KI der Compliance helfen?

Bereits jetzt können KI-Instrumentarien und spezielle Softwaretools in den nachfolgenden Beispielen eingesetzt werden:

  • Hinweise auf Compliance-Unregelmäßigkeiten und Verstöße im Unternehmen, zum Beispiel bei Betrugsverstößen oder Geldwäsche
  • Datensammlung und Datenverarbeitung zur Optimierung des Risikomanagementsystem (RMS) und der Compliance-Risiko-Analyse durch Sammlung und Analyse von internen und externen Datenquellen
  • Deutliche Zeitminimierung für den Compliance Officer bei der Durchsicht von Texten wie juristischen Dokumenten und Gesetzestexten, Compliance-Vorschriften, nationalen und internationalen Standards und Vorschriften
  • Erreichbarkeit und Kommunikation für Mitarbeiter bei Rückfragen im Compliance-Umfeld durch die Nutzung von Chatbots wie zum Beispiel ChatGPT (OpenAI) oder LaMDA – Language Model for Dialogue Applications (Google LLC).

 

KI und Compliance: Aktuelle Studie aus 2023

Wie sehen heute die Compliance-Mitarbeiter die momentane und zukünftige Situation von Compliance-Beauftragten im Hinblick auf KI? Nachfolgend hierzu ein Überblick und die Key Findings einer aktuellen Studie (Mai / Juni 2023) der EQS Group AG, bei der über 200 Mitarbeiter aus dem Compliance-Bereich in Deutschland, Österreich und Luxemburg befragt wurden.

Welche Auswirkungen sind dies bereits heute in der Compliance?

  • Generelle Auseinandersetzung mit der Thematik aus Compliance-Sicht
  • Richtlinie über den verantwortungsvollen Umgang mit KI-Tools
  • Restriktionen bzgl. der Weitergabe von Daten
  • Informationsveranstaltungen
  • Prüfung auf Datenschutz und Informationssicherheit
  • Awareness-Schulung für Mitarbeitende
  • Rechtliche Beurteilung des Spannungsfelds „Vorteile vom Einsatz von KI vs. DSGVO und Geschäftsgeheimnisgesetz“
  • Hinterfragen der Datenverarbeitung
  • Interne Hinweise auf Beachtung der Vertraulichkeit von bestimmten Informationen
  • Erstellung von KI-Ethikregeln
  • Risikoanalyse

Wofür wurden KI-Tools eingesetzt?

74,2% für Kommunikation

40,4% für Allgemeine Recherche

7,9% für Screening Prozesse

 

Warum wurden KI-Tools nicht eingesetzt?

54,7% wegen Vorbehalten beim Datenschutz / Datensicherheit

35,2% aus zeitlichen Gründen („Keine Zeit“)

18,0% wegen ethischer Vorbehalte

14,1% da kein erkennbarer Nutzen erkennbar ist

28,2% aus anderen Gründen („Ich weiß nicht“)

Hier zeigt sich, dass Compliance und KI in der Zukunft ein sehr gravierendes Thema für Compliance Officer sein wird. Für 85% der Compliance Officer ist es wichtig, sich über die Technologie und die Auswirkungen von KI auf die Compliance jetzt und in der Zukunft auf dem Laufenden zu halten.

Es müssen in der nahen Zukunft zwingend Regularien im Compliance-Bereich erarbeitet und in das bestehende Regelwerk eingearbeitet werden. Ausdrücklich gilt dies nicht nur für den organisatorischen Bereich, zum Beispiel für Mitarbeiter oder Lieferanten sowie die Kundenstruktur, sondern knapp 80% der Compliance-Beauftragten sehen diese auch zwingend für den ethischen Aspekt im unternehmerischen Umfeld.

Nein, die KI wird kein Ersatz für die berufliche Zukunft des Compliance Officers!

 

Zwar stimmen knapp 70% der befragten Compliance-Fachkräfte der Einschätzung zu, dass die KI den täglichen Arbeitsprozess im Unternehmen erheblich beeinflussen und verändern wird, doch die Gefahr des kompletten Ersatzes für den Menschen durch die KI sehen die Compliance-Fachkräfte nicht.

 

Daher ist das Berufsbild des Chief Compliance Officers gesucht und die Bedeutung und Ausbildung im Compliance-Bereich wird in den nächsten Jahren noch deutlicher ansteigen als bisher – in allen Unternehmen, gleich welcher Größe und aus welcher Branche, wächst der Bedarf an ausgebildeten Fachkräften für diesen Bereich.

 

Informationen zu unseren Compliance-Ausbildungen finden Sie hier:

Certified Compliance Officer

Certified Chief Compliance Officer

Compliance-Spezialisierungen

Certified ESG Compliance Officer

Certified Export Compliance Officer

Certified Tax Compliance Officer

Certified IT Compliance Officer

 

Rückblick:

Das Thema KI und Unternehmen im Zusammenhang mit Compliance finden sie ausführlich auch in diesen älteren Blogbeiträgen, die aber an Aktualität nichts verloren haben:

Compliance und Konzerne

https://www.wirtschaftscampus.de/compliance-focus/2018/02/

Compliance und Ethik-Leitlinien

https://www.wirtschaftscampus.de/compliance-focus/2019/07/

 

Epilog:

„Nachdem wir das Feuer erfunden hatten, haben wir uns ein paar Mal dumm angestellt und dann den Feuerlöscher erfunden. Bei mächtigeren Technologien wie hoch entwickelter KI sollten wir uns vorher Gedanken machen und große Mühe geben, gleich alles richtig zu machen. Denn womöglich haben wir nur diese eine Chance.“

Stephen Hawking (* 8. Januar 1942 in Oxford, England; † 14. März 2018) – britischer theoretischer Physiker und Astrophysiker

Compliance und Ethik-Leitlinien

Prolog:

Es war einmal ein Mädchen, dem wurde eindeutig eine rote Kappe zugeordnet, wodurch es als Rotkäppchen definiert wurde. „Kind“, argumentierte die Mutter, „werde kreativ, mathematisiere die kürzeste Verbindung zur Großmutter, analysiere aber nicht die Blumen am Wege, sondern formuliere deinen Weg in systematischer Ordnung.“
Friedrich Wille (* 5. Januar 1935; † 9. August 1992), deutscher Mathematiker und Professor an der Universität Kassel.

Die ethischen KI-Leitlinien der europäischen Union (EU)

Bereits im Oktober 2018 haben wir hier in unserem Blog mit dem Beitrag Compliance und Maschinenwesen (RPA) ausführlich über die neuen Möglichkeiten und Gefahren von Robotern und künstlicher Intelligenz (KI) berichtet.

Aus aktuellem Grund möchten wir diesen Beitrag ergänzen, da die europäische Union (EU) ein 52-köpfiges internationales Expertenteam beauftragt hat, zum ersten Mal ethische Leitlinien im Hinblick auf KI und Compliance zu erstellen. Am 8. April 2019 wurden nun diese Leitlinien durch die EU veröffentlicht. Zu den Grundinhalten dieser ethischen Leitlinien gehören:

  • Vorrang menschlichen Handelns und menschlicher Aufsicht
  • Robustheit und Sicherheit
  • Privatsphäre und Datenqualitätsmanagement
  • Transparenz
  • Vielfalt, Nichtdiskriminierung und Fairness
  • gesellschaftliches und ökologisches Wohlergehen
  • Rechenschaftspflicht

Bevor wir nun hier in unserem Compliance Blog diese Leitlinien veröffentlichen, ein kurzer Einstieg in die Thematik. Ausführlich wird das Thema etwas weiter unten in unserem Blog-Beitrag beschrieben.

Künstliche Intelligenz (KI) – Ein alter Hut

Ist Künstliche Intelligenz eine innovative und neue Thematik unserer Zeit? Sicher nicht! Der Begriff selbst wurde bereits im Jahr 1955 erstmals von John McCarthy erwähnt und definiert. Für McCarthy bestand das Ziel von KI darin, „Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz.“ Einige Jahre später erfand der Wissenschaftler den legendären LISP-Computer, der Programme schrieb, die sich selbst verändern konnten. Bereits hier zeigt sich eine der grundlegenden und typischen Eigenschaften von KI-Algorithmen.

Die Programmiersprache LISP (englisch List Processing / deutsch Listen-Verarbeitung) gilt nach Fortran (IBM / 1953) als zweitälteste Programmiersprache der Welt, die bis heute noch verbreitet und genutzt wird.

Was bedeutet KI?

Die Künstliche Intelligenz (KI) bietet schon jetzt Unternehmen aus vielen Branchen extrem hohe Möglichkeiten und Chancen. Nimmt man als Ansatz die Wechselwirkung zwischen dem unternehmerischen Risiko und den gesetzten Zielen, sieht man schnell, welchen Beitrag Künstliche Intelligenz für Compliance, Governance and Risk Aktivitäten für das Unternehmen erzielen kann.

Laut einer aktuellen Studie aus dem Jahr 2019 sehen 500 Unternehmen in Deutschland den Einsatz von KI in den Segmenten:

  • Datenanalyse für Entscheidungsprozesse (70%)
  • Prozessautomatisierung bestehender Geschäftsprozesse (63%)
  • Chatbots (47%)
  • wesentlicher Bestandteil neuer digitaler Geschäftsmodelle (44%)
  • Speech Processing (42%)
  • Bestandteil von Produkten und Dienstleistungen (39%)

Betrachtet man nur die beiden erst genannten Einsatzmöglichkeiten von KI, welche für ein Unternehmen bereits jetzt oder in der nahen Zukunft an Wichtigkeit gewinnen werden, so erkennt man schnell, wie sehr sich die KI in das Aufgabenumfeld eines Compliance Officers integrieren wird. Kontrolliert momentan der Mensch noch die Daten für Entscheidungen oder ist ein Mensch maßgeblich in die laufenden Geschäfts- und Entscheidungsprozesse eingebunden und verantwortlich, so wird in der Zukunft die KI immer mehr in diese internen Abläufe eingreifen. Genau hier definieren sich neue Risiken im Unternehmen und neue Aufgabenbereiche der Compliance.

Neue Aufgabenbereiche und Risiken

Darüber hinaus verändert der Einsatz von KI und Robotern in der Produktion oder Chatbots im Unternehmen auch die Risikoszenarien. Der Arbeitsschutz und die Arbeitszeiten spielen bei einem KI-gestützten Roboter natürlich keine Rolle, auch die Frage der Korruption stellt sich bei einem KI-gestützten Algorithmus nicht. Der Umkehrschluss ist, dass sich demzufolge neue Fragen und Aufgabenbereiche zu Compliance, Governance and Risk Aktivitäten im Unternehmen der Zukunft stellen:

  • Ist die Software oder der Roboter extern manipulierbar?
  • Sind die Quellcodes nicht einsehbar und geschützt?
  • Wie schützt man sich gegen Hackerangriffe?
  • Sind die Veränderungen durch KI nachvollziehbar und transparent?
  • Wie kommuniziert das Unternehmen den Einsatz von KI?
  • Entspricht das gewünschte Ergebnis immer den rational optimierten Anwendungen von internen oder externen Ressourcen?
  • Was macht die Compliance-Abteilung, wenn Software falsch programmiert ist, also das Ergebnis oder die Handlung (Output) nicht dem geplanten, gewollten oder gewünschten Ergebnis entspricht?

Momentan bestehen die Aufgaben eines Compliance Officers in der Kontrolle und Analyse menschlichen Handelns zur Vermeidung von Risiken oder in der Aufdeckung und Abwehr von Gefahren, die intern oder extern das Unternehmen bedrohen. Ein logischer und unabdingbarer Schritt, zum Beispiel mit der Ausbildung und Integration eines IT-Compliance Officers, wird es sein, diesen Gefahren und Risiken in der Zukunft entgegen zu treten. Gleiches gilt selbstverständlich auch bei der Entwicklung neuer Produkte oder Unternehmensschwerpunkte. Hier müssen bereits bei der frühen Planung neue Risiko-Szenarien, ausdrücklich auch im Bereich der Compliance, in Verbindung mit den Möglichkeiten durch KI, mit einfließen und signifikant beachtet werden.

Was genau ist aber nun KI eigentlich?

Der Begriff der Künstlichen Intelligenz wird definiert als die Wissenschaft und Entwicklung intelligenter Maschinen und Computerprogramme zur Umsetzung unternehmerischer Anforderungen und Ziele. Explizit geht es um die Entwicklung und Realisation eines Computergehirns, welches wie ein Mensch denkt und agiert bzw. um Maschinen und Roboter, die nicht nur Handlungen, sondern im weiteren auch Entscheidungen übernehmen werden.

Intelligenz: Ich lerne, Du lernst, Wir lernen

Es steht außer Frage: KI ist bereits jetzt, obwohl in vielen Branchen noch im Anfangsstadium, nicht nur einer der wichtigsten technologischen Fortschritte unserer Zeit, sondern wird unausweichlich wegweisend für einen Großteil der gesamten Geschäftswelt in den kommenden Jahren sein. Ob nun im geschäftlichen oder privaten Bereich, wird man sich dieser Technologie nicht entziehen können.

Alles dies setzt eines zwingend voraus: Intelligenz.

Der Begriff Intelligenz leitet sich vom dem lateinischen Wort »intellegere« ab, was so viel wie »verstehen, erkennen, einsehen« bedeutet und damit bereits anhand dieser Übersetzung auf eine schnelle Auffassungsgabe in gleichermaßen vertrauten und ungewohnten Situationen verweist. Vereinfachend wird Intelligenz definiert als die Fähigkeit des Geistes, Zusammenhänge zu erkennen und Probleme zu lösen. Doch eine einzige, allgemeingültige Definition gibt es nicht.

Nach dem heute gängigen Drei-Schichten-Modell aus dem Jahr 1993 von John Bissell „Jack“ Carroll, einem US-amerikanischen pädagogischen Psychologen, Psycholinguisten und Intelligenzforscher, dürfen wir uns die menschliche Intelligenz wie ein Unternehmen im Gehirn vorstellen, in der es einen Vorstand (Generalfaktor), mehrere Abteilungen (Sekundärfaktoren) und bis zu 70 Arbeitsgruppen (Einzelfaktoren) gibt. Mit der Künstlichen Intelligenz setzt sich dieses Drei Schichten Modell fort, natürlich mit anderen – aber doch dem der menschlichen Intelligenz zumindest vergleichbaren – Faktoren.

Die Evolution der Künstlichen Intelligenz ist vergleichbar zu einem Schirm. Maschinelles Lernen und Deep Learning sind beide unter dem Schirm der Künstlichen Intelligenz angesiedelt und zwar genau in dieser Reihenfolge. Ohne Künstliche Intelligenz gäbe es kein Maschinelles Lernen. Und Deep Learning hat seinen Ursprung im Maschinellen Lernen. Trotzdem wäre es durchaus logisch, den Schirm einfach umzudrehen. Denn für Deep Learning sind nach oben keine Grenzen gesetzt.

Der Unterschied zwischen den drei Arten von Künstlicher Intelligenz und Lernen lässt sich einfach verstehen, wenn man diese mit vertrauten Prozessen des Trainings und der Ausbildung vergleicht.

  • Künstliche Intelligenz ähnelt dem Vorgang, einem Auszubildenden genau die Information zu vermitteln, die er lernen soll.
  • Maschinelle Intelligenz / Maschinelles Lernen ist vergleichbar mit einem Auszubildenden, dem man ein Buch in die Hand drückt, sodass er sich den Lernstoff selbst erarbeitet.
  • Deep Learning entspricht dem des Maschinellen Lernens. Der Unterschied ist aber, dass der Auszubildende in der Lage ist, aus seinen Fehlern zu lernen und sich kontinuierlich zu verbessern.

Im Fall von Künstlicher Intelligenz, Maschinellem Lernen und Deep Learning sind die Auszubildenden Maschinen und die Lehrbücher Daten. Bei der Künstlichen Intelligenz wird die Maschine mit einem endlosen Strom an Daten gefüttert. Beim Maschinellen Lernen und bei Deep Learning hingegen nutzt die Maschine externe Quellen wie das Internet oder Sensoren.

Stellt man die menschliche Intelligenz der Künstlichen Intelligenz gegenüber, wird ein grundlegender Aspekt schnell deutlich: War es schon immer fast unmöglich, menschliche Intelligenz klar und eindeutig zu definieren, so wird es spannend sein, ob dies jemals auch mit Künstlicher Intelligenz möglich sein wird. Fragt man heute 10 Forscher nach einer klaren Definition der menschlichen Intelligenz so erhält man im Zweifelsfall 10 unterschiedliche Definitionen. Wie will man dann, jetzt oder in 10 Jahren, Künstliche Intelligenz eindeutig definieren und wird es erforderlich sein, dann wieder neue (oder alt hergebrachte) Definitionen der menschlichen Intelligenz zu erforschen oder zu überdenken?

Die praxisbezogene Anwendung und der Einsatz von Künstlicher Intelligenz ist nun schon lange nicht mehr ein theoretischer Ausblick in die Zukunft, sondern wird bereits heute in der täglichen und praxisorientierten unternehmerischen Umgebung eingesetzt. Bereits jetzt können Softwarelösungen und Roboter lernen, selbst Aufgaben auszuführen und Entscheidungen zu treffen. Bestes Beispiel sind hier Applikationen, die bereits heute Entscheidungen im Bank- und Versicherungswesen treffen.

Ali Baba und die 40 Roboter

Bevor wir nun nachfolgend hier in diesem Beitrag die von der EU verabschiedeten ethischen Compliance-Richtlinien veröffentlichen, ein Praxisbeispiel, in welcher Richtung bzw. in welchem Umfeld und Kontext diese Leitlinien in der Zukunft Anwendung finden könnten.

Alibaba, in Europa vor allem als großer chinesischer E-Commerce-Anbieter bekannt, erhofft sich dank seiner eigenen und internen KI-Forschung und der Entwicklung eigener KI-Chips mehr Innovationen für sein Kerngeschäft. Was aber machen diese KI-Chips von Alibaba genau? Nun, schon hier beginnt eine mögliche (auch ethische) Gefahr und ein nicht abzuschätzendes Risiko, denn dies weiß nur und einzig das Unternehmen Alibaba selbst. Auch im Hinblick auf ethische Grenzen und mögliche Verletzungen gibt es hier keinerlei Hinweise oder Regelungen.

Eine installierte und bereits im normalen Geschäftsbetrieb laufende KI-Anwendung bei Alibaba vereinfacht die Arbeit der nationalen und internationalen Online-Händler auf der Plattform, indem es Texte und Inhalte von der KI allein und ohne menschliche Hilfe schreiben lässt. Die KI-Software kann pro Sekunde (!) 20.000 Zeilen Content produzieren. Händler können damit ihre Produktinformationen automatisch durch die KI generieren lassen, ohne dass ein Mensch diese Zeit investieren muss. Das Programm hat Millionen bereits vorhandener Inhalte auf den verschiedenen Alibaba-Plattformen analysiert und benutzt Deep-Learning-Modelle und Technologien zur Verarbeitung natürlicher Sprache, um Content zu produzieren.

Für die Nutzung des KI-Tools müssen Händler lediglich einen Link zu einer beliebigen Produktseite eingeben und können dann aus mehreren Beispielen die passende Vorlage auswählen. Alles weitere erstellt und geniert die KI selbst. Die Erstellung des Textes ist aber nur der erste Schritt der KI. Die Händler auf der Plattform können zum Beispiel auswählen, ob der Text ihrer Produktbeschreibung werblich, poetisch oder witzig klingen soll. Bereits heute nutzen nationale und internationale Unternehmen jedweder Branche und Größe auf den verschiedenen Alibaba-Handelsplattformen täglich das Tool und die KI im Schnitt fast eine Million Mal.

Alibaba bestätigt selbst, dass hierfür bereits bestehende Chips und Algorithmen aus externen Quellen genutzt werden und diese mit internen KI-Entwicklungen modifiziert werden. Einzig, das Ergebnis aus diesen Mutationen und die künstliche Weiterentwicklung wird wohl ein internes Geheimnis bleiben. Ob hier neben praxis- oder marketingorientierten Regelungen, auch ethische Grundsätze eine Rolle spielen, wird man wohl kaum erfahren.

Die Ethische Leitlinie der EU für KI und Compliance

Hier setzt die Überlegung der EU ein und es wurden durch eine internationale Kommission Ethische Leitlinien im Hinblick auf KI und Compliance entwickelt, die am 8. April 2019 veröffentlicht wurden.

In dieser Leitlinie verankert sind sieben Anforderungen, die nicht nur Vertrauen, sondern auch einen Kontrollmechanismus in und für KI schaffen sollen. Sie betreffen Anforderungen und Fragen nach der Kontrolle, der Sicherheit, dem Datenschutz, der Nichtdiskriminierung, der Nachhaltigkeit, der Verantwortlichkeit und der Transparenz der von KI genutzten Algorithmen.

Inhalte:

  1. Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen; keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
  2. Robustheit und Sicherheit: Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen.
  3. Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
  4. Transparenz: Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.
  5. Vielfalt, Nichtdiskriminierung und Fairness: KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
  6. Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
  7. Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Nach der Verabschiedung dieser Richtlinien wird die EU-Kommission nun zu einem kurzfristigen Termin im Sommer 2019 eine Testphase beginnen. Ab sofort ist es für Unternehmen aller Branchen und Größen, öffentliche Einrichtungen, Verwaltungen und Organisationen möglich, der Europäischen KI-Allianz beizutreten Die Mitglieder der hochrangigen, von der EU beauftragten, Expertengruppe werden unterstützend tätig sein, die Leitlinien sowohl teilnehmenden Unternehmen als auch den relevanten Interessengruppen in den einzelnen Ländern vorzustellen und zu erläutern.

Ein wichtiges Ziel der EU-Kommission ist es, diesen Ansatz der KI-Ethik so schnell als möglich auf die internationale und globale Ebene zu bringen. Aus diesem Grund wird die Expertengruppe der EU die Zusammenarbeit mit Ländern wie Japan, Kanada oder Singapur verstärken und weiterhin eine aktive Rolle bei internationalen Diskussionen und Initiativen spielen. Parallel werden natürlich auch Unternehmen aus anderen Ländern und internationale Organisationen einbezogen.

Unternehmerische Risiken durch KI

Hintergrund der ethischen Regeln für KI im Compliancebereich der EU sind natürlich unternehmerische Risiken, welche sich durch den Einsatz und die Nutzung von KI im Unternehmen ergeben können. Nachfolgend einige grundlegende Risikofaktoren, die sich nicht nur durch die schon mögliche Nutzung von KI, sondern auch den zukünftigen Einsatz von immer mehr KI ergeben können:

Unterlegenheit des Menschen:
Ein mögliches Risiko, das gleichermaßen viele Menschen und Unternehmen fürchten, ist die Entwicklung einer „Superintelligenz“. Unter einer Superintelligenz versteht man eine Technologie, die sich selbst optimiert und dadurch vom Menschen unabhängig wird. Die Beziehung zwischen den Menschen und dieser superintelligenten Technik könnten problematisch werden – am Ende könnte der Mensch der Technik gar unterliegen. Eine vorsätzlich bösartige KI halten Forscher allerdings für nahezu ausgeschlossen. Ein tatsächliches Risiko sehen viele dagegen in einer künstlichen Intelligenz, die so kompetent ist, dass sich ihre Aktivitäten verselbstständigen – Aktivitäten, die dann für den Menschen schädlich werden könnten.

Abhängigkeit von der Technik:
Viele sehen die Risiken der KI nicht in einer generellen Unterlegenheit, sondern in einer wachsenden Abhängigkeit des Menschen von technologischen Systemen. In der medizinischen Versorgung etwa, wo der Einsatz von Pflegerobotern bereits getestet wird, macht sich der Mensch zunehmend zum überwachten Objekt technischer Systeme. Dabei laufe er Gefahr, ein Stück seiner Privatheit und Selbstbestimmung aufzugeben. Nicht nur für die Medizin werden diese Bedenken geäußert, sondern auch in Bezug auf KI-gestützte Anwendungen im Bank- und Versicherungswesen, bei der Videoüberwachung oder intelligente Algorithmen im Netz.

Datenschutz und Machtverteilung:
Intelligente Algorithmen können die wachsenden Datensätze immer effizienter verarbeiten. Vor allem für den Internethandel ist dies zunächst eine positive Nachricht. Doch die Weiterverarbeitung von Daten durch KI-Technologien wird für Verbraucher immer schwerer nachzuvollziehen und zu überwachen. Stattdessen haben Unternehmen und Experten mit dem entsprechenden technischen Know-how die alleinige Kontrolle.

Beeinflussung von Meinungsbildung:
Als weiteres Risiko könnten KI-Technologien öffentliche Meinungen auch gezielt lenken. Anlass für diese Bedenken bieten Technologien, die ihre Nutzer bis ins Detail kennen, oder der Einsatz von Social Bots, die die öffentliche Haltung beeinflussen. Bei wachsender Intelligenz dieser Techniken wird das Risiko einer Meinungsbeeinflussung immer höher. Dies wiederrum kann sich im Hinblick auf Rufschädigung oder Instrumentarien aus dem Bereich Marketing katastrophal auf ein Unternehmen auswirken, welches zum Beispiel von massiven „Fake-News“ angegriffen wird.

Arbeitsmarkt:
Die diskutierten Risiken von KI auf dem Arbeitsmarkt betreffen vor allem den Abbau von Arbeitsplätzen. Skeptiker befürchten, dass KI-Technik den Menschen zunehmend überflüssig machen könnte, ob nun durch den Putzroboter, den Pflegeroboter oder durch selbstnavigierende Transportsysteme. In der Medizinethik wird derzeit der Einsatz von Pflegerobotern kontrovers diskutiert. Die Befürchtung: Die Versorgung von pflegebedürftigen Menschen durch Roboter führt zu einer sozialen Kälte. Gleiches gilt für den Einsatz von KI gestützter Software, zum Beispiel im Bank-, Rechnungs- oder Versicherungswesen.

Diskriminierende Algorithmen:
Künstliche Technik liefert im Vergleich zum Menschen oft neutralere Ergebnisse – einer der vielen Vorteile künstlicher Intelligenz. Doch immer wieder zeigt KI-Technik auch Voreingenommenheit gegenüber Geschlecht oder Herkunft von Personen: Microsofts Chatbot Tay etwa imitierte innerhalb kürzester Zeit rassistische Sprache, Sicherheitstechnologien stufen „black neighbourhoods“ eher als Problembezirke ein und Werbeplattformen schalten bei männlichen Usern höher bezahlte Jobangebote. Das Problem ist schon länger bekannt und das British Standards Institute hat daher ethische Guidelines für Roboter herausgegeben. Doch lassen sich diese technisch nur schwer umsetzen – schließlich lernt die KI selbstständig aus ihrer Umwelt anhand von Lernprozessen, die von einzelnen Menschen nur begrenzt beeinflusst werden können.

Ausblick IT-Compliance Officer

Genau hier liegt eines der großen Hauptprobleme von und mit Künstlicher Intelligenz. Die Maschine lernt bereits heute in großen Teilen von und für sich selbst. Inwieweit der Mensch hier als Lehrer fungiert, ist bereits heute nicht mehr klar und eindeutig zu definieren.

All diese Risiken, die auf ein Unternehmen gleich welcher Größe und Branche zukommen werden, sind nicht nur eine Frage der Technik, der Hardware, der Software oder der Ethik. Gerade die Compliance im Unternehmen, die Umsetzung von Compliance-Regeln und die eventuelle Anpassung oder Aktualisierung des momentan verabschiedeten Compliance Management Systems (CMS) müssen auf der internen Agenda der Wichtigkeit für das Unternehmen auf höchster Priorität stehen.

Eine Herausforderung für jeden bereits tätigen oder zukünftigen Compliance Officer oder Chief Compliance Officer im Unternehmen und gleichermaßen die interne Beurteilung der Notwendigkeit, zum Beispiel durch die zusätzliche Position und Integration eines IT-Compliance Officers im Unternehmen, diesen Gefahren nachhaltig entgegenzutreten und sich vor diesen neuen Risiken zu schützen.

Epilog:

„Die größte Gefahr von künstlicher Intelligenz ist, dass die Menschen viel zu früh denken, dass sie KI verstanden haben.“
Eliezer Shlomo Yudkowsky (* 11. September 1979), amerikanischer Forscher und Autor. Er beschäftigt sich mit Entscheidungstheorie und den langfristigen sozialen und philosophischen Folgen der Entwicklung von Künstlicher Intelligenz.

Quellenangaben:

Ethikleitlinien für KI / Europäische Union, Brüssel / 2019
High-Level Expert Group on Artificial Intelligence / European Commission, Brüssel / 2019
Studie: Künstliche Intelligenz in Unternehmen / PWC PricewaterhouseCoopers GmbH / 2019
Alibaba: KI fügt für die Händler Produktinformationen ein / Onlinehändler-News / 2018
Künstliche Intelligenz: Anwendungen, Projekte, Trends / Industry of Things / 2018
Faszination KI: Was ist künstliche Intelligenz? / Digital Guide IONOS / 2018
Der Unterschied zwischen Künstlicher Intelligenz, Maschinelles Learning und Deep Learning / Coresystems / 2018