top of page
  • Linkedin

Einsatz von künstlicher Intelligenz gemäss FINMA

  • Autorenbild: Benjamin Schnell
    Benjamin Schnell
  • 11. Feb.
  • 2 Min. Lesezeit

Die Eidgenössische Finanzmarktaufsicht (FINMA) hat in ihrer Aufsichtsmitteilung 08/2024 die zunehmende Nutzung von Künstlicher Intelligenz (KI) im Finanzmarkt analysiert und dabei sowohl Chancen als auch erhebliche Risiken identifiziert. Sie betont die Notwendigkeit einer angemessenen Erfassung, Begrenzung und Kontrolle dieser Risiken durch die beaufsichtigten Institute.


Hauptsächliche Risiken beim Einsatz von KI:

  • Operationelle Risiken: Dazu zählen insbesondere Modellrisiken wie mangelnde Robustheit, Korrektheit, Verzerrungen (Bias) und fehlende Erklärbarkeit.

  • IT- und Cyber-Risiken: Die Abhängigkeit von Drittanbietern, beispielsweise für Hardware-Lösungen, Modelle oder Cloud-Dienstleistungen, kann zu erhöhten IT- und Cyber-Risiken führen.

  • Rechts- und Reputationsrisiken: Autonomes und schwer nachvollziehbares Verhalten von KI-Systemen kann zu rechtlichen Herausforderungen und Reputationsschäden führen.


Empfohlene Massnahmen zur Risikominimierung:

  1. Governance-Strukturen etablieren: Ein zentrales Inventar aller KI-Anwendungen mit entsprechender Risikoklassifizierung sollte erstellt werden. Verantwortlichkeiten für Entwicklung, Implementierung, Überwachung und Nutzung von KI müssen klar definiert sein.

  2. Datenqualität sicherstellen: Es sollten klare Anforderungen und Kontrollen zur Sicherstellung der Datenqualität implementiert werden, da KI-Anwendungen stark von der Qualität der verwendeten Daten abhängen.

  3. Regelmässige Tests und Überwachung: KI-Modelle sollten regelmässig auf Genauigkeit, Robustheit und Stabilität getestet werden. Eine kontinuierliche Überwachung ist essenziell, um sicherzustellen, dass die Modelle auch in veränderten Umgebungen zuverlässig funktionieren.

  4. Dokumentation verbessern: Eine umfassende Dokumentation der KI-Anwendungen, einschliesslich Zweck, Datenquellen, Modellwahl, Leistungskennzahlen und bekannten Einschränkungen, ist unerlässlich.

  5. Erklärbarkeit gewährleisten: Die Ergebnisse von KI-Systemen sollten nachvollziehbar und erklärbar sein, insbesondere wenn Entscheidungen gegenüber Kunden, Mitarbeitern oder Aufsichtsbehörden gerechtfertigt werden müssen.

  6. Unabhängige Überprüfung durchführen: Es sollte eine unabhängige Überprüfung des gesamten Entwicklungsprozesses der KI-Modelle durch qualifiziertes Personal erfolgen, um potenzielle Risiken frühzeitig zu identifizieren und zu mindern.


Die FINMA erwartet von den beaufsichtigten Instituten, dass sie sich aktiv mit den Auswirkungen des KI-Einsatzes auf ihr Risikoprofil auseinandersetzen und ihre Governance-, Risikomanagement- und Kontrollsysteme entsprechend anpassen. Dabei sind Faktoren wie Grösse, Komplexität, Struktur und Risikoprofil des Instituts sowie die Bedeutung und potenzielle Risiken der eingesetzten KI-Anwendungen zu berücksichtigen.


 
 
 

댓글


Anfrage

Danke für die Anfrage

Benjamin Schnell, Gallusstrasse 12, 9032 Engelburg

© 2022-2024 by Benjamin Schnell

bottom of page