„Alles ist KI?!“ – KI unter DORA bei Finanzdienstleistungen
Spätestens, wenn interne Prozesse und Kundenschnittstellen parallel mit Assistenzsystemen, Scoring-Logiken oder GenAI-Bausteinen aufgerüstet werden, wird aus „Innovation“ sehr schnell ein Governance- und Betriebsprojekt.
Regulatorisch kippt so ein Setup selten wegen der „Idee KI“, sondern wegen der konkreten Einbindung. Sobald interne Systeme über APIs an ein externes Modell angebunden werden, rückt die Drittparteiensteuerung in den Fokus (insbesondere Vertrags- und Exit-Regeln, Sub-Outsourcing-Transparenz, Incident-Mitwirkung, Verantwortlichkeiten, Human-Oversight und das Change-/Test-Regime) und die Frage, welche Daten das System tatsächlich sieht und verarbeitet.
1. Die BaFin-Orientierungshilfe und der Blick der OECD
Die BaFin hat Ende 2025 eine Orientierungshilfe zu IKT-Risiken beim Einsatz von KI in Finanzunternehmen veröffentlicht.
Die Orientierungshilfe adressiert den Einsatz von KI in Finanzunternehmen aus einer klaren Perspektive: KI-Systeme sind in den IKT-Risikomanagementrahmen nach VO (EU) 2022/2554 („DORA“) einzubetten (Art. 3 Nr. 2, Art. 6 DORA; BaFin, Orientierungshilfe, S. 6, 11).
Ergänzend hilft eine aktuelle OECD-Studie vom 27. Januar 2026 dabei, die Themen einzuordnen, die in der Aufsichtspraxis international derzeit im Vordergrund stehen. Die OECD-Studie bündelt typische Beobachtungen dazu, wo Aufsicht und Markt in der Umsetzung immer wieder Reibungspunkte sehen, insbesondere bei Lieferketten, Transparenz/Inventaren und der Überlagerung verschiedener Regelwerke (vgl. OECD-Studie, Executive summary, S. 6–8).
2. KI-VO: „Hochrisiko“ im Finanzmarkt
Für Finanzinstitute ist die VO (EU) 2024/1689 („KI-VO“) vor allem ein Risikoklassifizierungs- und Pflichtenregime. Praktisch relevant ist dabei weniger, „ob“ KI genutzt wird, sondern in welche Risikoklasse ein KI-Use-Case fällt und ob das Unternehmen eher in der Rolle als Anbieter oder als Betreiber agiert (Art. 3 Nr. 3, Nr. 4 KI-VO).
2.1 Was gilt wann?
Die KI-VO gilt grundsätzlich ab 2. August 2026; Kapitel I und II gelten dagegen bereits ab 2. Februar 2025 (Art. 113 KI-VO).
Allerspätestens seit Anfang 2025 sollte daher auch das Thema KI-Kompetenz im operativen Betrieb intern adressiert sein: Anbieter und Betreiber sollen demnach Maßnahmen ergreifen, um ein angemessenes Niveau an KI-Kompetenz bei den relevanten Personen sicherzustellen (Art. 4 KI-VO).
In regulierten Instituten ist das auch deshalb relevant, weil „KI-Kompetenz“ damit auch an den aufsichtlichen Erwartungsrahmen zur fachlichen Eignung der Leitungs- und Schlüsselfunktionsinhaber anschließt (für Kreditinstitute: § 25c Abs. 1 KWG und Fit-&-Proper-Konkretisierung: BaFin-Rundschreiben 11/2025 (BA); für Zahlungs- und E-Geld-Institute: § 12 Nr. 5 ZAG).
Inhaltlich läuft das parallel zu den Kompetenzanforderungen nach DORA. Hier wird ausdrücklich verlangt, dass das Leitungsorgan seine Kenntnisse zu IKT-Risiken aktuell hält und entsprechende Schulungen sicherstellt (Art. 5 Abs. 4, Art. 13 Abs. 6 DORA).
2.2 Hochrisiko-Trigger
Für Finanzinstitute i.S.d. KI-VO lassen sich die wesentlichen Hochrisiko-Tatbestände regelmäßig anhand der Anhang-III-Kategorien abgrenzen.
In der Praxis sind dies insbesondere (i) KI-Systeme zur Bewertung der Kreditwürdigkeit oder zur Ermittlung eines Credit Scores natürlicher Personen (ausgenommen Systeme, die ausschließlich der Aufdeckung von Finanzbetrug dienen) sowie (ii) KI-Systeme zur Risikobewertung und Preisbildung gegenüber natürlichen Personen in der Lebens- und Krankenversicherung relevant (Anhang III Nr. 5 lit. b und c KI-VO).
Für diese Anhang-III-Kategorien gilt: Hochrisiko ist der Regelansatz; eine abweichende Einordnung setzt eine belastbare und dokumentierte Bewertung voraus (Art. 6 Abs. 2–4 KI-VO).
2.3 Die Rollenfrage
Bei solchen Hochrisiko-Systemen hängen viele Pflichten daran, ob das Finanzinstitut als Anbieter oder als Betreiber einzuordnen ist:
Anbieterpflichten knüpfen typischerweise an das Qualitätsmanagement- und Dokumentationspaket (Art. 16 lit. c–e i. V. m. Art. 17–19 KI-VO) sowie an die Konformitätsbewertung (Art. 16 lit. f i. V. m. Art. 43 KI-VO) an. Betreiberpflichten betreffen u. a. den ordnungsgemäßen Einsatz, Human Oversight, Input-Daten-Steuerung und das Vorhalten bzw. Aufbewahren von Logs (Art. 26 KI-VO).
Für die genannten Kernfälle (Kreditwürdigkeit/Credit-Score; Life/Health-Pricing) kommt eine Grundrechte-Folgenabschätzung hinzu (Art. 27 Abs. 1 KI-VO). Wo Entscheidungen auf Hochrisiko-Outputs beruhen und rechtliche bzw. ähnlich erhebliche Wirkungen entfalten, sollte außerdem früh eingeplant werden, wie die Rolle des Systems im Einzelfall verständlich erläutert werden kann (Art. 86 Abs. 1 KI-VO).
3. Die BaFin-Orientierungshilfe im Überblick
Die BaFin ordnet KI in der Orientierungshilfe ausdrücklich als IKT-Thema ein und legt den Fokus auf DORA-konforme Steuerung von IKT-Risiken beim Einsatz von KI. Adressiert werden insbesondere IKT-Risikomanagement und IKT-Drittparteienrisikomanagement einschließlich der einschlägigen technischen Standards (insbesondere Delegierte VO (EU) 2024/1774 („RTS RMF“) und Delegierte VO (EU) 2025/532 („RTS Untervergabe“).
Die Aufsicht versteht KI somit nicht als Sondermaterie, sondern als Bestandteil des IKT-Risikomanagementrahmens nach DORA – mit denselben Anforderungen an Governance, Kontrollen und Nachweisführung (Art. 5–15 DORA, insb. Art. 6 und Art. 10 DORA; BaFin-Orientierungshilfe, S. 11, 18).
Statt nach Produktkategorien zu unterscheiden, strukturiert die BaFin die Prüfung dabei entlang des KI-Lebenszyklus (Daten → Entwicklung/Test → Betrieb → Stilllegung; BaFin-Orientierungshilfe S. 7–8).
3.1 Begriffe
Die BaFin betrachtet die mit dem Einsatz von KI-Systemen verbundenen IKT-Risiken und übernimmt den Legalbegriff „KI-System“ aus der KI-VO (Art. 3 Nr. 1 KI-VO; BaFin-Orientierungshilfe, S. 6). Ein „KI-System“ wird im Sinne der KI-VO als maschinengestütztes System verstanden, das aus Eingaben Ausgaben wie Vorhersagen, Empfehlungen oder Entscheidungen ableitet (Art. 3 Nr. 1 KI-VO; BaFin-Orientierungshilfe S. 6).
Für DORA ist entscheidend, dass die BaFin KI-Systeme als Unterfall der in DORA weiter gefassten „Netzwerk- und Informationssysteme“ (Art. 3 Nr. 2 DORA) einordnet und die KI-Komponenten als Hard-/Softwarebestandteile in die IKT-/Asset-Logik einbezieht (BaFin-Orientierungshilfe S. 6).
3.2 Proportionalität und Kritikalität
Die Orientierungshilfe betont dabei stets den risikobasierten Ansatz und die Verhältnismäßigkeit (Art. 4 DORA).
In der praktischen Umsetzung rückt damit die Frage in den Vordergrund, ob die KI eine kritische oder wichtige Funktion unterstützt; in solchen Fällen erwartet die BaFin ein deutlich höheres Maß an Sicherheits- und Kontrollmaßnahmen (Art. 4 DORA; BaFin-Orientierungshilfe S. 7).
Sobald ein KI-Use-Case eine kritische oder wichtige Funktion unterstützt, steigt die Erwartung an Tiefe und Dichte der Maßnahmen.
Die Orientierungshilfe übersetzt das sehr greifbar in konkrete Bereiche: höhere Informationssicherheitsstandards bei der Auswahl von IKT-Drittdienstleistern (Art. 28 Abs. 5 DORA), klare SLAs und Sicherheitsvereinbarungen (Art. 30 Abs. 3 lit. a und lit. c DORA) sowie belastbare Exit-Fähigkeit (Art. 28 Abs. 7–8 DORA; Art. 30 Abs. 3 lit. f DORA).
3.3 Governance
Die BaFin ordnet KI-Governance in den DORA-Governancerahmen ein.
Sie beschreibt als üblich, dass Institute eine KI-Strategie erstellen (eigenständig oder integriert) und diese – insbesondere bei kritischen/wichtigen Funktionen – durch das Leitungsorgan genehmigen lassen (Art. 5 Abs. 2 DORA; BaFin-Orientierungshilfe S. 10).
Zudem wird hervorgehoben, dass das Leitungsorgan IKT-Risiken verstehen und durch Schulungen aktuell halten muss (Art. 5 Abs. 4 DORA; BaFin-Orientierungshilfe S. 10).
Ergänzend betont die Orientierungshilfe den Kompetenzaufbau auf Mitarbeiterebene (Art. 13 Abs. 6 DORA; BaFin-Orientierungshilfe S. 10) und die klare Zuordnung von Verantwortlichkeiten, insbesondere dafür, wie KI-Outputs in Entscheidungsprozessen genutzt werden (BaFin-Orientierungshilfe S. 10).
Für die Praxis ist entscheidend, welche Verantwortlichkeiten „durchschlagen“: Wer entscheidet über neue Datenquellen? Wer verantwortet Modell-/Pipeline-Änderungen? Wer definiert, welche Outputs automatisiert verarbeitet werden dürfen – und wann Human Oversight zwingend ist?
3.4 IKT-Risikomanagementrahmen, Engineering, Betrieb
Die Orientierungshilfe stellt ausdrücklich auf kontinuierliche Überwachung/Erkennung von Anomalien (Art. 10 DORA) und auf konkrete RMF-Mechaniken nach dem RTS ab (z. B. Schwachstellenscans, Patch-Fristen/Eskalation, Protokollierung von Entscheidungen/Modellversionen/Trainingsdaten – risikobasiert und nach Kritikalität differenziert).
Für den Betrieb nennt sie außerdem Deinstallation/Stilllegung als regelungsbedürftigen Teil des Lebenszyklus.
Organisatorisch ist relevant, dass DORA nicht zwischen IT-Entwicklung und individueller Datenverarbeitung in Fachbereichen unterscheidet; damit gelten die Standards auch dort, wo KI-Tools oder KI-Code-Assistenten eingesetzt werden (Art. 16 Abs. 9 RTS RMF; BaFin-Orientierungshilfe S. 14).
Für Tests nennt die BaFin einen proportionalen Ansatz (Art. 16 Abs. 2 RTS RMF; BaFin-Orientierungshilfe S. 15) sowie Quellcodeprüfungen mit statischen und dynamischen Verfahren (Art. 16 Abs. 3 RTS RMF; BaFin-Orientierungshilfe S. 15). Supply-Chain-Risiken – etwa bei Open-Source-Komponenten – werden ausdrücklich adressiert (BaFin-Orientierungshilfe S. 15).
Die BaFin weist darauf hin, dass KI-Systeme häufig cloudbasiert betrieben werden und damit IKT-Drittparteienrisiken besonders relevant sind (BaFin-Orientierungshilfe S. 9). Zudem sollen Prozesse den Lebenszyklus vollständig abdecken, einschließlich Stilllegung/Deinstallation (BaFin-Orientierungshilfe S. 17).
Bei schwerwiegenden IKT-Vorfällen verweist der Rahmen auf das DORA-Incident-Reporting (Art. 19 DORA; BaFin-Orientierungshilfe S. 26). Das spricht dafür, Incident-Taxonomien und Eskalationswege so auszugestalten, dass KI-bezogene Ereignisse als IKT-Vorfälle erfasst und bei Erreichen der Schwellenwerte gemeldet werden können (Art. 19 DORA; BaFin-Orientierungshilfe S. 9, 26).
3.5 Nur ein „Nice-to-have“?
Die Orientierungshilfe ist kein Rechtsakt und entfaltet für sich genommen keine unmittelbare Verbindlichkeit. Die BaFin bezeichnet sie ausdrücklich als „nicht verpflichtende Hilfestellung“ und stellt klar, dass sie „keine aufsichtlichen Erwartungen“ definiert. (BaFin-Orientierungshilfe S. 4, S. 7).
Gleichwohl ist das Dokument aufsichtspraktisch ein deutlicher Hinweis, wie die BaFin DORA-konforme KI-Steuerung „sehen“ will – gerade dort, wo KI in der Cloud betrieben wird und Drittanbieterketten, Auditierbarkeit und Exit-Fähigkeit die Umsetzung faktisch entscheiden. (BaFin-Orientierungshilfe, S. 19, Abschnitt „2. Cloud-Spezifika beim Betrieb von KI“, S. 20–21, Unterabschnitte „Risikobewertung und Due Diligence“, „Verträge und Unterauftragsvergabe“ sowie „Vendor-Lock-In“).
Die Orientierungshilfe ist zudem erkennbar „dynamisch“ angelegt: Die BaFin verweist selbst auf den „rasanten technischen Fortschritt“ und fordert „regelmäßige Schulungen“ sowie eine „kontinuierliche Beobachtung der Entwicklungsdynamik“. Das ist ein klarer Fingerzeig, dass Institute ihr Kontroll- und Schulungsset-up nicht als Einmalprojekt verstehen sollten, sondern als laufenden Betrieb. (BaFin-Orientierungshilfe, S. 13).
4. Perspektiven und Relevanz der OECD-Studie
Die OECD-Studie bündelt Beobachtungen dazu, welche Themen Aufsichtsbehörden bei KI im Finanzsektor regelmäßig beschäftigen. Im Vordergrund stehen weniger fehlende Regeln als die praktische Frage, wie Anforderungen bei komplexen und dynamischen Modellen umgesetzt und prüfbar gemacht werden (OECD-Studie, S. 6–7).
Als wiederkehrende Reibungsfelder werden die Überlagerung mehrerer Regime, fehlende Taxonomien und Inventare für belastbares Monitoring sowie Abhängigkeiten von Technologieanbietern und daraus folgende Konzentrations- bzw. Lock-in-Risiken herausgearbeitet (OECD-Studie, S. 11–15).
In der Praxis kristallisieren sich vor allem drei Themen heraus.
- Ohne ein konsistentes Inventar und eine verständliche Taxonomie bleibt Steuerung schwierig und die Kommunikation nach außen wird unnötig defensiv (OECD-Studie, S. 13–14).
- Bei Modellkontrollen nennt die Studie Validierung, laufendes Monitoring und den Umgang mit opaken Systemen als zentrale Problemfelder, weil sie nachvollziehbare Evidenz erfordern (OECD-Studie, S. 17–20).
- Bei eingekauften KI-Fähigkeiten verschiebt sich der Schwerpunkt auf Lieferkettensteuerung, insbesondere auf Due Diligence, vertragliche Kontrollrechte, sinnvolles Testen externer Systeme sowie Exit- und Kontingenzplanung (OECD-Studie, S. 14–15).
Damit eignet sich die Studie aktuell als kompakter Referenzrahmen für Audit-Readiness, insbesondere um zu reflektieren, ob Inventar/Kritikalität, Modell- und Datenkontrollen sowie Drittparteiensteuerung tatsächlich nachweisbar aufgesetzt sind.
5. Folgen für die Praxis
DORA und die KI-VO laufen parallel, mit unterschiedlichen Schwerpunkten.
- DORA zielt auf ein beherrschtes IKT-Risiko- und Drittparteienmanagement. Die KI-VO setzt bei Risikoklassen, Rollen (Anbieter/Betreiber) und den dazugehörigen Pflichtenpaketen an. Wer beides getrennt organisiert, baut Doppelarbeit. Wer es integriert, schafft ein konsistentes Kontrollsystem – und genau das ist später in Prüfungen die entscheidende Erzählung.
- In vielen Instituten ist der sinnvollste erste Schritt eine belastbare Bestandsaufnahme: Welche KI-Systeme sind im Einsatz (einschließlich API-Einbindungen und RAG-Komponenten), welche Daten werden genutzt, und wer ist jeweils fachlich und technisch verantwortlich (Art. 6, 8 DORA; BaFin-Orientierungshilfe S. 6–8, 11). Ohne diese Zuordnung bleiben Proportionalität, Drittparteiensteuerung und Incident-Fähigkeit nicht prüfbar. Ergänzend ist für potenzielle Hochrisiko-Use-Cases (insb. Kreditwürdigkeit/Credit-Score; Life/Health-Pricing) früh zu klären, ob das Institut Anbieter oder Betreiber ist und welche Pflichtenpakete greifen. Parallel dazu sollten Modell- und Datenkontrollen (Validierung, Monitoring, Protokollierung/Logs) sowie Stilllegungs- und Incident-Prozesse so aufgesetzt sein, dass sie prüfbar nachweisbar sind.
- Gerade für Zahlungsdienstleister und E-Geld-Institute laufen viele KI-Anwendungen in hochfrequenten Prozessen (Fraud-Detection, KYC-Triage, Kundenservice, Disputes). Die Orientierungshilfe der BaFin bietet dafür eine gut anschlussfähige Struktur, weil sie diese Anwendungen in DORA-Bausteine übersetzt.
Die Orientierungshilfe wird dort handhabbar, wo man sie an die Legalbegriffe „andockt“: Erstens braucht es ein belastbares Inventar, das tatsächlich erfasst, welche KI-Systeme (im Sinne von Art. 3 Nr. 1 KI-VO) produktiv laufen, welche Datenflüsse betroffen sind und ob ein Use-Case kritische oder wichtige Funktionen im Sinne von Art. 3 Nr. 22 DORA unterstützt. Zweitens sollten vertragliche Steuerung und Exit-Fähigkeit entlang der Drittparteienkette (einschließlich Sub-Outsourcing) so ausgestaltet sein, dass Kontrollrechte, Incident-Mitwirkung und Stilllegung praktisch umsetzbar sind.
Auf der Governance-Seite lohnt sich ein Check, ob die Einbindung des Leitungsorgans, Schulungen sowie Verantwortlichkeiten für die Nutzung von KI-Outputs in Entscheidungen bereits nachvollziehbar dokumentiert sind (Art. 5 Abs. 2 lit. c, d und g sowie Abs. 4 DORA; Art. 13 Abs. 6 DORA; BaFin-Orientierungshilfe S. 10), einschließlich der Anforderungen an KI-Kompetenz (Art. 4 KI-VO).
6. Fazit
Die BaFin macht ihre Erwartungshaltung deutlich: KI gehört in die DORA-Systematik – und zwar entlang der bereits in Folge von DORA bekannten Legaldefinitionen (kritische/wichtige Funktion; IKT-Drittdienstleister) und der daran anknüpfenden Pflichten. Parallel dazu setzt die KI-VO bei Risikoklassen und Rollen (Anbieter/Betreiber) an; für Hochrisiko-Use-Cases entscheidet diese Einordnung über die einschlägigen Pflichtenpakete.
Finanzunternehmen werden ihr individuelles Setup hieran ausrichten und auf künftige Anpassungen dynamisch reagieren müssen (Kritikalität, Rollen Anbieter/Betreiber, Drittparteien- und Exit-Design).
Es bietet sich an, eine fortlaufende Gap-Analyse entlang der betroffenen internen Prozesse zu implementieren, um frühzeitig auf technische Weiterentwicklung wie auch aufsichtsrechtliche Anforderungen reagieren zu können. Diese Gap-Analyse sollte zwingend auch die Drittparteienkette (Sub-Outsourcing), Auditierbarkeit und Exit-Fähigkeit abdecken, weil dort die Umsetzung in der Cloud regelmäßig „gewinnt oder verliert“.

