Mit dem Inkrafttreten der europäischen Verordnung über künstliche Intelligenz (KI-Verordnung bzw. EU AI Act) am 1. August 2024 steht die deutsche Finanzbranche vor einem regulatorischen Wendepunkt. Die Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz gilt mit einigen Ausnahmen ab dem 2. August 2026. Bereits seit Februar 2025 greifen erste Bestimmungen, die verbotene KI-Praktiken untersagen.
Markus G
Zuletzt aktualisiert am: 21. Oktober 2025
11. August 2025
Für deutsche Vermögensverwalter und Roboadvisor bedeutet dies eine fundamentale Neuausrichtung ihrer KI-basierten Geschäftsmodelle. Bevor Hochrisiko-KI-Systeme etwa in den Bereichen Öffentliche Hand, Banken oder Versicherung auf den Markt gebracht werden, muss zusätzlich eine Folgenabschätzung im Hinblick auf die Grundrechte durchgeführt werden. Die Auswirkungen dieser weltweit ersten umfassenden KI-Regulierung werden bereits jetzt in der Branche spürbar.
Ein KI-System nach dem AI Act ist „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können.”
Das KI-Gesetz enthält klare risikobasierte Regeln für KI-Entwickler und -Einführer in Bezug auf spezifische Anwendungen von KI. Der AI Act unterscheidet zwischen vier Hauptkategorien:
Unannehmbares Risiko (Verbotene Systeme): Gemäß Artikel 5 des AI Act sind bestimmte KI-Praktiken verboten, da sie ein unannehmbares Risiko für die Sicherheit, die Grundrechte oder die Werte der Europäischen Union darstellen. Diese müssen seit dem 2. Februar 2025 vom EU-Binnenmarkt genommen werden.
Hohes Risiko: Hierunter fallen KI-Systeme in kritischen Bereichen, einschließlich Finanzdienstleistungen. Systeme für Produkte, die den EU-Sicherheitsvorschriften unterliegen, müssen einer Konformitätsbewertung durch Dritte unterzogen werden. Anbieter von Systemen aus den in Anhang III genannten Bereichen führen die Konformitätsbewertung selbst durch. Dazu gehören kritische Infrastrukturen, Bildung, Beschäftigung, grundlegende private und öffentliche Dienstleistungen (einschließlich Finanzdienstleistungen).
Begrenztes Risiko: Systeme mit Transparenzpflichten, beispielsweise KI-Chatbots.
Minimales oder kein Risiko: Die überwiegende Mehrheit der KI-Systeme (etwa Videospiele oder Spamfilter) birgt keine Risiken, kann deshalb weiterhin genutzt werden und wird durch das KI-Gesetz der EU nicht beschränkt.
Die gestaffelte Einführung der AI Act-Bestimmungen erfolgt in mehreren Phasen:
Deutsche Roboadvisor und digitale Vermögensverwalter fallen unter die Hochrisiko-Kategorie des AI Act, da sie Finanzdienstleistungen erbringen, die den Zugang zu wesentlichen privaten Dienstleistungen beeinflussen. Anbieter müssen EU-AI-Act-Vorgaben und nationale Finanzmarktregeln effizient managen, um Wettbewerbsvorteile zu sichern. Durch einheitliche Prüfverfahren und standardisierte Risikoberichte wird das Angebot an Robo-Advisors europaweit vergleichbar.
Für als hochriskant eingestufte KI-Systeme im Finanzbereich gelten umfassende Compliance-Anforderungen:
Risikomanagementsystem: Ein KI-System, dessen konkreten Einsatz ein erhebliches Risiko der Beeinträchtigung von Gesundheit, Sicherheit oder einer nachteiligen Auswirkung auf die Grundrechte einzelner Personen birgt, erfordert ein strukturiertes Risikomanagementsystem.
Daten und Daten-Governance: Eine zuverlässige und transparente Daten-Governance und Datenverwaltung sind von entscheidender Bedeutung, um eine faire und diskriminierungsfreie Behandlung der Verbraucherinnen und Verbraucher sicherzustellen.
Technische Dokumentation: Umfassende Dokumentation der KI-Systeme ist verpflichtend.
CE-Kennzeichnung: Anleger sollten künftig gezielt nach CE-zertifizierten KI-Systemen suchen und deren Audit-Protokolle prüfen.
Die nationale KI-Aufsichtsbehörde muss spätestens bis zum 2. August 2025 von der Bundesregierung ernannt werden. Als zentrale Anlaufstelle wird ihre Hauptaufgabe sein, die Einhaltung der Vorgaben des AI Acts in Deutschland zu überwachen. Die Behörde ist zuständig für die Überprüfung und Zulassung von Hochrisiko-KI-Systemen sowie für die Verhängung von Sanktionen bei Verstößen.
Für die BaFin ist klar: Finanzdienstleister müssen eine ungerechtfertigte Diskriminierung von Kundinnen und Kunden durch den Einsatz von KI/ML vermeiden. Die Unternehmen müssen Überprüfungsprozesse einrichten, um mögliche Diskriminierungsquellen zu identifizieren und Maßnahmen zu deren Beseitigung zu ergreifen.
Die führenden deutschen Roboadvisor-Anbieter sind direkt vom AI Act betroffen. Zu den größten Marktteilnehmern gehören etablierte Unternehmen wie Scalable Capital, Quirion (Quirin Privatbank), Growney und weitere digitale Vermögensverwalter. Diese Anbieter verwalten zusammen ein erhebliches Vermögen und müssen ihre KI-Systeme entsprechend den neuen Vorschriften anpassen.
Scalable Capital als einer der größten Akteure im deutschen Markt muss besonders umfassende Compliance-Maßnahmen implementieren, da das Unternehmen verschiedene KI-basierte Anlagestrategien anbietet.
Quirion der Quirin Privatbank steht vor der Herausforderung, die verschiedenen Preismodelle (Digital, Premium, Privat) im Einklang mit den AI Act-Bestimmungen zu gestalten.
Inno-Invest und Smavesto als spezialisierte Roboadvisor müssen ihre automatisierten Anlageentscheidungsprozesse entsprechend den Hochrisiko-Anforderungen dokumentieren und zertifizieren lassen.
LAIC Advisors ,VisualVest und Minveo stehen ebenfalls vor der Aufgabe, ihre KI-basierten Portfoliomanagement-Systeme an die neuen regulatorischen Anforderungen anzupassen und umfassende Compliance-Strukturen zu implementieren.
Auch traditionelle Banken, die Roboadvisor-Services anbieten, sind betroffen. Dazu gehören Angebote von Commerzbank (Cominvest), Deutsche Bank und anderen etablierten Finanzinstituten, die ihre digitale Vermögensverwaltung an die neuen Regulierungsanforderungen anpassen müssen.
Trotz unterschiedlicher Perspektiven herrschte Einigkeit über die Vorteilhaftigkeit der mit dem AI Act verbundenen Rechtssicherheit, aber auch Bedenken hinsichtlich konkreter Regelungen, die für einzelne Geschäftsmodelle scharfe Einschnitte bedeuten könnten. Diese Einschätzung stammt aus einem Fachdialog mit Experten wie Dr. Alexis Darányi, dem ehemaligen Chief Legal Officer bei Scalable Capital.
Hartmut Giesen erklärt in seinem Beitrag, welche neuen Anforderungen im Umgang mit KI für die Finanzbranche nun durch die europäische Regulierung (AI Act) entstehen. Und warum die eigenen Strukturen und Prozesse zügig adaptiert werden sollten. Er betont, dass Asset- und Wealth-Management-Unternehmen das Thema KI als sehr herausfordernd bewerten.
Im Bereich Asset- und Wealth-Management (AWM) bewerten viele Unternehmen das Thema KI als sehr herausfordernd. Das ist nicht allzu verwunderlich, schließlich müssen sie sich sowohl offensiv als auch defensiv damit beschäftigen. Offensiv müssen sie künstliche Intelligenz im Allgemeinen und generative KI im Besonderen adaptieren, um im Wettbewerb nicht zurück- oder sogar auszufallen. Defensiv müssen sie dabei den AI Act im Blick haben.
Professor Philipp Hacker von der Europa-Universität Viadrina warnt: „Es gibt noch wenig Bewusstsein in der Branche dafür, dass mit dem AI Act eine ziemlich breite Palette von Technologien erfasst werden”, sagt Hacker. Der Experte hält es für besser, in einer Regulierung den KI-Begriff enger auf Machine-Learning-Technologien zu fokussieren.
Das schafft Markttransparenz, fördert Wettbewerb und führt mittelfristig zu günstigeren Konditionen und größerer Produktvielfalt. Anleger profitieren von standardisierten Bewertungskriterien und einheitlichen Risikoberichten.
Ein Blick in die EU-Datenbank hilft dabei, Anbieter nach Risikoklasse, Bias-Tests und Update-Rhythmen zu filtern und so Portfolios feingranular auf individuelle Ziele abzustimmen. Dies ermöglicht Anlegern eine fundiertere Entscheidungsfindung bei der Auswahl digitaler Vermögensverwalter.
Ein wichtiger Vorteil für Anleger ist der verstärkte Schutz vor algorithmischer Diskriminierung. Die europäische Verordnung über künstliche Intelligenz (AI Act bzw. KI-Verordnung) ist ein wichtiger Schritt im rechtlichen Umgang mit den Risiken von Bias in KI-Systemen. Die Verordnung legt umfassende Regeln für KI-Systeme fest, insbesondere für sogenannte Hochrisiko-KI-Systeme, zu denen beispielsweise auch Modelle in der Kreditwürdigkeitsprüfung und Bonitätsbewertung und einige Anwendungen in der Lebens- und Krankenversicherung zählen, um Diskriminierung zu vermeiden und Fairness und Transparenz zu fördern.
Bei Verstößen sind hohe Bußgelder möglich. Wie schon die Datenschutz-Grundverordnung (DSGVO) sieht die KI-Verordnung eine Obergrenze für die Sanktionen vor, indem ein Betrag (in Millionen Euro) und ein Prozentsatz des gesamten weltweiten Jahresumsatzes des Unternehmens im vorangegangenen Geschäftsjahr festgelegt werden, wobei der höhere Betrag als Obergrenze für die Sanktionen gilt.
Die konkreten Bußgeldhöhen sind gestaffelt:
Neben diesen monetären Strafen können die nationalen Aufsichtsbehörden die Anbieter zwingen, nicht konforme KI-Systeme vom Markt zu nehmen oder die Leistungserbringung verbieten.
Roboadvisor-Anbieter sind somit angehalten umgehend eine Gap-Analyse ihrer bestehenden KI-Systeme durchführen und prüfen, welche Systeme unter die Hochrisiko-Kategorie fallen. Die Implementierung eines umfassenden KI-Governance-Frameworks ist unerlässlich.
Neben den technologischen und organisatorischen Herausforderungen, die AWM-Unternehmen bei der Adaptierung von (generativer) KI meistern müssen, stellt der AI Act der EU nun neue Anforderungen an die Nutzung. Generell kann man sagen, dass der Einsatz von generativer KI bei kundenferneren Anwendungsfällen vom AI Act wenig betroffen ist – sobald aber Kunden ins Spiel kommen, hat die neue Regulierung einen relevanten Einfluss.
Unternehmen müssen nun ebenfalls juristische Expertise aufbauen und sich auf die kommenden regulatorischen Sandboxes vorbereiten. Der AI Act sieht deshalb vor, dass bis zum 2. Februar 2025 pro EU-Mitgliedsstaat mindestens eine Sandbox errichtet werden musste.
Das KI-Gesetz (Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz) ist der weltweit erste umfassende Rechtsrahmen für KI. Dies verschafft europäischen Unternehmen einen Erfahrungsvorsprung in der Compliance mit KI-Regulierung.
Darüber hinaus gilt die KI-Verordnung auch in Nicht-EU-Ländern für Anbieter oder Betreiber von KI-Systemen, die diese in der Union in Verkehr bringen oder wenn das hervorgebrachte Ergebnis der KI in der EU verwendet wird. Dies bedeutet, dass auch internationale Anbieter, die deutsche Kunden bedienen, die AI Act-Bestimmungen befolgen müssen.
Der EU AI Act markiert einen Paradigmenwechsel für die deutsche Finanzbranche und insbesondere für Roboadvisor-Anbieter. Die Regulierung bringt sowohl Herausforderungen als auch Chancen mit sich. Während die Compliance-Kosten zunächst steigen werden, profitieren Verbraucher von erhöhter Transparenz, faireren Algorithmen und besserem Diskriminierungsschutz.
Der „Global Asset and Wealth Management Survey” von PwC prophezeit, dass bis 2027 16 Prozent aller AWM-Unternehmen entweder übernommen oder aus dem Markt ausscheiden werden. Diese Schwundrate ist doppelt so hoch wie im historischen Vergleich. Dies deutet auf eine mögliche Marktkonsolidierung hin, bei der gut vorbereitete und compliant agierende Unternehmen Wettbewerbsvorteile erlangen können.
Die deutschen Roboadvisor-Anbieter stehen vor der Aufgabe, ihre Geschäftsmodelle anzupassen und gleichzeitig innovativ zu bleiben. Diejenigen, die die AI Act-Anforderungen erfolgreich implementieren, werden nicht nur regulatorischen Anforderungen gerecht, sondern können auch das Vertrauen der Anleger stärken und ihre Marktposition ausbauen.
Der Erfolg der Umsetzung wird maßgeblich davon abhängen, wie schnell und effektiv die Branche die neuen Anforderungen in ihre bestehenden Prozesse integriert. Mit Inkrafttreten des AI Acts am 1. August 2024 steht Deutschland vor der Herausforderung, diese Verordnung in nationales Recht umzusetzen, wobei Unternehmen bereits in den ersten sechs Monaten erste Regelungen beachten müssen.
Die kommenden Monate bis zur vollständigen Umsetzung im August 2026 sind entscheidend für die Weichenstellung der deutschen Roboadvisor-Landschaft. Unternehmen, die proaktiv handeln und die regulatorischen Anforderungen als Chance für Qualitätsverbesserungen begreifen, werden die Gewinner dieses Transformationsprozesses sein.
Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin): KI bei Banken und Versicherern: Automatisch fair? – Aktuelle Themen, August 2024
Europäische Kommission: Gestaltung der digitalen Zukunft Europas – KI-Gesetz, Regulatory Framework AI
Wie hat dir der Artikel gefallen? Lass uns doch einfach ein “Daumen Hoch” oder “Daumen runter” da! Danke!
Markus G
Website Design by Felicis Design
Zuletzt aktualisiert am 21. Oktober 2025 by Redaktion