15. Oktober 2025
Co-Autor: Christian Zander
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt zunehmend unseren Alltag. Unternehmen aller Branchen setzen KI ein, um Prozesse zu automatisieren, Kundenservice zu verbessern oder Mitarbeitende von monotonen Aufgaben zu entlasten. Auch die Versicherungswirtschaft steht vor einem tiefgreifenden Wandel: Von der Schadenregulierung über die Risikobewertung bis hin zur Vertragsgestaltung – KI verspricht Effizienz, Schnelligkeit und neue Geschäftsmodelle. Doch mit den Chancen gehen auch Herausforderungen einher. Wie weit darf der Einsatz von KI im Versicherungswesen gehen und wo verlaufen die juristischen Grenzen dieser technologischen Revolution? Hierfür lohnt sich ein genauer Blick auf die aktuellen Einsatzmöglichkeiten und die rechtlichen Rahmenbedingungen.
Im Jahr 2025 kommt man in der Versicherungsbranche an KI nicht mehr vorbei. Bereits heute unterstützt sie Versicherer bei Risikobewertung, dynamischer Tarifgestaltung sowie automatisierter Schadensbearbeitung, wodurch Prozesse schneller, effizienter und kundenfreundlicher werden.
KI erkennt auffällige Muster in Schadensmeldungen und hilft, Betrugsversuche frühzeitig aufzudecken. Gleichzeitig eröffnet sie neue Chancen für maßgeschneiderte Versicherungsprodukte, die sich flexibel an die individuellen Bedürfnisse und Lebenssituationen der Kundinnen und Kunden anpassen. Ein Paradebeispiel hierfür ist das KI-System „KIRA“ (Künstliche Intelligenz für risikoorientierte Arbeitgeberprüfungen) der Deutschen Rentenversicherung Bund, das den Prüfdienst bei Betriebsprüfungen unterstützen soll – insbesondere durch eine Voranalyse digitaler Prüfunterlagen zur Identifikation von Auffälligkeiten, die Auswahl risikobehafteter Fälle und die Priorisierung von Prüfschwerpunkten.
Darüber hinaus kann KI durch intelligente Chatbots und virtuelle Assistenten den Kundenservice verbessern und den Verwaltungsaufwand erheblich reduzieren. Damit entwickelt sich KI zu einem unverzichtbaren Werkzeug, das Versicherer entlastet, Kosten senkt und gleichzeitig das Kundenerlebnis auf ein neues Niveau hebt.
Mit dem Inkrafttreten der Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (KI-Verordnung) am 1. August 2024 wurde erstmals ein umfassendes Regelwerk für KI etabliert. Die KI-Verordnung beinhaltet Vorschriften für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen und zielt darauf ab, das Vertrauen der Gesellschaft in KI-Systeme zu stärken, ohne dabei die Möglichkeiten dieser Technologie zu stark einzuschränken. Sie verfolgt zu diesem Zweck einen risikobasierten Ansatz: Je größer die Risiken eines KI-Systems für die Gesundheit und Sicherheit oder die Grundrechte von Menschen sind, desto strengere regulatorische Anforderungen sollen gelten.
Bestimmte KI-Systeme mit unannehmbarem Risiko werden verboten, dürfen also weder angeboten noch betrieben werden. KI-Systeme mit hohem Risiko, das heißt Systeme, die in grundrechtssensiblen Bereichen Entscheidungen über Menschen treffen, unterliegen strengen Voraussetzungen für ihren Einsatz. Solche Hochrisiko-Systeme umfassen Produkte oder Sicherheitskomponenten von Produkten, welche produktsicherheitsrelevant sind (embedded AI) und Systeme, welche in einem grundrechtssensiblen Bereich eingesetzt werden (non-embedded AI). KI mit geringem Risiko, wie Chatbots oder Generative KI, fällt unter die dritte Kategorie. Für diese Kategorie ist lediglich eine Transparenzpflicht vorgesehen, die in der KI-Verordnung definiert ist. KI-Systeme mit geringem Risiko sollen sogar weitgehend unreguliert bleiben, um die Wettbewerbsfähigkeit in der EU zu erhalten.
Auch wenn der Einsatz von KI-Systemen mit unannehmbarem Risiko im Versicherungswesen auf den ersten Blick selten scheint, lohnt es sich, die Verbote der KI-Verordnung genauer zu betrachten. Gerade in einer Branche, die auf Vertrauen, Fairness und Transparenz angewiesen ist, können schon kleine Fehlanwendungen erhebliche Folgen für Kundinnen und Kunden wie auch für die Reputation der Versicherer haben.
So verbietet die KI-Verordnung ausdrücklich Systeme, die darauf abzielen, menschliches Verhalten manipulativ zu beeinflussen und dabei physischen oder psychischen Schaden verursachen könnten. Für Versicherungen bedeutet dies: KI-gestützte Tools zur Beratung und Produktempfehlung bleiben zulässig, solange sie nachvollziehbar und fair agieren. Nicht erlaubt wären jedoch Systeme, die gezielt Schwächen, Stresssituationen oder psychologische Muster von Kundinnen und Kunden ausnutzen, um sie in überteuerte oder unpassende Verträge zu drängen. Hier verschwimmt die Grenze zwischen zulässiger Verkaufsunterstützung und unzulässiger Manipulation – und genau in diesem Graubereich müssen Versicherer äußerst sorgfältig agieren.
Besonders sensibel ist auch der Einsatz von KI zur Emotionserkennung am Arbeitsplatz. In der Versicherungswirtschaft betrifft das vor allem Callcenter, den digitalen Kundenservice und interne Prozesse. Eine permanente Erfassung von Emotionen, Stress oder Stimmungslagen von Mitarbeitenden ist unzulässig. Nur in eng begrenzten Ausnahmefällen – wenn es zwingend sicherheitsrelevant ist oder ein klarer Kundenschutz damit verbunden ist – könnte ein Einsatz denkbar sein, etwa wenn Systeme Gesprächsabbrüche oder Überlastungszustände erkennen. Hier zeigt sich die Gratwanderung zwischen Prozessoptimierung und unzulässiger Überwachung.
Ein weiterer neuralgischer Punkt ist die biometrische Kategorisierung. Die Verarbeitung sensibler Merkmale wie Ethnie, Religion oder sexuelle Orientierung durch KI ist verboten. Für Versicherer ist dies besonders relevant, weil biometrische Daten häufig zur Risikobewertung genutzt werden, beispielsweise im Bereich von Kranken- oder Lebensversicherungen. Zulässig bleibt eine Verarbeitung nur dann, wenn sie eindeutig durch EU- oder nationales Recht gestattet ist – etwa im streng regulierten Rahmen medizinisch begründeter Zusatzversicherungen. Ohne klare Rechtsgrundlage droht hier schnell ein Verstoß mit erheblichen rechtlichen und ethischen Konsequenzen.
Schließlich sind auch Social-Scoring-Praktiken verboten. Versicherer verfügen über enorme Datenmengen und könnten versucht sein, daraus weitreichende Bewertungen über das Verhalten ihrer Kundschaft abzuleiten. Die KI-Verordnung setzt hier eine klare Grenze: Systeme zur Bewertung von Betrugsrisiken oder zur Einschätzung der Zahlungsfähigkeit sind legitim – solange sie transparent und verhältnismäßig eingesetzt werden. Nicht erlaubt ist hingegen eine pauschale Schlechterstellung oder gar der Ausschluss bestimmter Personengruppen aufgrund umfassender Verhaltensanalysen. Wenn also ein System das Freizeitverhalten oder den sozialen Hintergrund eines Kunden auswertet und daraus höhere Prämien oder schlechtere Vertragsbedingungen ableitet, würde dies gegen die Vorgaben verstoßen. Damit zeigt sich: Die Versicherungswirtschaft kann erheblich von KI profitieren – etwa durch effizientere Risikoprüfung, Betrugsaufdeckung oder verbesserte Services. Zugleich muss sie aber mit besonderer Sorgfalt prüfen, dass der Einsatz von KI-Systemen weder in manipulative Praktiken abgleitet noch zu systematischen Benachteiligungen führt. Das Spannungsfeld zwischen Innovation und Regulierung wird damit zu einem zentralen Faktor für die Zukunftsfähigkeit der Branche.
Deutlich mehr KI-Systeme im Versicherungswesen fallen unter die Hochrisiko-Kategorie der KI-Verordnung. Dazu zählen insbesondere Systeme, die für die Bewertung von Risiken, die Bestimmung von Prämien oder die Entscheidung über den Zugang zu Versicherungsleistungen eingesetzt werden. Ein Beispiel sind automatisierte Underwriting-Systeme, die Anträge auf Kranken-, Lebens- oder Berufsunfähigkeitsversicherungen prüfen und auf Basis komplexer Algorithmen über Annahme oder Ablehnung entscheiden. Auch KI-gestützte Schadensmanagement-Systeme, die eingereichte Fälle automatisch bewerten oder ablehnen können, sowie Betrugserkennungssysteme, die anhand großer Datenmengen Muster im Verhalten der Versicherten identifizieren, sind potenzielle Hochrisiko-Anwendungen.
Darüber hinaus können auch KI-Systeme in die Hochrisikokategorie fallen, wenn sie den Zugang zu wesentlichen privaten Leistungen regeln – etwa bei Kredit- oder Restschuldversicherungen, bei denen eine Ablehnung gravierende Auswirkungen auf die wirtschaftliche Lebenssituation der Antragstellenden haben kann. Gleiches gilt für Scoring-Systeme, die auf umfangreichen personenbezogenen Daten basieren und über Vertragsbedingungen, Risikogruppen oder Ausschlüsse entscheiden.
Die Einstufung als Hochrisiko-KI hat weitreichende Konsequenzen, denn diese Systeme müssen besonders strenge Vorgaben zu Sicherheit, Fairness, Genauigkeit und Transparenz erfüllen. Hier bedarf es einer sorgfältigen Prüfung, insbesondere im Hinblick auf Diskriminierungsfreiheit und Nachvollziehbarkeit der Entscheidungen. Auch Datenqualität und Datenschutz spielen eine zentrale Rolle, da Versicherer regelmäßig mit sensiblen personenbezogenen Daten arbeiten.
Hersteller und Anbieter solcher Systeme sind verpflichtet, umfassende technische Dokumentationen bereitzustellen, die Trainings- und Entscheidungsgrundlagen offenzulegen sowie Risiken kontinuierlich zu überwachen. Betreiber – also die Versicherungsunternehmen – müssen die korrekte Verwendung der Systeme sicherstellen, ausreichend repräsentative Daten einsetzen und eine menschliche Aufsicht während des Einsatzes gewährleisten. Letztlich bleibt es Aufgabe der Versicherungsunternehmen, sicherzustellen, dass KI-Systeme nicht nur effizient, sondern auch fair, rechtmäßig und ethisch vertretbar eingesetzt werden.
Zur geringer regulierten Kategorie von KI-Systemen mit bestimmten Risiken gehören generative KI und Chatbots. Auch hier gibt es im Versicherungsbereich zahlreiche Anwendungsfälle.
So fallen darunter beispielsweise KI-Anwendungen, die für die Erstellung von Standardkorrespondenz genutzt werden, etwa bei Policen, Informationsschreiben oder automatisierten Mahnungen. Generative KI kann als Freitext eingereichte Schadenmeldungen automatisch in strukturierte Datensätze überführen, damit sie schneller bearbeitet werden können. Sprachmodelle können individuelle Angebotsvergleiche in verständlicher Sprache erstellen, ohne dass komplexe Versicherungsbedingungen manuell aufbereitet werden müssen. Auch Chatbots, die Routinefragen beantworten, Vertragsstatus abfragen oder einfache Tarifauskünfte geben, fallen in diesen Bereich. KI-Assistenten können Kundinnen und Kunden durch den Antragsprozess führen, Formulare vorbefüllen oder fehlende Angaben abfragen.
Für solche Systeme gelten im Wesentlichen Transparenzpflichten: Versicherer müssen kenntlich machen, dass die Kommunikation nicht mit einem Menschen, sondern mit einer KI erfolgt. Die weitgehenden Anforderungen von Hochrisiko-KI-Systemen, etwa Risikomanagement, kontinuierliches Monitoring oder strenge Dokumentationspflichten, bleiben ihnen hingegen erspart.
KI wird die Versicherungsbranche grundlegend verändern: Sie macht Risikoprüfung, Schadensbearbeitung und Betrugserkennung schneller und präziser und verbessert zugleich den Kundenservice. Die KI-Verordnung stellt Versicherungsunternehmen vor die komplexe Herausforderung, Innovation und Regulierung in Einklang zu bringen. Gerade im Umgang mit Hochrisiko-KI sind klare Governance-Strukturen und ein tiefes Verständnis der regulatorischen Vorgaben unerlässlich. Wer diese Hürden meistert, kann nicht nur rechtliche Risiken minimieren, sondern auch das Vertrauen von Kunden stärken.
Hinzu kommt: Der regulatorische Rahmen für den KI-Einsatz im Versicherungssektor erschöpft sich nicht in der KI-Verordnung. Auch andere Gesetzesinitiativen – wie etwa der aktuelle Entwurf zur Änderung des Verbraucher- und Versicherungsvertragsrechts (Drucksache 21/1856) – adressieren KI-relevante Fragestellungen, etwa durch neue Informationspflichten bei personalisierten Preisen und das Recht auf menschliches Eingreifen bei automatisierten Online-Tools. Damit wird deutlich: Die Regulierung von KI erfolgt zunehmend bereichsübergreifend und betrifft verschiedenste Aspekte des Versicherungsrechts.