GenAI im Versicherungssektor: Diese sieben Herausforderungen warten auf Lösungen

(IINews) - 20. Mai 2025– Generative KI bietet Versicherungsunternehmen große Chancen (1) . Sie können mit der vielseitigen Technologie beispielsweise ihren Kundenservice persönlicher gestalten, Versicherungsprodukte individueller auf Zielgruppen zuschneiden und interne Abläufe sowie Entscheidungen verbessern. Allerdings müssen sie die KI-Systeme sorgfältig entwickeln und implementieren, denn so beeindruckend GenAI auch ist: Der Einsatz geht mit Herausforderungen einher, die Versicherungsunternehmen proaktiv angehen müssen, um Risiken zu minimieren. Nach Erfahrung von Pegasystems, The Enterprise Transformation Company, sind die wichtigsten Herausforderungen:
1. Datenschutz: Das Training und Fine-Tuning von großen Sprachmodellen, auf denen Generative KI basiert, erfordert viele Daten. Setzen Versicherungsunternehmen auch Kundenkorrespondenz, Schadensmeldungen und andere Informationen ein, die personenbezogene Daten enthalten, müssen sie darauf achten, die DSGVO nicht zu verletzen. Ist es nicht möglich, die Daten zu anonymisieren, benötigen sie eine Rechtsgrundlage für die Verarbeitung nach Artikel 6 der DSGVO, beispielsweise die Einwilligung der Betroffenen, und müssen die in den Artikeln 13 und 15 aufgeführten Informations- und Auskunftspflichten beachten. Darüber hinaus istes notwendig, angemessene Sicherheitsmaßnahmen nach Artikel 32 zu ergreifen, um die Vertraulichkeit und Integrität der Daten zu schützen. Das umfasst auch die Auswahl der Modelle, damit personenbezogene Daten nicht außerhalb der EU gespeichert und verarbeitet werden.
2. Urheberrecht: Die meisten großen Sprachmodelle wurden mit frei im Internet verfügbaren Informationen trainiert und damit in der Regel auch mit Werken, die urheberrechtlich geschützt sind. Einige Klagen von Urhebern gegen die Anbieter solcher Modelle laufen bereits, doch auch die darauf basierenden GenAI-Anwendungen sind grundsätzlich abmahnbar. Für Unternehmen ist das ein enormes Risiko, insbesondere wenn sie die Modelle weiterentwickelt oder ein Fine-Tuning mit eigenen Daten vorgenommen haben. Sie laufen Gefahr, die Modelle künftig nicht mehr verwenden zu dürfen oder Nutzungsgebühren zahlen zu müssen, wenn sie die Grundlage wichtiger Geschäftsprozesse nicht verlieren wollen. Die Eingaben in GenAI-Anwendungen, die sogenannten Prompts, fallen hingegen ebenso wenig wie die Ausgaben unter das Urheberrecht. Das macht es für Unternehmen schwer, intern erbrachte Leistungen zu schützen.Zwar lässt sich in Arbeits- oder Aufhebungsverträgen regeln, dass für das Unternehmen erstellte Prompts dessen Eigentum sind – dass ausscheidende Mitarbeitende bei einem neuen Arbeitgeber ähnliche Prompts schreiben, lässt sich indes kaum verhindern.
3. EU AI Act: Mit dem EU AI Act kommen weitere regulatorische Vorgaben auf die Versicherungsbranche zu. Deren KI-Systeme im Bereich der Lebens- und Krankenversicherungen beispielsweise zählen zu den „Hochrisiko-KI-Systemen“, für die strenge Auflagen gelten, unter anderem hinsichtlich Qualität der Trainingsdaten, Dokumentation, Risikomanagement und Sicherheit. Bei Verstößen drohen empfindliche Geldbußen und Reputationsschäden. Deshalb müssen Versicherungsunternehmen sicherstellen, dass sie die Vorgaben einhalten, etwa indem sie ein Risikomanagement aufbauen, Hochrisiko-KI unter menschliche Aufsicht stellen und allen Informations- sowie Transparenzpflichten nachkommen. Darüber hinaus sind sie zu einerGrundrechte-Folgenabschätzung verpflichtet, in deren Rahmen mögliche Risiken für die Rechte von Personen bewertet und Maßnahmen festgelegt werden, die beim Eintreten dieser Risiken einzuleiten sind. Da die EU mit dem AI Act sowohl die Anbieter als auch die Betreiber von KI-Systemen in die Pflicht nimmt, müssen Versicherungsunternehmen die Vorgaben nicht nur für selbst entwickelte, sondern auch für Systeme umsetzen, die sie lediglich nutzen, sprich: Es gilt, Anbieter sorgfältig auszuwählen. Zwar sieht der EU AI Act einen Prüf- und Zertifizierungsprozess vor, der die Auswahl vereinfacht – dieser befindet sich allerdings noch in der Entwicklung.
4. Cybersecurity: Versicherungsunternehmen, die GenAI einsetzen, müssen die Technologie in ihre Sicherheitskonzepte integrieren. Hier geht es unter anderem darum, Datenschutzverletzungen und den Abfluss vertraulicher Daten bei der Nutzung externer KI-Dienste zu vermeiden und Manipulationen an selbst entwickelten Modellen und deren Trainingsdaten zu verhindern.Darüber hinaus wirkt sich GenAI auch auf das Versicherungsgeschäft aus, da die Versicherung von Cyberrisiken komplexer wird. Schließlich nutzen Cyberkriminelle Generative KI unter anderem zur Verfeinerung ihrer Phishing-Kampagnen, für Betrugsversuche mit Deepfakes und zur kontinuierlichen Veränderung von Malware, um die Erkennungsmechanismen von Sicherheitslösungen auszutricksen. Damit sind Anpassungen im Risikomanagement notwendig, doch es fehlen bislang ausreichend Erfahrungswerte beziehungsweise historische Daten für eine präzise Kalkulation von Risiken, Eintrittswahrscheinlichkeiten und Prämien.
5. Erklärbarkeit: Große Sprachmodelle agieren in der Regel als Black Box, das heißt, es ist nicht nachvollziehbar, wie sie zu ihren Ausgaben und Entscheidungen kommen. Das kann zu Compliance-Risiken führen, da etwa der EU AI Act explizit Transparenz und Erklärbarkeit für Hochrisiko-KI-Systeme einfordert. Zudem drohen Akzeptanzprobleme und Frust bei Kunden, wenn Entscheidungen als unfair oder diskriminierend empfunden werden und Versicherungsunternehmen die Vorwürfe nicht ausräumen können. Eine Möglichkeit, dies zu verhindern, ist es, die KI-Systeme so zu gestalten, dasssie ihre Ausgaben mit Quellenangaben versehen, sodass Mitarbeitende die Ergebnisse überprüfen können.
6. Akzeptanz: Neue Tools und Technologien treffen in der Belegschaft bisweilen auf Widerstand, weil sich gewohnte Aufgaben und Prozesse verändern oder Mitarbeitende fürchten, überflüssig zu werden. Vor allem KI und Generative KI können solche Ängste schüren, da sie ein enormes Automatisierungspotenzial bieten. Versicherungsunternehmen sollten Mitarbeitende daher frühzeitig in ihre KI-Pläne einbeziehen und Aufklärungsarbeit leisten – also erklären, wie KI-Tools die Mitarbeitenden bei langweiligen oder repetitiven Aufgaben entlasten, sodass sie mehr Zeit für spannendere, sinnstiftendere Tätigkeiten haben. Oder wie sie ihnen bessere Entscheidungen ermöglichen, da es durchaus Bereiche gibt, in denen KI nicht entscheiden soll oder darf – aus ethischen Gründen oder weil DSGVO und EU AI Act dies verbieten.
7. Modellgrenzen: KI-Modelle bilden immer nur einen Teil der Realität ab und können bei Daten, die sich deutlich von den Trainingsdaten unterscheiden, auf unvorhergesehe Art und Weise reagieren. Beispielsweise indem sie plausibel erscheinende Antworten erfinden – ein Phänomen, das als Halluzination bezeichnet wird. Unternehmen müssen daher Mechanismen implementieren, die sogenannte „Out of Distribution“-Daten erkennen, um fehlerhafte Ausgaben zu verhindern. Darüber hinaus müssen sie die Trainingsdaten sorgfältig auswählen und auf eine ausgewogene, hochwertige Datenbasis achten. Andernfalls kann ein Modell verzerrte Antworten liefern, die ethnische, religiöse oder andere Gruppen benachteiligen. Fehlen hochwertige Trainingsdaten in ausreichender Menge, können Modelle auch mit synthetischen Daten trainiert werden, allerdings kann es dabei zu einem„Model Collapse“ kommen, wenn die synthetischen Daten nicht vielfältig genug sind oder nicht der Datenverteilung in der echten Welt entsprechen.
„Versicherungsunternehmen können es sich kaum leisten, auf Generative KI zu verzichten – allein schon, um dem Fachkräftemangel entgegenzuwirken und effizienter zu werden“, betont Elischa Göttmann, Principal Solutions Consultant bei Pegasystems. „Da das Thema allerdingsmit Risiken verbunden ist, sollten sie es nicht überstürzt angehen, sondern Governance-Prozesse aufsetzen, um die Risiken systematisch zu minimieren – sowohl für neue als auch bestehende GenAI-Anwendungen.“
(1) https://brandmacher.de/company_news/pegasystems-versicherung-neu-gedacht-dieses-potenzial-steckt-in-generativer-ki/
Dieses Listicle und das Bild in höherer Auflösung können unter www.brandmacher.de/company/pegasystems abgerufen werden.
Pega, The Enterprise Transformation Company, hilft Unternehmen mit KI-gestützter Entscheidungsfindung und Workflow-Automatisierung bei ihrer digitalen Transformation. Viele der weltweit einflussreichsten Unternehmen vertrauen auf die Plattform von Pegasystems, um ihre dringlichsten Herausforderungen zu lösen–von der Personalisierung der Kundenanspracheüber die Automatisierung von Services bis hin zur Optimierung operativer Prozesse. Seit 1983 entwickelt Pegasystems seine skalierbare und flexible Architektur kontinuierlich weiter, um Unternehmen dabei zu helfen, die Anforderungen ihrer Kunden zu erfüllen und sich gleichzeitig für die Zukunft zu rüsten.
Weitere Informationenüber Pega (NASDAQ: PEGA) sind unter www.pega.com/de verfügbar.
Christina Haslbeck
Brandmacher GmbH
Sendlinger-Tor-Platz 6
80336 München
Telefon: 089-59997-702
christina.haslbeck(at)brandmacher.de
Datum: 20.05.2025 - 17:29 Uhr
Sprache: Deutsch
News-ID 2173025
Anzahl Zeichen: 0
Kontakt-Informationen:
Ansprechpartner: Christina Haslbeck
Stadt:
München
Telefon: +49-89-59997-702
Kategorie:
Internet
Meldungsart: Unternehmensinfos
Versandart: Veröffentlichung
Freigabedatum: 20.05.2025
Dieser Fachartikel wurde bisher 2 mal aufgerufen.
Der Fachartikel mit dem Titel:
"GenAI im Versicherungssektor: Diese sieben Herausforderungen warten auf Lösungen"
steht unter der journalistisch-redaktionellen Verantwortung von
Pegasystems (Nachricht senden)
Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).