Die rasante Entwicklung der Technologie der künstlichen Intelligenz (KI) in den letzten Jahren hat dazu geführt, dass sie aktiv an den Transformationsprozessen vieler Branchen beteiligt ist. Auch der Versicherungssektor entwickelt sich mit der Integration von KI in eine neue Dimension. Versicherungsunternehmen profitieren von den Datenanalyse-, Automatisierungs-, Vorhersage- und Analysefunktionen dieser Technologie, um effizientere, kundenorientiertere und profitablere Prozesse zu schaffen. Die Einbeziehung von KI in diese Prozesse bringt jedoch nicht nur technische Veränderungen mit sich, sondern auch erhebliche rechtliche und ethische Verantwortlichkeiten.
Einsatz von künstlicher Intelligenz bei der Schadensbewertung
Schadensermittlung und -bewertung sind zeitaufwändige und kostspielige Prozesse für Versicherungsunternehmen, bei denen die Kundenerwartungen oft hoch sind. KI spart Zeit und Kosten, indem Schadensprozesse und Schadensanalysen automatisiert werden. Neben der Beschleunigung des Gutachtenprozesses durch umfassende Analysen und Auswertungen und der Steigerung der Kundenzufriedenheit entstehen dadurch auch ganz neue Verkaufschancen. In den letzten Jahren haben Versicherungsunternehmen KI-Anwendungen aktiv in ihren Schadenmanagement- und Kundendienstprozessen eingesetzt.
- Computer Vision: Mithilfe von Bildverarbeitungstechnologien können das Ausmaß der Schäden und Reparaturkosten anhand von Fotos geschätzt werden, die der Kunde nach einem Unfall gesendet hat. Es ist auch möglich zu erkennen, ob die Bilder original sind oder manipuliert wurden.
- Verarbeitung natürlicher Sprache (Natural Language Processing, NLP): KI kann Kundenanfragen genau klassifizieren, indem sie Schadensmeldungen von Versicherungsnehmern, Gespräche mit Kundenvertretern oder E-Mail-Korrespondenzen interpretiert.
- Modelle für maschinelles Lernen: Algorithmen, die auf früheren Schadensdaten trainiert wurden, können Schäden bei ähnlichen Ereignissen vorhersagen. Algorithmen des maschinellen Lernens werden auch verwendet, um Schäden nach Schweregrad und Rechtsverfahren zu klassifizieren.
- Spracherkennungssysteme: Schadensaufzeichnungen können aus Callcenter-Interaktionen erstellt werden. Darüber hinaus kann das System dazu beitragen, Kunden zu erkennen, die unterschiedliche Namen und Telefonnummern für betrügerische Zwecke verwenden.
Neu auftretende Risiken
KI bietet sowohl für Versicherungsunternehmen als auch für Kunden erhebliche Vorteile in Bezug auf Effizienz, Geschwindigkeit, objektivere Entscheidungsfindung, Kosten- und Zeitersparnis, Kundenzufriedenheit und Betrugserkennung. Neben diesen Vorteilen verarbeitet und speichert die KI jedoch große Datenmengen, was Bedenken hinsichtlich des Schutzes von Kundendaten und der Einhaltung gesetzlicher Vorschriften aufwirft.
i.Datenschutz und -sicherheit: Eines der kritischsten Risiken bei der Verwendung von KI hängt mit Datenschutz und -sicherheit zusammen. Biometrische Authentifizierungsmethoden ermöglichen den Zugriff auf Systeme ohne Passwörter. Die Fähigkeit der KI, das Gesicht oder die Stimme einer Person zu replizieren, birgt jedoch ernsthafte Sicherheitsrisiken. Aufgrund der mangelnden Transparenz bei KI-Algorithmen und der Zunahme von Cyberkriminalität sind sowohl persönliche als auch Unternehmensdaten gefährdet.
ii.Haftung bei Fehlern: Wenn bei der KI-basierten Erkennung ein Fehler auftritt, wie z. B. Unterzahlung oder verspätete Zahlungen an den Versicherungsnehmer, stellt sich die Frage, wer die Verantwortung trägt. Sollte in einem solchen Szenario beispielsweise die Versicherungsgesellschaft oder der Softwareanbieter, der das KI-System entwickelt hat, zur Rechenschaft gezogen werden?
Gesetzliche Haftung beim Einsatz von künstlicher Intelligenz
Es gibt Behauptungen, dass KI einer unerlaubten Handlung unterliegen und in diesem Zusammenhang als fiktive juristische Person betrachtet werden könnte. Ob KI jedoch wirklich als fiktive Persönlichkeit angesehen werden kann, bleibt umstritten. Dies erschwert natürlich die Bestimmung der haftenden Partei, sowohl in Bezug auf die Rechtspersönlichkeit als auch auf die Haftung.
Regulierungsbehörden fordern zunehmend mehr Transparenz und Rechenschaftspflicht in den Entscheidungsprozessen der KI. Dies kann zu möglichen Sanktionen und finanziellen Konsequenzen führen. Wenn die Industrie von solchen KI-Anwendungen profitiert, verarbeitet, speichert und überträgt sie personenbezogene Daten. Daher müssen KI- und Machine-Learning-Anwendungen so gestaltet sein, dass die Persönlichkeitsrechte der Kunden nicht verletzt werden. Gleichzeitig müssen betroffene Personen im Bewusstsein ihrer gesetzlichen Rechte handeln.
In der Türkei gibt es derzeit keine umfassende gesetzliche Regelung, die sich speziell mit dem Einsatz von KI befasst. Folglich müssen die rechtlichen Verantwortlichkeiten und etwaige auftretende Streitigkeiten nach dem türkischen Obligationenrecht, dem türkischen Handelsgesetzbuch, dem Datenschutzgesetz (KVKK), den Vorschriften der Regulierungs- und Aufsichtsbehörde für Versicherungen und private Altersvorsorge (SEDDK) und anderen einschlägigen Rechtsvorschriften beurteilt werden Gesetzgebung.
Vorschriften in den USA und der Europäischen Union
Die Vereinigten Staaten und die Europäische Union haben verschiedene Initiativen ergriffen, um KI-bezogene Aktivitäten zu regulieren. In den USA zielen Bemühungen wie die amerikanische KI-Initiative, der Entwurf der KI-Bill of Rights und der Algorithmic Accountability Act darauf ab, die ethische und sichere Entwicklung von KI-Technologien zu gewährleisten.
Die Europäische Union regelt mit der Verabschiedung des Gesetzes über künstliche Intelligenz (KI-Gesetz) im Jahr 2024 KI-Systeme auf der Grundlage von Risikoniveaus. Das Gesetz führt strenge Regeln und Transparenzpflichten für KI-Anwendungen mit hohem Risiko ein. Dazu gehören Transparenzanforderungen für Datensätze, die beim Training von KI-Systemen verwendet werden, und ein Mandat, dass KI das Urheberrecht respektiert und ethische Standards einhält.
Laut einer Ankündigung der Direktion für EU-Angelegenheiten des Außenministeriums der Republik Türkei zielt diese Verordnung darauf ab, das Funktionieren des Binnenmarktes zu verbessern und gleichzeitig menschenzentrierte und vertrauenswürdige KI-Technologien zu fördern. Die EU versucht daher, Innovationen zu fördern und gleichzeitig Gesundheit, Sicherheit, Umwelt, Demokratie, Rechtsstaatlichkeit und Grundrechte vor möglichen schädlichen Auswirkungen von KI-Systemen zu schützen.
Das KI-Gesetz gilt für alle Wirtschaftszweige, einschließlich Versicherungen. Insbesondere das Gesetz über künstliche Intelligenz (KI-Gesetz) hat einige Anwendungen der künstlichen Intelligenz im Versicherungssektor als ‚hohes Risiko‘ eingestuft. Systeme mit künstlicher Intelligenz, die für die Risikobewertung und das Underwriting in der Lebens- und Krankenversicherung eingesetzt werden, gelten als Hochrisiko. Der Grund dafür ist, dass solche Systeme ein Risiko der Diskriminierung oder Ausgrenzung darstellen können, indem sie den finanziellen Zugang und die Gesundheit von Einzelpersonen beeinträchtigen. Dieses Gesetz besagt, dass es eine Reihe von Anforderungen gibt, die Anbieter und Nutzer von KI-Systemen mit hohem Risiko erfüllen müssen. Diese Kategorisierung bedeutet, dass Versicherungsunternehmen strengen Verpflichtungen unterliegen, wenn sie KI in diesen Bereichen einsetzen. Wenn beispielsweise ein Versicherungsunternehmen eine Lebensversicherungsprämie mit einem KI-gestützten Algorithmus festlegt, muss es ein umfassendes Risikomanagementsystem für dieses System einrichten, qualitativ hochwertige und diskriminierungsfreie Datensätze verwenden, eine Grundrechtsfolgenabschätzung (Fundamental Rights Impact Assessment, FRIA) durchführen und menschliche Kontrolle ermöglichen.













