Volgens Gartner zal AI binnen drie jaar massaal worden ingezet in de verzekeringsbranche. De recente opkomst van tools zoals ChatGPT versnelt deze ontwikkeling, vooral in de schadeverzekeringsbranche. Hoewel niet iedereen even snel meegaat, is het duidelijk dat AI snel terrein wint in onze sector. Met de opkomst ontstaan ook nieuwe uitdagingen op het gebied van solidariteit en veiligheid. Daarom werkt de Europese Commissie al jaren aan regels voor kunstmatige intelligentie. Een van de belangrijkste doelen van de afgelopen vijf jaar was het creëren van “Een Europa dat klaar is voor het digitale tijdperk.” De AI-Act die de komende periode wordt uitgerold speelt hierin een cruciale rol. Dit artikel gaat in op deze AI-Act.
Wat is AI volgens de AI-Act?
De AI-Act definieert een AI-systeem als een machine die zelfstandig kan opereren en na verloop van tijd steeds beter wordt in wat hij doet. Deze systemen gebruiken de input die ze ontvangen om voorspellingen, adviezen of beslissingen te geven die invloed kunnen hebben op zowel de fysieke als de digitale wereld.
Wat houdt de AI-Act in?
De AI-Act is ontworpen om het gebruik van AI in de EU te reguleren. Het wetgevingskader zorgt voor een gestandaardiseerd proces voor de introductie en het gebruik van AI-systemen in de markt. Dit betekent dat alle EU-lidstaten op dezelfde manier omgaan met AI. De AI-Act werkt met een risicogebaseerde aanpak: AI-systemen worden ingedeeld op basis van het risico dat ze vormen voor de gebruiker. De wet legt dan specifieke eisen op, afhankelijk van de risicocategorie.
Sommige AI-toepassingen, die als onethisch of schadelijk worden beschouwd, worden verboden. Voor AI-toepassingen die als hoog risico worden gezien, gelden strenge eisen om potentiële bedreigingen te beheersen. Daarnaast zijn er richtlijnen voor AI-technologieën die als minder risicovol worden beschouwd. Bij deze aanpak staat ethiek centraal.
Het Ethisch Kader van het Verbond
Om te anticiperen op de AI-Act publiceerde het Verbond van Verzekeraars al in januari 2021 een ethisch kader voor datagedreven toepassingen. Dit kader vraagt verzekeraars om extra controles uit te voeren bij het gebruik van moderne technologieën zoals AI, chatbots en automatische besluitvorming. Dit ethische kader is gebaseerd op aanbevelingen van de High-Level Expert Group on Artificial Intelligence van de Europese Commissie en bevat zeven vereisten voor verantwoorde AI:
- Menselijke autonomie en controle
- Technische robuustheid en veiligheid
- Privacy en data governance
- Transparantie
- Diversiteit, non-discriminatie en rechtvaardigheid
- Maatschappelijk welzijn
- Verantwoording.
Wat betekent de AI-Act voor de verzekeringsbranche?
Voor iedereen die AI willen gebruiken, legt de AI-Act belangrijke verplichtingen op. Het is cruciaal om te bepalen of je fungeert als aanbieder of als gebruiksverantwoordelijke van AI-systemen, omdat de regels hiervoor verschillen.
Aanbieders – dit zijn partijen die AI-tools verkopen of intern gebruiken – moeten voldoen aan strenge regels. Ze moeten bijvoorbeeld werken met representatieve data en ervoor zorgen dat er geen vooringenomenheid (bias) in hun systemen sluipt. Bovendien moeten ze ervoor zorgen dat beslissingen die door AI worden genomen, goed kunnen worden uitgelegd. Menselijk toezicht blijft belangrijk. Ook moet de softwareontwikkeling voldoen aan hoge standaarden om ervoor te zorgen dat het systeem veilig, betrouwbaar en accuraat is. Na het doorlopen van een conformiteitstoets kan een AI-systeem een CE-keurmerk krijgen, wat betekent dat het voldoet aan de Europese normen.
Gebruiksverantwoordelijken – bijvoorbeeld verzekeraars die AI-systemen van derden gebruiken – moeten vooral zorgen voor de juistheid van de data die in het systeem wordt ingevoerd. Daarnaast is het belangrijk om de gebruiksinstructies nauwgezet te volgen en menselijk toezicht te houden op de beslissingen die de AI neemt. Als je je niet aan deze regels houdt, kun je aansprakelijk worden gesteld voor de gevolgen van verkeerde beslissingen, of zelfs worden herclassificeerd als aanbieder.
Een praktijkvoorbeeld maakt dit duidelijk: stel dat je een AI-gestuurd HR-systeem gebruikt voor het selecteren van kandidaten. Dit systeem mag niet zomaar worden gebruikt voor andere doeleinden, zoals promotie- of demotiebeslissingen van bestaand personeel. De ingevoerde data moet representatief blijven voor de trainingsdata waarop het systeem is gebaseerd; als je bijvoorbeeld gegevens van gepensioneerden invoert in een systeem dat is getraind op werkende volwassenen, krijg je waarschijnlijk foutieve resultaten.
Voorbereiding
De AI-Act zal naar verwachting de komende jaren in fases worden ingevoerd. Het is voor de verzekeringsbranche van groot belang om tijdig te beginnen met de aanpassing aan de nieuwe regels om juridische complicaties te voorkomen.
De AI-Act vormt een belangrijke stap voorwaarts in de regulering van kunstmatige intelligentie binnen de Europese Unie. Voor de verzekeringsbranche betekent dit dat ze nu duidelijke richtlijnen hebben over hoe ze AI op een verantwoorde manier kunnen inzetten. De wet verplicht hen om ethische normen in acht te nemen, zorgvuldig om te gaan met data, en transparant te zijn over de werking van hun systemen. Hoewel de regels streng zijn, bieden ze ook een kader voor innovatie binnen een veilige en gecontroleerde omgeving. Door nu te beginnen met de implementatie van deze regels, kunnen we niet alleen voldoen aan de wetgeving, maar ook een concurrentievoordeel behalen in een snel digitaliserende markt.