Om AI op een waardevolle manier in te zetten voor de verzekeringswereld is het belangrijk dat bepaalde uitdagingen worden overwonnen, zoals het ‘black box’-karakter van de techniek. Dit artikel zal dieper ingaan op hoe Explainable Artificial Intelligence (XAI)-technieken de toepassing van AI binnen de verzekeringsbranche kunnen verbeteren en uitdagingen zoals ‘black box’-algoritmes mogelijk kunnen oplossen.
Consumenten en toezichthouders eisen steeds vaker dat de besluitvormingsprocessen van AI transparant, duidelijk en rechtvaardig zijn.
Daarnaast is de eerlijkheid van een model een belangrijke parameter die inzichtelijk moet zijn tijdens de ontwikkeling en implementatie van zo’n model. Met XAI kan men duidelijke en begrijpelijke inzichten bieden in de besluitvormingsprocessen van complexe AI-algoritmes, en opent daarmee de ‘black box’-structuur van deze AI-modellen. Het uiteindelijke doel is om AI-systemen te creëren die gemakkelijk door mensen begrepen en geïnterpreteerd kunnen worden. Binnen de wereld van AI moet er op dit moment een keuze worden gemaakt tussen uitlegbaarheid of een hoog prestatieniveau. Goed uitlegbare modellen, zoals lineaire/logistische regressies, zijn vaak niet in staat om een hoge accuraatheid te bereiken. Aan de andere kant zijn neurale netwerken juist heel accuraat, maar daar is het door een grote hoeveelheid aan (intergeconnecteerde) lagen lastig om inzichtelijk te krijgen hoe de output bepaald is.
Lees dit artikel verder onder Download.
De 'black box' uitgepakt: de mogelijke rol van Explainable Artificial Intelligence voor de verzekeringswereld
Kennisbank •
Axel Pison MSc, dr. Thimo Jacobs , Jens Reil MSc
Axel Pison MSc, dr. Thimo Jacobs , Jens Reil MSc
Kunstmatige intelligentie (AI) is een onmisbare trend geworden, maar deze snelle ontwikkeling brengt ook diverse uitdagingen met zich mee.
