Dlaczego potrzebujemy wyjaśnień dla modeli sztucznej inteligencji?

0
597

W ostatnich latach przedmiotem rosnącego zainteresowania aktuariuszy są modele oparte na skomplikowanych strukturach, nazywane też modelami sztucznej inteligencji (AI) lub modelami uczenia maszynowego (ML). Jednak ich zastosowanie przez praktyków w obszarze aktuariatu jest ograniczone, ponieważ wymagają dostosowania do obowiązujących regulacji.

Modele uczenia maszynowego zyskały popularność w wielu branżach ze względu na ich wyższą moc predykcyjną w porównaniu z prostymi metodami. Mówimy tu o modelach m.in. lasów losowych oraz głębokich sieci neuronowych. Potrafią one wykryć nietrywialne zależności pomiędzy zmiennymi, przez co lepiej dopasowują się do danych i przekładają się na lepsze predykcje.

Również w zastosowaniach aktuarialnych rośnie zainteresowanie modelami ML, ale głównie do wyceny ubezpieczeń majątkowych i komunikacyjnych (ang. property and casualty (P&C)). Wykorzystanie ich jest nadal bardzo rzadkie ze względu na regulacje i wymagania przejrzystości modelu.

Interpretowalność?

Wśród badaczy tematu interpretowalności nie ma zgody co do jego definicji, często jest przedstawiany jako zdolność do wyjaśnienia lub przedstawienia w sposób zrozumiały dla specjalisty w danej dziedzinie.

Z innej perspektywy można wnioskować, że metoda jest interpretowalna, jeśli użytkownik może poprawnie i efektywnie przewidzieć jej wyniki.

Obecnie aktuariusze stosują modele matematyczne oparte na uogólnionych modelach liniowych (ang. generalized linear models – GLM), które są interpretowalne. Modele te możemy rozumieć jako średnią ważoną, gdzie wagi odpowiadają sile wpływu każdej ze zmiennych na końcowy rezultat.

W przeciwieństwie do modeli interpretowalnych, czyli na przykład wcześniej wspomnianej regresji liniowej czy drzew decyzyjnych, skomplikowane algorytmy są określane mianem „czarnych skrzynek” – modeli, co do których nie mamy informacji, jakie zależności odkryły (powiązania pomiędzy zmiennymi, tzw. interakcje), ani nie jesteśmy w stanie poprawnie przewidzieć ich wyników. W celu ich rozumienia potrzebujemy wyjaśnień.

Wyjaśnialność?

Wyjaśnialna sztuczna inteligencja (ang. explainable artificial intelligence (XAI)) jest dość nowym obszarem badań specjalistów w dziedzinie ekstrakcji wiedzy z danych (data science). Globalna wielkość rynku XAI szacowana jest na 3,55 mld dol. w 2019 r. i przewiduje się, że do 2030 r. osiągnie 21,78 mld dol. przy średniej rocznej stopie wzrostu (ang. compound annual growth rate (CAGR)) na poziomie 20,1% w latach 2020–2030.

Zbiór metod XAI, czyli takich, które pozwalają w przybliżony sposób opisać i uprościć zrozumienie skomplikowanych modeli, nazywamy wyjaśnieniami. Wyróżniamy dwie grupy metod: wyjaśnienia globalne i wyjaśnienia lokalne.

W perspektywie globalnej chcemy zbadać zachowanie oraz własności modelu. Chcemy np. poznać, jak zmieni się cena produktu ubezpieczeniowego przy różnych poziomach wieku ubezpieczonego. Analiza takich zachowań dla modeli interpretowalnych jest prosta, natomiast dla złożonych modeli możliwa tylko dzięki użyciu narzędzi XAI.

Przechodząc do perspektywy lokalnej, skupiamy się na pojedynczej jednostce. Przykładowo chcemy poznać dla ubezpieczonego Kowalskiego, jakie czynniki i w jakim stopniu wpłynęły na cenę jego ubezpieczenia. Ponownie, jak w przypadku wyjaśnień globalnych, jest to możliwe dla modeli czarnych skrzynek tylko dzięki metodom XAI.

Co zyskujemy, stosując wyjaśnienia modeli ML?

Korzystając z metod wyjaśnień dla wielowymiarowych modeli, umożliwiamy ubezpieczycielom lepszy wgląd w ich zachowanie. W rezultacie przekłada się to również na bardziej adekwatną strategię cenową czy kalkulację ryzyka, która z jednej strony zapewnia transparentność dla ubezpieczonych, a z drugiej większą kontrolę nad wynikiem modelowania przez osoby podejmujące kluczowe decyzje w ubezpieczeniach.

W kontekście klasyfikacji ryzyka wyjaśnienia mogą zapewnić organy regulacyjne oraz opinię publiczną, że akceptowalne zasady ustalania składek są przestrzegane. Brak możliwości interpretacji jest kluczową barierą uniemożliwiającą szersze przyjęcie i eksplorację modeli uczenia maszynowego w wycenach.

Metody oferowane przez XAI mogą zatem stanowić ważny krok w uwolnieniu potencjału uczenia maszynowego w branży ubezpieczeniowej.

Anna Kozak
data scientist z kilkuletnim doświadczeniem w projektach związanych z branżą ubezpieczeniową i telekomunikacyjną. Specjalistka w zakresie wyjaśnialnej AI oraz wizualizacji danych. W Quantee prowadzi prace badawcze w obszarze data science w aktuariacie. Dodatkowo prowadzi badania w obszarze odpowiedzialnego ML oraz eksploracji danych w grupie MI². Wykładowczyni na Politechnice Warszawskiej.