Do tej pory w naszym cyklu artykułów na temat AI w branży ubezpieczeń podejmowaliśmy tematy związane z zaletami, możliwościami i praktycznymi zastosowaniami. Tym razem przyjrzymy się drugiej stronie medalu – potencjalnym ryzykom i temu, jak można je zminimalizować.
Ryzyka te dzielą się na dwie kategorie: ryzyka technologiczne i użytkowe.
Ryzyka technologiczne
Poufność danych
To główne ryzyko technologiczne. Rozwój AI znacząco ułatwia gromadzenie, przechowywanie i przetwarzanie informacji, a tym samym danych osobowych, na niespotykaną dotąd skalę. Ryzyko ich wycieku jest głównym źródłem niepokoju i nieufności konsumentów. By zagwarantować bezpieczeństwo przetwarzanych danych, firmy zbierające je zazwyczaj decydują się na wdrażanie systemów AI na własnych serwerach.
Charakterystyka czarnej skrzynki systemów AI, zwłaszcza generatywnej, sprawia, że proces decyzyjny algorytmów AI jest trudny do zrozumienia. Jednocześnie sektor ubezpieczeń jest branżą ściśle regulowaną, w której przejrzystość, wytłumaczalność i możliwość przeprowadzenia audytu algorytmów ma kluczowe znaczenie.
Ryzyka użytkowe
Niedokładność działania modeli AI
Działanie systemu AI w dużej mierze zależy od danych, na których się uczy. Jeśli jest szkolony na niedokładnych, stronniczych lub splagiatowanych danych, przyniesie niepożądane rezultaty, nawet jeśli jest dobrze zaprojektowany pod względem technicznym.
Dlatego skuteczne voiceboty i chatboty dla branży ubezpieczeń powinny być trenowane na danych dziedzinowych, zapisach rozmów z klientami itd. Użytkownicy ubezpieczeniowej AI muszą mieć świadomość, że ograniczenia jakości danych wejściowych potencjalnie zmniejszają dokładność ich modelu analitycznego.
Użytkownicy AI mogą mieć trudności z określeniem odpowiedniego poziomu zaufania wobec niej, ponieważ nie wiedzą, co ona potrafi i jak dobrze może działać. W wyniku tego zaczynają nadmiernie na niej polegać i akceptować jej nieprawidłowe zalecenia.
Jak ograniczyć ryzyka?
Dotychczasowe systemy i programy dla branży ubezpieczeń były oparte na regułach, gdzie ubezpieczyciele mogą wyjaśnić logikę decyzji. Wdrożenia programów opartych na AI wymagają jeszcze ściślejszej współpracy człowieka z technologią.
Aby ograniczyć ryzyka, proponuje się podejście oparte na zarządzaniu poprzez decyzje człowieka (ang. Human-led governance) – człowiek projektuje drzewko decyzyjne, definiuje zachowanie chatbotów oraz sprawdza zachowanie technologii.
- Zacznij od programu szkoleniowego, aby zwiększyć świadomość pracowników zaangażowanych w opracowywanie, wybieranie lub używanie narzędzi AI w celu zapewnienia zgodności z oczekiwaniami.
- Przeprowadź program oceny dostawców, tak by wybrać technologię AI najlepiej dobraną do potrzeb i procesów biznesowych.
- Ustal środki egzekwowania zasad, aby określić normy, role i zakresy odpowiedzialności, procesy zatwierdzania i wytyczne dotyczące korzystania i wdrażania technologii AI.
Technologia sztucznej inteligencji nieustannie dojrzewa, a liczba przypadków jej używania się zwiększa. Ubezpieczyciele nie powinni się jej obawiać, lecz wnieść do jej rozwoju swoją wiedzę. Ich umiejętność zapewniania jakościowych danych ze sprawdzonych źródeł zwiększy możliwość bezpiecznego i kontrolowanego stosowania AI w tej branży.
Agnieszka Uba
SentiOne