25 lat analityki danych w ubezpieczeniach

0
594

Rozmowa z Markiem Wilczewskim, dyrektorem Biura Zarządzania Informacją Grupy PZU

Aleksandra E. Wysocka: – Od samego początku swojej kariery pracuje Pan w świecie danych. Jakie widzi Pan zmiany, które zaszły w tym obszarze w ostatnich ponad 20 latach?

Marek Wilczewski: – Tradycyjnie analizy danych były postrzegane jako element świata matematyki czy rachunkowości. Obecnie wkraczają one w wiele innych dziedzin. Dzięki temu możemy obserwować różne zjawiska, także społeczne.

Dostępność źródeł informacji, rozwój technologii, dziedzin modelowania danych oraz kompetencji użytkowników powoduje, że tych analiz będzie coraz więcej. W tym momencie sztuką jest wykreowanie z nich prawdziwej wartości, tak aby zapewnić organizacji istotną przewagę konkurencyjną poprzez wzrost przychodów czy rentowności, jak również uzyskanie trwałych korzyści dla klienta. To wszystko wymaga odpowiedniej wizji i systemowego podejścia – nie da się tego osiągnąć jednym projektem. Podejście od projektu do projektu również się nie sprawdza.

To ciągły proces, który bierze przede wszystkim pod uwagę otoczenie na płaszczyźnie wielowymiarowej. Charakterystyka danych, ich wielkość czy typ się zmieniają. Mamy coraz więcej nowoczesnych urządzeń, z których możemy je pozyskiwać – nie są to wyłącznie dane statyczne, lecz również dane dynamiczne w czasie rzeczywistym. Organizacja się zmienia, gdyż wdrażamy różne inicjatywy, projekty, produkty czy systemy. Zmienia się jej struktura wewnętrzna, ale także konkurencja oraz, przede wszystkim, klient i jego oczekiwania.

Dane, które posiadamy, zarówno historyczne, aktualne, jak też wszystkie prognozy, którymi kieruje się organizacja, stanowią podstawę do tego, żeby te zmiany wspierać i móc się do niech dostosowywać. Człowiek obserwuje świat, który składa się z faktów. Wystarczy tylko przełożyć je na liczby, na podstawie których podejmiemy właściwe decyzje biznesowe.

Sektor ubezpieczeniowy był jednym z pierwszych, który systemowo wykorzystywał analitykę danych w działalności biznesowej. Ma w tym dziesiątki lat doświadczenia! Początkowo były to informacje o katastrofach statków, pożarach czy tablice umieralności. Teraz tych danych jest bez porównania więcej.

– W Grupie PZU, w której pracuję przez całe moje życie zawodowe, skok nastąpił w końcówce lat 90. XX w. Już wtedy posiadaliśmy duże zbiory danych, ponieważ gromadziły je nasze systemy, w zasadzie niemal od samego początku komputeryzacji w Polsce. Dzięki temu mieliśmy na czym budować kolejne elementy raportowe i analityczne. Ich wypracowywanie realizowane było początkowo w dziale IT. W tamtym czasie deweloperzy mieli tę przewagę, że potrafili zintegrować te dane, odpowiednio je przetworzyć i później udostępnić pozostałym obszarom firmy.

Jednak dość szybko organizacja zorientowała się, że tak naprawdę technologia jest rzeczą wtórną. Najważniejsza jest zawartość przez nią przetwarzana. Na początku lat dwutysięcznych powstało Biuro Zarządzania Informacją, które funkcjonuje do dzisiaj. Zajmuje się ono tym, aby z danych dostarczyć wiedzę poprzez adekwatne procesy ich kolekcjonowania, transformacji i udostępniania.

Powstały dzięki temu obszary informacyjne, które służyły m.in: ocenie szkodowości, ryzyka, wsparciu underwritingu czy rozliczeniu sprzedaży. W ten sposób iteracyjnie budowaliśmy korporacyjną hurtownię danych wraz z systemami raportowymi i analitycznymi. W pewnym momencie rozwiązania zaczęły być wykorzystywane w całej organizacji. Przygotowywaliśmy wystandaryzowane raporty z możliwością drążenia danych, przestawiania układów czy też tworzenia własnych analiz.

Dzisiaj poszliśmy dość mocno w kierunku tak zwanego self-serwisu. To jednostki biznesowe samodzielnie wykonują pewne transformacje na danych i układy raportowe. Analitycy mają dostęp do hurtowni danych i do naszych narzędzi Business Intelligence. Oczywiście kluczowe procesy integracji i transformacji danych nadal są realizowane przez Biuro Zarządzania Informacją, tak żeby ta informacja była wiarygodna, kompletna, spójna oraz wystandaryzowana, a procesy odpowiednio zoptymalizowane, zautomatyzowane i powtarzalne.

Warto dodać, że w tej drodze towarzyszyło nam wielu zewnętrznych dostawców rozwiązań i technologii. Relacje oraz właściwa współpraca z nimi przekładają się bezpośrednio na to, jakie rozwiązania ostatecznie powstają. Nasz strategiczny dostawca od niemal samego początku rozwoju analityki w PZU, firma SAS Institute, jest tego doskonałym przykładem. To wiarygodny i świadomy partner, rozumiejący nasze potrzeby biznesowe oraz w sposób transparentny potrafiący zaproponować adekwatne komponenty ekosystemu raportowania i analityki, kreatywnie współtworząc z nami strategię i wizję rozwoju tego obszaru.

Duża liczba danych to zasób, ale też wyzwanie dla organizacji…

– Dlatego należy we właściwy sposób nimi zarządzać, gdyż łatwo wygenerować chaos informacyjny. Jeżeli mamy kilkuset użytkowników zaawansowanych i parę tysięcy takich, którzy korzystają z rozwiązań BI, trzeba to odpowiednio zorganizować, stworzyć pewną kulturę w organizacji, ustandaryzować pojęcia, miary, wymiary, hierarchie stosowane czy słowniki.

Wszyscy w organizacji musimy dbać o jakość informacji, co jest trudne, jeżeli nie mamy wdrożonych w pełni dojrzałych procesów zarządzania danymi (Data Governance) z odpowiedzialnością ich właścicieli.

Jeżeli chodzi o zapobieganie drobnym błędom, technologia zdaje się bardzo pomaga…

– Technologia na pewno tak, ale też procesy, bo cała sfera zarządzania danymi składa się w zasadzie z czterech fundamentalnych elementów. Po pierwsze, to kwestia doboru odpowiednich ludzi i ich kompetencji. Po drugie, tego jak sama organizacja jest zbudowana i tymi danymi zarządza, w tym jak zapewnia ich odpowiednią jakość. Po trzecie, realizacja na podstawie odpowiednich procesów i na koniec jest technologia.

Procesy są bardzo istotnym elementem, bo siłą rzeczy technologia i systemy wspierają osiągnięcie wyższej jakość danych, ale zawsze dzieje się to kosztem czegoś. Im więcej walidacji na wejściu, tym proces jest dłuższy, a więc bardziej skomplikowany dla klienta czy pośrednika. Trzeba więc znaleźć złoty środek pomiędzy komplikacją w celu osiągnięcia stuprocentowej wiarygodności danych a prostotą procesów po stronie klienta.

Tam, gdzie mamy wystandaryzowane produkty i oczekujemy prostych ścieżek sprzedażowych, chcemy mieć maksymalną walidację już w systemach na podstawie zdefiniowanych parametrów. Wtedy uzyskanie wiarygodności danych jest łatwiejsze. Natomiast są biznesy i obszary mniej standardowe. Wtedy tych walidacji jest mniej, za to na wadze zyskują procesy kontrolne na różnych poziomach, które pozwolą nam ocenić jakość danych i podjąć działania w celu ich poprawy.

To jest taka pętla zwrotna…

– Tak, i dość trudno jest o nią w organizacjach. Sztuka nie polega na przeczyszczeniu danych jednorazowo czy na końcu procesów. Ważne, żeby już na wejściu do systemu źródłowego były one coraz lepszej jakości. Dzisiaj wiele elementów jest walidowanych w systemach front-end. Kiedyś polisy wystawiano w wersji papierowej, a następnie były wprowadzane do systemów.

Teraz w zasadzie mamy sprzedaż w czasie rzeczywistym, dzięki technologiom online i cyfryzacji procesów. Często klient sam wprowadza dane i jeśli postaramy się dać mu proste i intuicyjne aplikacje, które nie pozwolą mu wprowadzić rzeczy niewłaściwych albo niekompletnych, to łatwiej zadbamy o wiarygodność danych wewnątrz organizacji.  

Jakie mógłby Pan wymienić kamienie milowe w tym obszarze? Zmiany, które rzeczywiście były odczuwalne biznesowo?

– Trudno tu wyróżnić taki jeden święty Graal wśród projektów analitycznych, jakie wdrożyliśmy w ciągu ostatnich ponad 20 lat. Ale myślę, że najważniejszym etapem było stworzenie fundamentu, czyli korporacyjnej hurtowni danych.

Poza tym wdrożenia analityki CRM, czyli uzyskanie wiedzy o naszych klientach: jakie posiadamy segmenty, jakimi kanałami do nas docierają, z czego korzystają, jakie mają portfolio produktowe, co należy im zaoferować na kolejnym etapie ich cyklu życia.

W przypadku spółek ubezpieczeniowych jest też druga strona, czyli wypłaty odszkodowań i realizacja zobowiązań. I tu przykładem mogą być rozwiązania przeciwdziałania przestępczości ubezpieczeniowej i wyłudzeniom (Fraud Management System), gdzie oprócz rozwiązań data mining (wyszukiwanie nieoczywistych wzorców i związków w danych) stosujemy również analitykę na podstawie sieci powiązań czy technik text mining (rozpoznawanie tekstu). To duże projekty, które pokazały wartość, jaką da się wykreować z danych.

Posiadamy ponad 90 tys. atrybutów o różnych obiektach z ponad 100 systemów źródłowych wewnętrznych i zewnętrznych. Jest to wiedza o klientach, umowach ubezpieczenia, szkodach czy transakcjach finansowych. To jest bardzo dużo informacji, które musimy poukładać w sposób tematyczny, żeby udostępnić odbiorcom to, co dla nich jest naprawdę istotne.

Podczas ostatniego „InsuranceInnovation Day” organizowanego przez SAS, Waszego wieloletniego dostawcę, mieliśmy okazję rozmawiać o wielu zastosowaniach i barierach dla analityki danych w ubezpieczeniach. Stosunkowo nowym obszarem jest ESG, czyli zespół nowych regulacji, który będzie też miał swoje konsekwencje dla obszaru danych. Jak to wygląda z punktu widzenia PZU?

– Grupa PZU już teraz realizuje wiele inicjatyw związanych ze zrównoważonym rozwojem, jesteśmy aktywnym uczestnikiem zielonej transformacji energetycznej. To bardzo ważny temat. Rozwijamy ofertę produktową ukierunkowaną np. na promowanie rozwiązań fotowoltaiki czy farm wiatrowych, posiadamy flotę samochodów elektrycznych itd.

Problem polega na tym, że jeszcze nie wszystko jest w sposób właściwy ocechowane w danych. I tutaj widzę pewne zagadnienie z tym związane. Bo żeby właściwie zaraportować, na ile wspieramy „zielone” działania i branże, na wejściu musimy zadbać przede wszystkim o standaryzację i zasady ewidencyjne danych. Intuicyjnie wszyscy czujemy, że warto to robić, natomiast twardych podstaw i kalkulacji jeszcze w pełni nie mamy.

Myślę, że świat dopiero zdał sobie sprawę, że przyszłość, jeżeli o nią nie zadbamy tu i teraz, nie będzie różowa. I tutaj ubezpieczyciele mają tę przewagę, że od zawsze myślą długoterminowo i prewencyjnie, będąc partnerem dla swoich klientów w promowaniu właściwego stylu życia czy odpowiednim prowadzeniu biznesu. Równolegle z dyskusjami o ESG powinniśmy już dzisiaj rozmawiać o tym, jak chcemy związane z nimi kwestie raportować i monitorować, jak mamy zbierać te informacje i w jakich kategoriach. Bowiem elementy taksonomiczne i regulacje, które w tej chwili są dostępne, znajdują się jeszcze na zbyt dużym poziomie ogólności. I myślę, że będą przekładane na regulacje wewnętrzne, krajowe i coraz bardziej doszczegóławiane. Ale to proces, który pewnie zajmie kilka lat.

Jaki jest Pana ulubiony projekt, nad którym teraz pracujecie?

– Tych projektów jest bardzo dużo, ale wymienię dwa, które uważam za szczególnie istotne. Po pierwsze, rozwijamy analitykę związaną z systemem CRM, zmierzając w kierunku dołączenia danych pochodzących z kanałów cyfrowych i wykorzystania interakcji z klientami. W ten sposób będziemy wiedzieli więcej o zachowaniach naszych klientów i będziemy w stanie jeszcze lepiej personalizować przeznaczone dla nich oferty, a także domykać ścieżki sprzedażowe czy projektować doświadczenia w całym cyklu życia (Customer Journey), m.in. poprzez analizy atrybucji, dodatkowe segmentacje czy budowę tożsamości ze śladów cyfrowej aktywności.

Drugi istotny projekt dotyczy obszaru szkód i świadczeń, w ramach którego chcemy wykorzystać zaawansowane modelowanie celem lepszego wsparcia klientów przy wyborze optymalnych ścieżek kierowalności przy obsłudze szkody czy też dopasowania form rozliczenia. Rozwijamy też procesy oparte na rozpoznawaniu obrazu w celu automatyzacji oszacowań czy też rozpoznawaniu dźwięku i robotyki. W tym przypadku modele analityczne stanowią część silnika decyzyjnego.

W tych projektach chcemy połączyć tradycyjną analitykę bazodanową ze światem w czasie rzeczywistym, który działa online, i za pośrednictwem kanałów cyfrowych. Chcemy wykorzystać nasze największe wartości, wiedzę, kompetencje i umiejętności w świecie tradycyjnym, ale też uzupełnić to wszystko o świat innowacyjny AI (sztucznej inteligencji).

Tworzymy fabryki modelowania (Machine Learning) pod kątem tych projektów, tak aby we właściwy sposób wydobyć wartość z danych i zmonetyzować te wszystkie inicjatywy, o których tu mówimy. Wszystko po to, aby ten świat był jeszcze szybszy i pełniejszy z punktu widzenia nas wewnątrz organizacji, ale przede wszystkim z zewnątrz, dla naszych klientów i partnerów biznesowych.

Dziękuję za rozmowę.

Aleksandra E. Wysocka


POBIERZ | SUBSKRYBUJ W iTUNES | SUBSKRYBUJ W SPOTIFY