Nie traćmy cennego czasu osób o wyjątkowych umiejętnościach

0
1520

Kilka lat temu opublikowałem artykuł dotyczący walidacji aktuarialnych modeli prognostycznych. Jedną z jego tez było stwierdzenie, że dla zapewnienia jakości wyników automatyzacja jest niezbędna, ponieważ pozwala na skrócenie czasu spędzanego na czynnościach mechanicznych. Dzięki temu mamy go więcej na analizę wyników. W tamtym okresie miałem też wrażenie, że planowane wejście w życie standardu IFRS17, ze względu na jego wymagania, wymusi automatyzację po stronie procesów aktuarialnych.

Niewątpliwie wdrożenie standardu IFRS17 poniosło za sobą ogromne inwestycje, ale były one przeznaczone głównie na spełnienie wymogów. Nie zawsze udawało się wygospodarować dodatkową energię na automatyzację procesów aktuarialnych lub wprowadzone ulepszenia zaledwie zrekompensowały dodatkowe obowiązki związane z raportowaniem.

Dlaczego warto automatyzować?

Z punktu widzenia aktuariusza jest to pozbycie się lub przynajmniej ograniczenie mechanicznych, nieciekawych, a wręcz nudnych zadań. Z szerszego punktu widzenia przyczynia się to do poprawy efektywności pracy. W wielu firmach, szczególnie w okresie raportowania, aktuariusze są przytłoczeni liczbą manualnych operacji, które muszą wykonać. Dla przykładu możemy tutaj mówić o odświeżeniu kilkudziesięciu arkuszy kalkulacyjnych lub cyklicznym uruchamianiu kolejnych obliczeń i kopiowaniu danych lub wyników pomiędzy tymi obliczeniami.

W efekcie tracimy cenny czas osób o unikalnych umiejętnościach, które powinny spożytkować go na dokładną analizę wyników, ich walidację oraz interpretację od strony biznesowej. Nie należy też zapominać o ryzyku operacyjnym popełnienia błędu, którego raz na jakiś czas trudno uniknąć nawet aktuariuszowi – w szczególności, kiedy pracuje pod presją czasu.

O jakich procesach mówimy?

Przyjmując, że etap potencjalnej aktualizacji kodu modelu przepływów pieniężnych, wraz z jego odpowiednim przetestowaniem mamy już za sobą, na bardzo ogólnym poziomie proces obliczeniowy możemy podzielić na następujące etapy:

  • przygotowanie danych wejściowych, takich jak dane polisowe oraz prawdopodobieństwa zajść przyszłych zdarzeń (założenia aktuarialne),
  • zasilenie modeli aktuarialnych danymi,
  • wykonanie obliczeń,
  • odczyt i walidacja wyników.

Przygotowanie danych polisowych to najczęściej operacje na bazach danych, w dużej mierze wykonywane przez działy IT. Zdarza się jednak, że ostatnie kroki takiej obróbki danych nadal wykonywane są przez aktuariuszy. Przez zasilenie modeli aktuarialnych mam na myśli przeniesienie wcześniej przygotowanych danych do oprogramowania służącego do projekcji przepływów pieniężnych. Brak automatyzacji tego etapu zwykle niesie ze sobą duże ryzyko błędów operacyjnych.

Następny etap, czyli wykonanie obliczeń, zazwyczaj oznacza sparametryzowanie wielu przeliczeń, z których każde wymaga odpowiednich danych polisowych oraz odpowiednich założeń aktuarialnych, a następnie uruchomienia ich sekwencyjnie w ustalonej kolejności. Jest to proces czasochłonny, którego na pewno nie chcemy powtarzać ze względu na przypadkowo popełniony błąd. Po wykonaniu obliczeń wyniki trzeba zweryfikować oraz ostatecznie zaimportować do docelowych raportów. Bardzo często jest to proces angażujący wiele arkuszy obliczeniowych i generujący duże ryzyka operacyjne.

W gruncie rzeczy dopiero weryfikacja wyników jest etapem, na którym aktuariusz powinien się skoncentrować. Chcemy mieć przecież pewność, że wyniki są poprawne, a do takiej oceny doświadczenie aktuariusza jest niezbędne.

Także w tym miejscu przydatne są dodatkowe rozwiązania. Testy oparte na predefiniowanych algorytmach pomogą wykryć oczywiste błędy, natomiast bardziej rozbudowane testy, oparte na sztucznej inteligencji, potrafią zidentyfikować podejrzane wyniki, na które aktuariusz powinien zwrócić szczególną uwagę.

Dlaczego procesy obliczeniowe są skomplikowane?

Przedstawiony powyżej przykładowy proces obliczeniowy być może nie sprawia wrażenia skomplikowanego. W praktyce mamy do czynienia z wieloma źródłami danych, różnymi systemami polisowymi dla różnych produktów oraz bardzo rozbudowanymi potrzebami raportowymi. Gdyby wszystkie te informacje były znane w momencie projektowania i tworzenia narzędzi wykorzystywanych w procesie obliczeniowym, pewnie byłoby dużo prościej.

Jednak zarówno wymagania raportowe, jak i portfel produktów ubezpieczeniowych zmienia się w czasie, co wymusza ciągłą rozbudowę procesu. A ta zazwyczaj jest najszybsza dzięki dodaniu kolejnego skryptu, arkusza obliczeniowego czy manualnej korekty do już istniejących narzędzi. W efekcie komplikacja procesów obliczeniowych narasta w czasie, aż do momentu podjęcia decyzji o ich przebudowie.

Jak podejść do automatyzacji procesu?

W pierwszej kolejności musimy przeprowadzić gruntowną analizę całego procesu. Należy określić, ile czasu zajmują poszczególne zadania, jakie są możliwości ich automatyzacji i szacowany koszt takiej zmiany oraz korzyści z niej wynikające. Następnie powinniśmy określić cele i oczekiwania stawiane wobec wdrażanej automatyzacji, czyli określić efekt docelowy.

Dojście do celu nie musi być jednak jednorazową, dużą inwestycją. Zmiany można przeprowadzać stopniowo, podchodząc do automatyzacji jako do ciągłego procesu. W trakcie analizy zazwyczaj napotkamy zadania, które są bardzo czasochłonne, natomiast przewidywany koszt ich automatyzacji jest niewielki, czyli tak zwane quick wins. Od takich zadań najłatwiej zacząć, natomiast nie należy na nich poprzestawać.

Przy planowaniu automatyzacji powinniśmy się zastanowić, czy sam proces nie wymaga przebudowy w celu jego uporządkowania lub uproszczenia. Dobrym podejściem jest dążenie do minimalizacji liczby wykorzystywanych narzędzi. Zastępując kilka narzędzi stworzonych do realizacji bardzo wąsko zdefiniowanych zadań jednym, bardziej uniwersalnym, zmniejszymy liczbę punktów styku, na których przekazywane są dane. Należy także przewidzieć odpowiednią liczbę i umiejscowienie punktów kontrolnych, które pozwolą na jak najwcześniejszym etapie wykryć błędy w danych lub generowanych wynikach.

Automatyzacja zwykle rozwiązywana jest poprzez stworzenie specjalnego oprogramowania bądź wykorzystanie odpowiednich narzędzi RPA (Robotic Process Automation). Proste roboty programowe automatyzują procesy oparte na regułach, a ich konfiguracja coraz częściej nie wymaga umiejętności programowania (No Code / Low Code automation). Tam, gdzie trzeba wykonywać bardziej skomplikowane zadania, w grę wchodzi sztuczna inteligencja, która w połączeniu z RPA prowadzi do tak zwanej inteligentnej automatyzacji (IA – Intelligent Automation).

Analiza obecnego procesu oraz określenie efektu docelowego pomogą nam w podjęciu decyzji o tym, jakiego oprogramowania chcemy użyć.

Po wykonaniu zmian należy zaktualizować dokumentację. Powinniśmy dążyć do tego, aby zawierała wszystkie niezbędne informacje do przeprowadzenia procesu przez dowolną osobę, która posiada odpowiednie kompetencje. Eliminujemy wtedy ryzyko osoby kluczowej, która jako jedyna w organizacji potrafi wykonać proces obliczeniowy.

Nie zapominajmy o optymalizacji modeli

Jednym z naszych celów jest ograniczenie czasu potrzebnego na przeprowadzenie obliczeń i zaraportowanie wyników. Bardzo często to czas wykonywania obliczeń przez modele aktuarialne jest kluczowy. Niezależnie od wykorzystywanego oprogramowania aktuarialnego zazwyczaj mamy do dyspozycji podobne środki: rozbudowę infrastruktury IT wykorzystywanej do obliczeń lub wybór rozwiązań chmurowych, grupowanie i optymalizacje danych polisowych oraz optymalizację samego kodu modelu.

Rozbudowa infrastruktury, o ile oprogramowanie na to pozwala, jest rozwiązaniem najszybszym, a redukcję czasu obliczeń da się w tym przypadku łatwo przewidzieć. Grupowanie danych polisowych, a w zasadzie wykorzystanie narzędzi do ich optymalizacji, potrafi wielokrotnie skrócić czas obliczeń. Należy się jednak liczyć z tym, że musimy weryfikować, czy utrata dokładności obliczeń nie jest materialna. W przypadku optymalizacji kodu efekt w dużej mierze zależy od konkretnego modelu. Czasami tak zwane quick wins można osiągnąć po krótkiej pracy z modelem, np. poprzez ograniczenie wykonywanych obliczeń lub granulacji zapisywanych wyników tylko do poziomu niezbędnego dla danego przeliczenia modelu.

Najlepiej przeprowadzić analizę modelu pod kątem optymalizacji, wyznaczyć potencjalne kierunki modyfikacji, a następnie przetestować je np. dla przeliczeń jednego produktu ubezpieczeniowego. Jeśli efekty będą zadowalające, możemy kontynuować prace dla całego portfela ubezpieczeniowego.

Podsumowanie

Automatyzacja to kluczowe narzędzie zwiększające wydajność, ograniczające koszty oraz umożliwiające profesjonalistom skupienie się w większym stopniu na analizach i wnioskowaniu.

W dzisiejszym dynamicznym i stale rozwijającym się środowisku biznesowym automatyzacja staje się koniecznością, a nie wyborem.

Paweł Piętak
partner associate w Dziale Usług Aktuarialnych i Ubezpieczeniowych Deloitte
kieruje Deloitte AMC (Actuarial Modelling Centre)