15 grudnia 2022

Systemy sztucznej inteligencji klasyfikowane jako systemy wysokiego ryzyka?

Autor: Bartosz Bigaj

Prace nad Rozporządzeniem dotyczącym sztucznej inteligencji (AI Act) nabierają tempa. 6 grudnia swoje stanowisko w sprawie AI Act przedstawiła Rada obradująca obecnie w ramach czeskiej prezydencji. Chce, aby systemy sztucznej inteligencji w ubezpieczeniach klasyfikować jako systemy wysokiego ryzyka.

Ubezpieczyciele nie mogą być zadowoleni z propozycji Rady, która zdecydowała się do listy systemów wysokiego ryzyka (tzw. high risk) dodać także systemy AI przeznaczone do oceny ryzyka i wyceny składki dla osób fizycznych w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych. Klasyfikacja ta nie będzie dotyczyć mikro- i małych przedsiębiorstw. Pozostałe obszary działalności ubezpieczeniowej, takie jak likwidacja szkód, nie będą klasyfikowane jako działalność high risk.

Konsekwencje stanowiska Rady

Stanowisko Rady nie oznacza jeszcze, że systemy AI stosowane przez ubezpieczycieli zostaną ostatecznie zakwalifikowane jako high risk. Rada jest obok Parlamentu Europejskiego i Komisji jednym z trzech unijnych legislatorów. Bazowała na wcześniejszym projekcie Komisji Europejskiej, która nie dostrzegła zwiększonego ryzyka w korzystaniu ze sztucznej inteligencji przez ubezpieczycieli. Decydujące znaczenie w ostatecznej wersji przepisów będzie miało stanowisko Parlamentu, który jeszcze pracuje nad swoimi poprawkami. Parlamentarzyści są póki co podzieleni w tej kwestii.

Dlaczego rynek krytycznie ocenia stanowisko Rady?

Stanowisko Rady zostało skrytykowane m.in. przez Insurance Europe – Insurers criticise inclusion of sector in AI Act high-risk list without prior impact assessment. Nie sposób nie zgodzić się z argumentami Insurance Europe. Rada umieściła działalność ubezpieczeniową na liście wysokiego ryzyka bez przeprowadzenia jakiejkolwiek analizy lub oceny wpływu. Co, jak słusznie wskazuje Insurance Europe, jest sprzeczne z celami unijnego programu lepszego stanowienia prawa. Rada nie wykazała także, że obecne regulacje sektora ubezpieczeniowego (zarówno na poziomie unijnym oraz krajowym) są niewystarczające dla regulowania sztucznej inteligencji. Nie wskazała też na konkretne dowody, że wykorzystanie AI w działalności ubezpieczeniowej narusza prawa ubezpieczonych.

Ze stanowiska Rady możemy dowiedzieć się jedynie, że systemy AI w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych, które, jeśli nie zostaną należycie zaprojektowane, opracowane i wykorzystane – mogą prowadzić do poważnych konsekwencji dla życia i zdrowia ludzi, w tym do wykluczenia finansowego i dyskryminacji. Rada zapomniała przy tym, że wykorzystania sztucznej inteligencji przez zakłady ubezpieczeń niesie ze sobą wiele korzyści. Przykładowo lepszą analizę ryzyka i możliwość ubezpieczania chorób dotychczas trudno ubezpieczalnych. O korzyściach stosowania sztucznej inteligencji w sektorze ubezpieczeniowym pisaliśmy także na blogu PIU w lipcu Sztuczna inteligencja (AI) – science fiction czy już rzeczywistość?

Czy mali faktycznie generują mniejsze ryzyko?

Wyłączenie mikro i małych przedsiębiorców z wymogów dotyczących systemów high risk nie wydaje się być właściwym zastosowaniem zasady proporcjonalności. Wielkość podmiotów korzystających ze sztucznej inteligencji nie wyznacza ryzyka, które generują ich systemy AI. Co więcej, wyłączenie mikro i małych przedsiębiorstw z wymogów przewidzianych dla systemów wysokiego ryzyka może stanowić zachętę do tworzenia małych spółek zajmujących się AI.

Rada głucha na głos EIOPA

Stanowisko Rady rozczarowuje nie tylko dlatego, że nie uwzględnia analizy wpływu (impact assesment) Komisji Europejskiej, ale jest też sprzeczne z postulatami EIOPA (Letter to co-legislators on the Artificial Intelligence Act), której zdaniem wykorzystania AI w działalności ubezpieczeniowej nie generuje wysokiego ryzyka w rozumieniu AI Act. EIOPA wskazała, że kwestia ta wymaga dalszej analizy i wpisała ją do planu swoich prac na lata 2023-2025. Wydaje się zatem, że prace nad AI są kolejnym dobrym przykładem złej regulacji. Rada wyprzedza unijnego nadzorcę, który dopiero będzie analizował potrzebę regulacji zasad wykorzystania sztucznej inteligencji na rynku.

Nie możemy tracić potencjału nowych technologii

Dodatkowe wymogi mogą zniechęcić zakłady ubezpieczeń do korzystania ze sztucznej inteligencji i tym samym zmniejszą potencjał nowych technologii. Szczególnie w krajach takich jak Polska, gdzie innowacja stanowi jeden z istotnych elementów konkurencji z globalnymi graczami w UE. Zniechęcać będą także wysokie kary przewidziane w projekcie rozporządzenia – kary administracyjne w wysokości do 30 000 000 EUR lub 6% rocznego światowego obrotu z poprzedniego roku obrotowego.

Cztery poziomy ryzyka korzystania z AI

Komisja projektując Rozporządzenie w sprawie sztucznej inteligencji wskazała na cztery poziomy ryzyka w korzystaniu AI:

  • Nieakceptowalne ryzyko
  • Wysokie ryzyko
  • Ograniczone ryzyko
  • Minimalne ryzyko lub brak

Systemy AI przeznaczone do oceny ryzyka i wyceny składki osób fizycznych w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych zostały zatem wpisane do najwyższej kategorii dopuszczalnego ryzyka w stosowaniu AI. Bardziej rygorystycznym rozwiązaniem było zakazanie z korzystania z AI przez ubezpieczycieli.

Jakie są konsekwencje zakwalifikowania działalności ubezpieczeniowej jako systemów wysokiego ryzyka?

Konsekwencje uznania, że systemy AI przeznaczone do oceny ryzyka i wyceny składki osób fizycznych w ubezpieczeniach na życie i ubezpieczeniach zdrowotnych wykorzystywałyby restrykcyjne wymogi korzystania ze sztucznej inteligencji, to m.in.:

  • Ustanowienie, wdrożenie dokumentacji i utrzymania systemu zarządzania ryzykiem
  • Opracowanie zbiorów danych treningowych
  • Stworzenia dokumentacji technicznej dla systemu sztucznej inteligencji wysokiego ryzyka
  • Zapewnienie, aby systemy AI zawierały funkcję automatycznego rejestrowania zdarzeń i ewidencjonowania tych zdarzeń
  • Zapewnienie przejrzystości działania systemów sztucznej inteligencji umożliwiających interpretacje wyników działania sytemu i ich właściwe wykorzystanie
  • Zapewnienie, że system sztucznej inteligencji  uwzględnia odpowiednie narzędzia interfejsu człowiek-maszyna, aby w okresie wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne
  • Zapewnienie, że system sztucznej inteligencji ma odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz konsekwentnego działania pod tymi względami w całym cyklu życia produktu
Cztery kroki wdrożenia systemów AI wysokiego ryzyka

Przed wprowadzeniem do obrotu systemu AI wysokiego ryzyka konieczna byłaby procedura oceny zgodności z wymaganiami zawartymi AI Act. Obejmowałaby cztery kroki.

Krok 1 – Stworzenie systemu AI wysokiego ryzyka

Krok 2 – System musi przejść ocenę zgodności ze wszystkimi wymogami rozporządzenia

Krok 3 – System musi zostać  zarejestrowany w unijnej bazie

Krok 4 – Dostawca systemu będzie musiał podpisać deklarację zgodności z regulacjami; system musi posiadać oznakowanie CE. Można wprowadzić go na rynek.

Dopiero po przejściu wszystkich kroków system może zostać wprowadzony na rynek. Jednak jeżeli w cyklu życia systemu zajdą istotne zmiany, trzeba będzie wrócić do drugiego kroku – czyli jeszcze raz przeprowadzić ocenę zgodności systemu z wymogami rozporządzenia.

Co dalej?

Piłka jest nadal w grze. Ubezpieczyciele są jednak w defensywie i muszą bronić pierwotnego projektu Rozporządzenia ws. sztucznej inteligencji przygotowanego przez Komisję. Czekamy na ostateczne stanowisko Parlamentu Europejskiego, które pojawi się prawdopodobnie jeszcze w tym roku lub na początku przyszłego. Po opublikowaniu wersji Parlamentu rozpocznie się okres tzw. trilogów, czyli trójstronnych negocjacji pomiędzy Komisją, Parlamentem i Radą (w tym wypadku już pewnie pod szwedzkim przewodnictwem). Szkoda, że na tym etapie Rada nie wykorzystała szansy i nie opowiedziała się za budowaniem konkurencyjnej unijnej gospodarki w zakresie usług ubezpieczeniowych w oparciu o rozwój nowych technologii.