Sztuczna inteligencja a działania organów ścigania
2020-03-17
Po opublikowaniu Białej Księgi dotyczącej sztucznej inteligencji, Komisja LIBE postanowiła, jako kolejny krok, omówić kwestię sztucznej inteligencji w sprawach karnych oraz jej wykorzystanie przez organy ścigania.
Zagadnienie wykorzystania sztucznej inteligencji w działaniach organów ścigania budzi wiele obaw, a także wątpliwości nie tylko ze strony europejskich decydentów, ale przede wszystkim ze strony społeczeństwa, które nadal dysponuje zbyt małą wiedzą na temat tej technologii, niejednokrotnie utożsamiając ją jedynie z aktywnością maszyn czy robotów. Problem ten z pewnością pogłębia brak jednej, uniwersalnej definicji sztucznej inteligencji, co skutkuje nieumiejętnym podawaniem przykładów jej zastosowań, a także ogólnym zwiększeniem obaw społeczeństwa wobec nowych technologii. Warto wskazać, iż niedawno opublikowana Biała Księga również nie zawierała definicji sztucznej inteligencji. Nadmieniono jedynie, iż przyszła definicja obejmować będzie słowa dane oraz algorytmy.
Podczas dyskusji zwrócono szczególną uwagę na nowe rodzaje przestępstw, które wykorzystują sztuczną inteligencję, jak choćby cyberprzestępczość, zorganizowane formy przestępczości polegające na przechwytywaniu płatności i przekazywaniu na wskazane konta bankowe, tworzenie fałszywych kont i domen internetowych, interwencja w procesy wyborcze, deepfakes, czy dezinformacja.
Ważne miejsce w debacie zajął temat stosowania technologii rozpoznawania twarzy przy wykorzystywaniu sztucznej inteligencji. Obecnie stosuje się tę technologię w celach prewencyjnych i identyfikacyjnych, jednak ciągle pojawiają się obawy związane z niewłaściwym wykorzystaniem pozyskanych danych biometrycznych. Co więcej, istnieje realne ryzyko dyskryminacji oraz nieuzasadnionej kryminalizacji będące konsekwencją użycia nieodpowiednich danych wejściowych. Nie można bowiem zapominać o tym, iż jakość danych wejściowych przetwarzanych przez dane algorytmy bezpośrednio rzutuje na jakość danych wyjściowych, a więc tych, które otrzymujemy jako końcowy efekt przetwarzania danych. W wątpliwość poddano możliwość wykorzystania na szeroką skalę technologii rozpoznawania twarzy w miejscach publicznych, która powinna zostać uprzednio dokładnie omówiona i precyzyjnie uregulowana, gdyż bez podjęcia tych kroków może ona naruszać prawa podstawowe, a przede wszystkim prawo do prywatności. Zgodnie stwierdzono, że kluczową kwestią jest stopień kontroli jaki technologia rozpoznawania twarzy pozostawia człowiekowi.
Skupiając się na wykorzystaniu sztucznej inteligencji w działaniach organów ścigania, członkowie Komisji LIBE przywołali konkretne przykłady zastosowania technologii w aktywności organów ściągania. Obecnie stosuje się sztuczną inteligencję do prognozowania gdzie należy prowadzić działania policyjne oraz kogo należy poszukiwać. Ponadto jest ona niezwykle pomocna w praktykach przewidywania tendencji w przestępczości - Wielka Brytania oraz Stany Zjednoczone już stosują sztuczną inteligencję, aby zidentyfikować osoby, które z dużym prawdopodobieństwem ponownie popełnią przestępstwo i tym samym organy ścigania próbują zapobiec recydywie. Praktyki te jednak po raz kolejny dla dużej grupy osób jawią się jako wątpliwe, gdyż ich nadużywanie bądź też nieumiejętne stosowanie może doprowadzić do naruszenia praw podstawowych oraz przepisów RODO. Co więcej, zwrócono uwagę na liczne wątpliwości w kwestii profilowania potencjalnych przestępców, gdyż możliwe są działania dyskryminacyjne organów ścigania korzystających ze sztucznej inteligencji. Algorytm odzwierciedla i intensyfikuje bowiem tendencje obecne w historycznych danych. Uprzedzenia "wbudowane" w dane mogą bezpośrednio wpływać na prawo do sprawiedliwego procesu czy zasadę domniemania niewinności. W celu zapewnienia wskazanej odpowiedzialności za algorytmy oraz ich rozliczalność niezbędnym jest więc przyjęcie podejścia stawiającego człowieka w centrum tej technologii, tak aby sztuczna inteligencja była godna zaufania. Osiągnięcie tego jest realne, jednakże koniecznym jest uczynienie procesu decyzyjnego sztucznej inteligencji możliwym do analizy i prześledzenia. Po raz kolejny podkreślono jeden z największych obecnie problemów z jakim zmaga się obszar sztucznej inteligencji, mianowicie mimo zapowiedzi przeznaczania na rozwój tej technologii 20 mld euro rocznie wciąż brak jest odpowiedniej liczny ekspertów w dziedzinie sztucznej inteligencji, którzy byliby wystarczająco zaznajomieni z aspektami etycznymi jej wykorzystania.
Już dziś wiemy, że przepisy RODO nie są wystarczające, aby regulować sztuczną inteligencję. Powstaje jednak pytanie co z przyszłymi regulacjami w zakresie sztucznej inteligencji? W jakim stopniu możemy oczekiwać, iż będą one jednolite we wszystkich państwach członkowskich, skoro obecnie możemy zaobserwować znaczne różnice we wdrożeniu przepisów rozporządzenia o ochronie danych? Bazując na przesłankach Białej Księgi, najprawdopodobniej pojawi się sektorowe podejście do sztucznej inteligencji, które powinno uwzględniać fundamentalne wartości UE. Warto podkreślić, iż potrzebna będzie także debata wokół zaproponowanego przez Komisję Europejską podejścia opartego na ryzyku. Samo pojęcie ryzyka jest bowiem pojęciem subiektywnym, zmiennym w czasie. Nie możemy więc traktować go jako wartości stałej.
Elżbieta Dziuba, ekspertka Konfederacji Lewiatan