Sztuczna inteligencja może określić czyjeś poglądy polityczne na podstawie zdjęcia. Czy technologia zagraża demokracji? Dynamiczny rozwój sztucznej inteligencji jednych fascynuje, a drugich przeraża. Jej nowe możliwości zaskakują z tygodnia na tydzień. Tym razem testował je zespół duńskich i szwedzkich naukowców. Postanowili oni sprawdzić, na ile trafnie sztuczna inteligencja wykorzystująca tzw. deep learning (to podkategoria uczenia maszynowego, w którym sztuczne sieci neuronowe – algorytmy zaprojektowane do działania przypominającego ludzki mózg – uczą się na podstawie dużych ilości danych) będzie w stanie ocenić poglądy polityczne danej osoby, mając do dyspozycji jedynie jej zdjęcie. Wypisane na twarzy Próbę oparto na zdjęciach duńskich polityków startujących w wyborach samorządowych w 2017 r. Sieć neuronowa zdolna do klasyfikowania wyrazu twarzy przeanalizowała fotografie 3323 osób. W każdym przypadku jedno zdjęcie na osobę. AI właściwie określiła preferencje polityczne kandydatów obojga płci w 61%. W grupie mężczyzn dokładność była nawet odrobinę wyższa – 65%. Autorzy badania szybko uznali te wyniki za „zagrożenie dla prywatności”. Być może ich opinia bierze się z tego, że scena polityczna w Danii nie jest szczególnie spolaryzowana. Dodatkowo wybory samorządowe nie są w tym kraju wielkim wyścigiem politycznym. Naukowcy założyli więc, że twarze kandydatów będą doskonale odzwierciedlały poglądy obywateli. Aby wyniki były jeszcze dokładniejsze, z badania wykluczono osoby pochodzenia pozaeuropejskiego, gdyż dwuipółkrotnie częściej są reprezentantami partii lewicowych. Nie jest to pierwsze tego typu badanie. W 2021 r. podobny eksperyment przeprowadził na Uniwersytecie Stanforda prof. Michał Kosiński. Stworzony przez niego algorytm nauczył się rozpoznawać zdjęcia osób, które same określały się jako liberałowie lub konserwatyści. Potem AI została puszczona na głęboką wodę – zaczęła samodzielnie analizować fotografie w mediach społecznościowych i na portalach randkowych, ponad milion zdjęć. Algorytm Kosińskiego poprawnie odgadł poglądy polityczne 72% osób. To więcej niż wyniki kwestionariusza zawierającego 100 pytań, którego trafność określono na 63%. Wcześniej, w 2017 r., prof. Kosiński i jego kolega z uczelni dr Yilun Wang sprawdzili, że sztuczna inteligencja jest w stanie określić na podstawie zdjęcia czyjąś orientację seksualną. Dowodzili, że w przypadku mężczyzn dokładność wynosiła 91%, a w wypadku kobiet 83%. AI wystarczyło zaledwie pięć zdjęć. Rosnące zagrożenie „Technologia rozpoznawania twarzy od początku budzi kontrowersje, chociaż nawet wśród ludzi, którzy się nią zajmują, nie ma świadomości, że poza przypisaniem sfotografowanej czy sfilmowanej w dowolnych okolicznościach twarzy do konkretnej osoby i poza odczytaniem emocji, które ta osoba czuła w danej chwili, algorytm potrafi też odczytać trwałe cechy. Takie jak preferencje seksualne i poglądy polityczne”, mówił prof. Kosiński Jackowi Żakowskiemu w wywiadzie w „Polityce”. Mimo zastrzeżeń etycznych dostępność algorytmów rozpoznających twarz jest powszechna i na pewno ktoś się pokusi o ich wykorzystanie. Wiąże się to z ogromnym zagrożeniem zwłaszcza dla obywateli krajów o ustrojach autorytarnych. Według specjalistów takich jak prof. Kosiński rządy i wielkie korporacje już zatrudniają firmy, które posługują się dużo bardziej zaawansowanymi systemami rozpoznawania twarzy. Problem w tym, że żadne przedsiębiorstwo nie będzie chciało się chwalić, że zatrudnia podwykonawcę, który sprawdza zdjęcia pracowników i tak ocenia ryzyko popełniania przestępstw. Badacze nie przeprowadzali na razie analiz na podstawie zdjęć i nagrań z monitoringu miejskiego. Nie wiemy zatem, jakie są możliwości inwigilowania obywateli w czasie rzeczywistym. Czy dziś AI byłaby w stanie nie wpuścić do tramwaju radykałów na podstawie wyrazu ich twarzy? Wszystko wskazuje, że taka przyszłość jest tuż za rogiem. W Stanach Zjednoczonych i w Chinach stosowane są systemy rozpoznawania twarzy skutecznie monitorujące obywateli. O ile w USA lub w Europie organizacje pozarządowe walczą o minimalne wykorzystywanie monitoringu miejskiego, o tyle w Chinach władze są w stanie sprawdzić, kto nie posegregował śmieci, czy dzieci nie grają w gry komputerowe do późna i ile czasu to robiły. Monitoring pozwala jednocześnie na bezgotówkowe zakupy albo korzystanie z bankowości bez potrzeby używania dowodu. Niestety, wiadomo również, że monitoring posłużył chińskiemu rządowi do nadzorowania mniejszości etnicznej Ujgurów. Już w 2017 r. media rozpisywały się, że i w Moskwie uruchomiono obsługujący rozpoznawanie twarzy monitoring miejski, który obejmował ponad 3 tys. kamer. Na problem z monitoringiem wizyjnym od lat zwracają