Gdy zapragniesz hejtować

Gdy zapragniesz hejtować

Warszawa, 17.01.2020. Piort Surma - wspolzalozyciel, dyrektor zarzadzajacy - Applica.ai. fot.Krzysztof Zuczkowski

Tama dla nienawistnych zachowań w sieci Dr Piotr Surma – dyrektor zarządzający firmy Applica.AI Choć nie jest to podstawą waszej działalności, zajęliście się hamowaniem za pomocą narzędzi sztucznej inteligencji mowy nienawiści. To była wasza inicjatywa czy realizacja jakiegoś zamówienia? – Dostrzegliśmy potrzebę moderacji takich treści w związku z rozmowami z jednym z głównych portali internetowych. Dowiemy się, o który portal chodzi? – Moderacja jest delikatną sprawą z prawnego punktu widzenia. Tutaj odpowiedzialność ponosi wydawca, a wiążące się z tym zawiłości sprawiają, że nie wymienię konkretnych klientów. W każdym razie stwierdziliśmy, że ludzie zajmujący się moderowaniem treści po prostu nie dają rady. Pojedynczy moderator musi podjąć szybką decyzję i ma ułamek sekundy, by napływające treści, różne komentarze na bieżąco przejrzeć, zrozumieć i ewentualnie zablokować. Z czysto ludzkich względów szybkie przeczytanie setek tysięcy komentarzy i właściwe zareagowanie na treści homofobiczne, antysemickie, wyrażające nienawiść na tle politycznym, narodowym, rasowym, religijnym lub antyagizmy jest praktycznie niemożliwe. W cyberprzestrzeni przelewa się dużo obrzydliwych treści, co sprawia, że praca nad ich moderowaniem jest trudna, monotonna dla człowieka, a także obciążająca emocjonalnie. Postanowiliśmy więc stworzyć oprogramowanie, które by go wyręczało. Niebawem programem zainteresowały się inne portale, a w międzyczasie byliśmy też uczestnikami debaty poświęconej mowie nienawiści, organizowanej przez rzecznika praw obywatelskich. Reprezentowaliśmy w niej stronę technologiczną walki z hejtem w sieci. Jednak zdaję sobie sprawę, że dysponujemy tylko pewnym narzędziem, podczas gdy gros środków do walki z tym zjawiskiem, jakimi dysponuje społeczeństwo, jest natury prawnej i edukacyjnej. Co może zrobić wasz produkt? – Applica Moderacja nie jest rozwiązaniem służącym wyłącznie do eliminowania wulgaryzmów w sieci. Potrafi ono znacznie więcej – jest bardzo skuteczne w walce z wątpliwą kreatywnością niektórych internautów i w namierzaniu sposobów, do jakich użytkownicy sieci uciekają się, by obrażać innych, sączyć mowę nienawiści. Arsenał tych form jest niesłychanie bogaty: od prostych, jak stosowanie pisowni anglojęzycznej, po specyficzne użycie znaków przestankowych albo czcionek z innych alfabetów, np. rosyjskiego. Czasem są to neologizmy przypominające polskie wulgaryzmy. Zdarza się, że takich obraźliwych wpisów nie tylko sztuczna inteligencja, ale nawet inteligentny człowiek nie potrafi w pełni rozszyfrować. Rozumiem trudność, jaką napotkali programiści. – Internauci traktują obrażanie przeciwników niemal jako zabawę, grę wojenną, i próbują walczyć ze zautomatyzowaną moderacją w taki sposób, aby ich wpis był zrozumiały dla człowieka, ale nieuchwytny dla sztucznej inteligencji. Czyli sztuczny moderator może się okazać bezsilny? – Czasami tak, lecz może być również zbyt bezwzględny w interpretacji zamieszczanych treści. W przypadku oceny obraźliwych wpisów maszyna musi nie tylko wyszukiwać słowa kluczowe, które mogą być użyte jako obraźliwe, ale także prawidłowo odczytywać kontekst ich zastosowania. Jeśli np. wobec konkretnej osoby pojawi się słowo asfalt, szmata itd., możemy być pewni, że jest to naganne. W przypadkach wątpliwych zawsze można zapytać żywego moderatora, dlaczego podjął taką, a nie inną decyzję. Maszyny, która go zastępuje, już nie zapytasz. Problemem walki z mową nienawiści jest skala zjawiska. – Właśnie. Tutaj opieranie się na pracy jednego, dwóch czy dziesięciu moderatorów nie daje żadnej gwarancji, że postawi się tamę toksycznym wpisom. Wysyp mowy nienawiści jest tak ogromny i obejmuje tyle dziedzin, że niektórzy nadawcy wywieszają białą flagę. Nieprzypadkowo jeden z ogólnopolskich wydawców internetowych w pewnym momencie zrezygnował z zamieszczania komentarzy pod wypowiedziami autorów. Była to jedyna racjonalna decyzja, tym bardziej że nadawca nie dysponował odpowiednim narzędziem do przeczesywania wpisów internautów. A jak jest obecnie? Widać jakiś efekt zastosowania sztucznej moderacji? – Duża część komentarzy publikowanych w polskim internecie zostaje poddana takiej weryfikacji. Trudno powiedzieć dokładnie, jak duża, być może nawet kilkadziesiąt procent wpisów przechodzi przez stworzony przez nas silnik. Dotyczy to platform, które są bardzo wrażliwe na mowę nienawiści. Jeśli chodzi o największe portale internetowe, to właściwie wszystkie, niezależnie od orientacji politycznej, dbają o jakość dyskusji. Dodatkowym efektem zastosowania moderacji opartej na sztucznej inteligencji jest też to, że nawet jeśli dosyć wyrafinowany obraźliwy

Ten artykuł przeczytasz do końca tylko z aktywną subskrypcją cyfrową.
Aby uzyskać dostęp, należy zakupić jeden z dostępnych pakietów:
Dostęp na 1 miesiąc do archiwum Przeglądu lub Dostęp na 12 miesięcy do archiwum Przeglądu
Porównaj dostępne pakiety
Wydanie: 05/2020, 2020

Kategorie: Nowe Technologie