Nie masz czasu na zapoznanie się z całością artykułu?
Wystarczy, że klikniesz ikonę „oznacz artykuł do przeczytania później”. Wszystkie zapisane publikacje znajdziesz w profilu czytelnika

Czy boty zabiorą nam demokrację?

Boty używane są do tego, żeby podsycać wszystko to, co najgorsze w naszym społeczeństwie: sieją dezinformację, nakręcają skrajne emocje, polaryzują społeczeństwo, promują teorie spiskowe, podżegają ludzi przeciwko sobie
Wesprzyj NK

Wyobraźmy sobie następujący scenariusz. Wielkie miasto, poranek. Tłumy ludzi kłębią się na ulicach, idąc do pracy lub w innym, sobie tylko znanym celu. Nagle – zamieszanie. W tłumie ktoś zaczyna krzyczeć „Dość tego! Czas coś zrobić z tym rządem!”. Po chwili przyłączają się do nich inne głosy: „Te ostatnie podatki to już było przegięcie”. „Zaj…ć k…y!” – krzyczy krzepki mężczyzna na rogu ulicy. „Idziemy na parlament!” – woła elegancka, stylowo ubrana kobieta, wymachując trzymanym parasolem i wskazując drogę w kierunku budynków rządowych. Naprzeciwko staje kilku krzepkich osobników, krzycząc „Terroryści! Nasz kraj jest w niebezpieczeństwie!”. Mało kto zdaje sobie tylko sprawę, że większość okrzykujących to nie ludzie – to doskonale zamaskowane androidy, sterowane przez jednego z Demiurgów, obserwujących sytuację z okolicznych wieżowców.

W niedawnych badaniach naukowców z Carnegie Mellon postawiono hipotezę, że nawet połowa uczestników dyskusji nt. koronawirusa w USA nie pochodzi od ludzi

Brzmi jak początek kiepskiej powieści SF? Problem w tym, że, gdyby potraktować miasto jako alegorię przestrzeni social mediów, to ten obrazek zdaje się być niezgorszą ilustracją tego, co w owych mediach dzieje się już teraz. Media społecznościowe zostały zdominowane przez boty. W niedawnych badaniach naukowców z Carnegie Mellon postawiono hipotezę, że nawet połowa uczestników dyskusji nt. koronawirusa w USA nie pochodzi od ludzi. Czy to znaczy, że padliśmy już ofiarą jakiegoś, na razie wirtualnego, SkyNetu, wyrafinowanej sztucznej inteligencji?

Nic z tych rzeczy. Oczywiście badania nad sztuczną inteligencją nadal trwają, a prawdziwe boty – takie wirtualne w stu procentach, składające się wyłącznie z algorytmów – pełnią coraz bardziej złożone funkcje głównie w działach obsługi klienta, odpowiadając na typowe pytania i udzielając porad w szablonowych kwestiach. Wbrew entuzjastom koncepcji „osobliwości” (ang. singularity), którzy uważają, że czeka nas scenariusz rodem z „Terminatora” i przejęcie władzy przez świadome maszyny, jesteśmy bardzo daleko od wyprodukowania czegoś, co określa się mianem „ogólnej sztucznej inteligencji”, czyli takiej AI, która będzie w stanie swobodnie rozmawiać (bądź po prostu wnioskować) na dowolne tematy, a nie tylko odpowiadać na pytania w wąskiej dziedzinie przedmiotowej. To oznacza, że jeśli coś nakręca dyskusje w internecie, nie są to bynajmniej algorytmy sztucznej inteligencji.

Atakowani przez drony

Czym zatem są boty? Odpowiedź na to pytanie jest złożona. W rzeczywistości, mówienie o botach jako takich nie ma raczej sensu. Większy sens miałoby mówienie o dronach albo o sieciach dronów. Takie sieci, określane mianem „botnetów”, spełniają w mediach społecznościowych dwojakie funkcje. Po pierwsze, mogą być kontrolowane przez ludzi, którzy za pomocą odpowiednich kont wstrzykują spreparowany przekaz. Po drugie, mogą masowo generować ruch: proste komentarze o uniwersalnej treści emocjonalnej (w stylu „Super!” bądź „Spadaj”) czy też – specyficzne dla mediów społecznościowych – lajki i podania dalej. Problem w tym, że nawet, jeśli za określonymi komentarzami stoją żywi ludzie, to mechanizm botnetu pozwala im sztucznie sklonować swój przekaz. Jeden operator botnetu może, za pomocą w pełni zautomatyzowanego narzędzia, napisać np. kilkaset komentarzy w ciągu godziny i każdy będzie wyglądał, jakby był napisany przez inną, żywą osobę. Co więcej, każdy z tych komentarzy może zostać, jednym kliknięciem, polajkowany i udostępniony przez tysiące kont z botnetu. Dodajmy teraz do tego fakt, że w instytucjach sterujących botnetami, jak np. osławiona rosyjska Agencja Badań Internetowych, zatrudniane są do podobnych działań dziesiątki osób na raz…

Czy jesteśmy w stanie wykrywać boty w mediach społecznościowych? Tutaj sprawa jest niejednoznaczna. Na wielu stronach można spotkać poradniki pt. „jak odróżnić bota od żywego człowieka w social media” i rzeczywiście, wspomniane instrukcje mogą być w tym celu przydatne. Problem w tym, że nawet z wykorzystaniem tych instrukcji weryfikacja pojedynczego konta zajmuje duża ilość czasu i energii, a poradzenie sobie z problemem botów wymaga nie zdolności weryfikacji pojedynczych kont, tylko hurtowego ich eliminowania z sieci społecznościowych w podobnym tempie, jak konta te są zakładane. Co więcej, dochodzi tutaj trudność psychologiczna. Botnety są często wykorzystywane do podkręcania zupełnie realnych konfliktów społecznych, a zatem ludzie, którzy nagle zyskują dla swoich treści nowe zasięgi, niekoniecznie będą zainteresowani tym, żeby weryfikować, czy tworzą je inni ludzie z krwi i kości, czy może są one sztucznie podbijane. Chętnie za to oskarżenia o promocję za pomocą botów podniosą polityczni czy ideologiczni oponenci, robiąc z oskarżenia o „boty” kolejną plemienną inwektywę zamiast weryfikowalnego zarzutu.

Mediom społecznościom nie opłaca się tak naprawdę walczyć z botnetami. Robią to dopiero wtedy, kiedy działalność tych botnetów zaczyna być zbyt widoczna, kiedy robi się „bad for business”

Jeśli chodzi o zautomatyzowane wykrywanie botów, tutaj również sprawa jest coraz trudniejsza. Przede wszystkim, postępy w sztucznej inteligencji dotyczącej generowania twarzy ludzkich (polecam wybranie się na stronę „This Person Does Not Exist”) spowodowały, że nie da się już stosować heurystyki polegającej na filtrowaniu profili bez zdjęcia/ze skradzionym zdjęciem. Również same metody „nakręcania lajków” stają się bardziej subtelne, wykorzystując badania empiryczne tak, aby upodobnić mechanizmy „lajkowania postów” do rzeczywistej dynamiki propagowania popularnych wpisów przez żywych ludzi. Jeśli gdzieś zobaczymy spektakularny wykres pokazujący, że jakąś sondę internetową „ustawiły boty”, bo w przeciągu sekundy „dosypano” 10 tys. głosów, to wiemy jedynie, że mamy do czynienia z amatorami. Profesjonalistów w ten sposób nie da się już wykryć.

Boty są skuteczne

Z powyższych rozważań wszystkiego wyłania się dość smutny obraz. Wygląda na to, że w walce z botami jesteśmy skazani na porażkę. Czy jednak mamy się czego obawiać? Wszak boty były obecne w przestrzeni internetowej od dawna. Ustawiane sondy internetowe to nie jest wszak historia ostatnich kilku lat, a przesadnie się nimi nie przejmujemy, a już na pewno nie twierdzimy, że mają znaczący wpływ na kondycję naszej demokracji. Mamy niestety badania pokazujące, że boty w social media osiągają oczekiwane cele. Po wyborach w 2016 roku australijscy badacze wykonali kompleksową analizę ruchu w social media po debacie Clinton – Trump i wykazali, że boty produkujące treści po stronie Trumpa były skuteczniejsze (w zakresie generowania ruchu o sprzyjającej treści wśród pozostałych, niezautomatyzowanych użytkowników Twittera), niż żywi „influencerzy” po stronie Clinton. W przypadku koronawirusa mamy liczne badania wskazujące na szkodliwy wpływ social mediów: zarówno pod względem podsycania paniki, jak i udostępniania fałszywych informacji. W tym przypadku największe platfomy zastosowały koniec końców filtry odsiewające tego typu treści – szkody społeczne zostały już jednak poczynione. W przypadkach, gdzie trudno jest o konsensus politycznych elit, nawet na takie spóźnione filtrowanie nie ma co liczyć.

Boty zaś używane są do tego, żeby podsycać wszystko to, co najgorsze w naszym społeczeństwie: sieją dezinformację, nakręcają skrajne emocje, polaryzują społeczeństwo, promują teorie spiskowe, podżegają ludzi przeciwko sobie. Podsumowaniem działających mechanizmów niech będzie następujący ustęp z tekstu w „Nature” traktującego o „infodemii COVID-19 w social media”: „Użytkownicy w mediach społecznościowych mają tendencję do pozyskiwania informacji pasujących do ich światopoglądu, ignorowania informacji z nim sprzecznych, a także do tworzenia spolaryzowanych grup wokół współdzielonych narracji. Ponadto wysoka polaryzacja sprzyja łatwemu rozprzestrzenianiu dezinformacji”. Efekty tego widać np. w USA, gdzie w trakcie 4 lat rządów Trumpa bardzo mocno wzrosła szkodliwa polaryzacja społeczeństwa – mierzona tak wymiernymi czynnikami, jak to, jaki procent wyborców republikanów/demokratów utrzymuje kontakty towarzyskie z osobami z „przeciwnego obozu” (im mniej, tym społeczeństwo jest bardziej spolaryzowane). Postulaty, żeby temu przeciwdziałać np. przez edukację nie są możliwe do zrealizowania. Powinniśmy ludzi oczywiście edukować, ale statystycznie ludzie będą bezsilni przeciwko zmasowanym narzędziom manipulacji, bo w ten sposób działają nasze mózgi – wykształcić w sobie odpowiednie mechanizmy, żeby umieć przeciwdziałać samotnie tym narzędziom potrafią nieliczni, nawet spośród tych wyedukowanych. W skali społeczeństwa nie pozwoli to na rozwiązanie żadnego problemu. Rozwiązanie może być wyłącznie systemowe.

Chaos się opłaca

Czy jednak takiego systemowego rozwiązania na pewno nie możemy zapewnić? Raz na jakiś czas Twitter czy Facebook chwalą się akcją masowego skasowania tysięcy „fałszywych kont”. „Twitter kasuje 170 tys. kont wiązanych z rządem Chin”, „Twitter kasuje 70 tys. kont promotorów teorii spiskowej QAnon” – jak widać, nie jest to całkiem niemożliwe. Dlaczego zatem nie dzieje się to systematycznie?

Niestety, ze względu na schemat monetyzacji tych firm, problem jest strukturalny – każda redukcja toksycznych interakcji oznacza dla tych firm realną utratę dochodów

Tutaj czas na zwrot akcji, jak w każdym porządnym thrillerze. Otóż obrazek SF, który naszkicowałem na samym początku, nie był do końca trafny. W rzeczywistości należałoby go nieco skomplikować. Miasto w owej opowieści nie jest zwykłym miastem – jest miastem niczym w snach bohaterów z filmu „Incepcja”, gdzie ulice i budynki zmieniają swój kształt i pozycje, a na mieście pojawiają się nowe, świecące billboardy, kierujące nas w stronę masowych wydarzeń. W miarę tego, jak ludzie zaczynają iść w jakimś kierunku, ulice poszerzają się, a boczne uliczki zwężają albo zupełnie znikają. W efekcie zmasowana wojna androidów pod parlamentem spowoduje, że zwykli ludzie zostaną gorąco zachęceni do uczestnictwa w tym wydarzeniu – miasto zmieni swój kształt tak, aby ulice prowadzące do budynków rządowych były szerokie, łatwo dostępne, a wszędzie będziemy bombardowani neonami krzyczącymi na zmianę „obal tych łajdaków” bądź „broń swojej władzy”.

W ramach owej filmowej logiki, tutaj również mamy bowiem siły, które nie były widoczne od początku, a w rzeczywistości wpływają na rozwój wydarzeń. Tymi siłami są właściciele największych sieci społecznościowych i algorytmy, które nimi kierują. Wynika to z modelu monetyzacji owych sieci. Jako że za rejestrację na FB ani na TT nie płacimy, sieci zarabiają wyłącznie na reklamach. Wpływy reklamowe są natomiast wprost proporcjonalne do generowanego na serwisie ruchu. Sieciom społecznościowym zależy zatem na ciągłym ruchu. Dodajmy do tego brakującą przesłankę: nic nie wygeneruje ruchu tak, jak kontrowersje, polaryzacja i nakręcone emocje. Wychodzi z tego dość jasna historia: mediom społecznościowym nie opłaca się tak naprawdę walczyć z botnetami. Robią to dopiero wtedy, kiedy działalność tych botnetów zaczyna być zbyt widoczna, kiedy robi się „bad for business”. Nakręcanie spiskowych nastrojów wśród zwolenników Trumpa było faktem od dłuższego czasu, ale konta związane z QAnon skasowano dopiero po ataku na Kapitol. Konta rozpowszechniające teorie spiskowe związane z COVID-em skasowano, zgodnie z oficjalnym uzasadnieniem, nie za potencjalne nakręcanie śmiertelnej pandemii, tylko za… związki z chińskim rządem. Takie „zrywowe” reagowanie na problem jest niemalże gwarancją tego, że organizacje dysponujące mniej spektakularnymi botnetami mogą czuć się zupełnie bezkarne.

Czy państwo da radę?

Przyzwyczailiśmy się już do tego, że w naszych społeczeństwach istnieje coś takiego, jak „przestrzeń publiczna”. Nie należy ona do podmiotów prywatnych, a zasady postępowania w owej przestrzeni są uregulowane umową społeczną. Niestety, w przypadku internetu nadal dominuje myślenie, zgodnie z którym np. sieci społecznościowe są kolejną, zwykłą usługą internetową, a państwowa ingerencja powinna co najwyżej obejmować przepisy prawa karnego. Pod tym względem internet jest obecnie podobny do „Dzikiego Zachodu” z pierwszych lat kolonizacji Stanów Zjednoczonych.

Ta iluzja nie może jednak trwać zbyt długo. Jak widzimy po wielu wydarzeniach (ruchy spiskowe wokół koronawirusa czy ruch QAnon to tylko przecież najnowsze z licznych przykładów), media społecznościowe w obecnym kształcie mają jednoznacznie negatywny wpływ na spójność naszych społeczeństw. Ten dezintegrujący wpływ paradoksalnie bywa zaletą w walce z rozmaitymi autokratycznymi reżimami, gdzie media społecznościowe pozwalają na mobilizowanie się przeciwników władzy i koordynację działań na wcześniej niespotykanym poziomie. Natomiast w państwie demokratycznym jego wpływ jest mocno negatywny. Nie da się dłużej bronić iluzji, że mamy do czynienia z normalnymi mechanizmami rynkowymi i sprawę należy pozostawić kierownictwom odnośnych firm – skala społecznego wpływu i oddziaływania tych korporacji jest tak wielka, że bez poddania ich jakiejś formie społecznej kontroli możemy za chwilę obudzić się w dystopii rodem z S-F gatunku cyberpunk, gdzie światem rządzą wielkie, ponadnarodowe megakorporacje. Oczywiście wprowadzenie państwowych regulacji do internetu zawsze budzi mocne opory, związane z lękiem przed zastąpienia jednej patologii inną w postaci państwowego wszechobecnego obserwatora. Niemniej jednak nie powinniśmy rozmawiać tutaj na poziomie ogólników, a na poziomie szczegółów. Powinniśmy zdefiniować przestrzeń internetową tak, jak definiujemy przestrzeń fizyczną i określić reguły dostępu do niej. Zamiast komercyjnych mechanizmów społecznościowych, promujących toksyczne interakcje tylko dlatego, że są bardziej liczne i generują większy ruch reklamowy, powinniśmy dysponować neutralnymi protokołami sieci społecznościowych oraz regułami dostępu do nich.

Tutaj musi wkroczyć państwo – rozumiane nie jako opresyjny kontroler o konkurencyjnych interesach w nadzorze nad społeczeństwem, tylko jako realizator umowy społecznej

Oczywiście, nie należy liczyć na to, że giganty cyfrowe poddadzą się bez walki. Niestety, ze względu na schemat monetyzacji tych firm, problem jest strukturalny – każda redukcja toksycznych interakcji oznacza dla tych firm realną utratę dochodów. Dlatego Facebook, Twitter czy Google mogą sobie tworzyć rozmaite „centra doradcze ds. etyki”, ale miejmy świadomość, że będą to tylko wirtualne wydmuszki, pozorowane działania PR-owe dokonywane za mikroskopijny ułamek kwot, o których mówilibyśmy w przypadku realnego wprowadzenia etycznych ograniczeń ich działalności. Tutaj musi wkroczyć państwo – rozumiane nie jako opresyjny kontroler o konkurencyjnych interesach w nadzorze nad społeczeństwem, tylko jako realizator umowy społecznej.

Nie możemy dłużej czekać

Nie wiadomo niestety, na ile skutecznie państwo będzie w stanie przekonać własnych obywateli do tego, że kontrola nad sieciami społecznościowymi jest niezbędna. Korporacje internetowe (znane pod akronimem GAFA od nazw czwórki największych gigantów: Google, Apple, Facebook, Amazon) są bowiem w stanie w przezroczysty sposób przekraczać granicę pomiędzy byciem stroną sporu a byciem medium, za pomocą którego prowadzony jest spór. Jeżeli możemy na coś liczyć, to na naturalny w globalnym kapitalizmie konflikt interesów – oto na przykład na bieżąco możemy obserwować konflikt pomiędzy korporacjami informacyjnymi a korporacjami cyfrowymi w zakresie szeroko pojętego „podatku od linków”, z najnowszą odsłoną konfliktu w postaci wyłączenia z znacznej części usług Facebooka w Australii. Ostatnią taką wojnę – o ACTA – wygrała „frakcja internetowa”. Czy teraz będzie inaczej – czas pokaże. Na pewno jedną z ulubionych strategii firm odpowiedzialnych za media społecznościowe jest gra na czas: torpedowanie wszelkich twardych regulacji przy równoczesnych ruchach pozorowanych, jak wspomniane „komisje etyczne” czy też kasowanie wybranych wątków, gdzie temperatura sporu staje się szkodliwa dla wizerunku firmy. Niestety, wspomniane wcześniej badania dot. szkodliwej polaryzacji społeczeństw pokazują, że nie stać nas na tolerowanie tej gry na przeczekanie.

Na tytułowe pytanie odpowiedzieć należy zatem: nie, boty nie zabiorą nam demokracji. To nie znaczy jednak, że nie ma zagrożenia. Demokrację mogą nam bowiem, jak to zresztą tradycyjnie w historii bywało z wieloma wolnościami, zabrać chciwi oligarchowie, którzy w pogoni za wpływami i pieniądzem rozerwą nam społeczeństwo na strzępy. Boty będą tylko mimowolnym narzędziem destrukcji. Jak wielokrotnie w historii bywało, stoimy w tym miejscu, gdzie musimy zmobilizować się przeciw wpływowym jednostkom, które zyskały zbyt dużo zbyt szybko i zachłysnęły się swoją władzą i pieniędzmi. Mamy nadal narzędzia demokracji przedstawicielskiej, nie jesteśmy bezbronni, ale czas, jak pokazują chociażby wydarzenia z USA, nie gra na naszą korzyść. „Cyberpunk 2077” może ziścić się, niestety, dużo, dużo szybciej.

Wesprzyj NK
doktor filozofii, magister informatyki, specjalizujący się naukowo w kognitywistyce i filozofii jezyka, aktualnie pracujący jako projektant systemów informatycznych

Nasi Patroni wsparli nas dotąd kwotą:
9 717 / 26 000 zł (cel miesięczny)

37.37 %
Wspieraj NK Dołącz

Komentarze

Dodaj komentarz

Zobacz

Zarejestruj się i zapisz się do newslettera, aby otrzymać wszystkie treści za darmo