Newsletter

Interfejs białkowy – ratunek przed dyktaturą

W sprawie Cambridge Analytica chodziło nie tyle o kreowanie poglądów, a o dotarcie do wnętrza naszych dusz – obaw, oczekiwań i nadziei – i sprawne wykorzystanie tego przez polityków

TEN ARTYKUŁ POWSTAŁ DZIĘKI HOJNOŚCI DARCZYŃCÓW NK. ZOSTAŃ JEDNYM Z NICH!

Jesteśmy otoczeni przez dane. Idąc na ten wywiad, wyszukiwałam coś w internecie, przeglądałam Facebooka, pewnie coś zalajkowałam, zapłaciłam kartą za zakupy – czyli wytworzyłam już mnóstwo śladów po sobie. I tak np. w kampanii Obamy wykorzystano 3 tys. informacji o każdej osobie, w kampanii Trumpa było to już 5 tys. Prawdopodobnie nikt z nas nie byłby w stanie podać tylu informacji świadomie.

Tak samo, jak zostawiamy ślady węglowe w samolotach i nie do końca jesteśmy tego świadomi, tak nie zdajemy sobie sprawy, ile śladów po sobie zostawiamy w przestrzeni cyfrowej. A jest ich mnóstwo. Chociażby sam GPS nie wymaga bezpośredniej interakcji z telefonem komórkowym: telefon sam wie, przy jakim sklepie jesteśmy.

Ale właściwie po co komu potrzebna jest wiedza, czy wolę czerwoną, czy czarną sukienkę, albo że lubię Doorsów?

Główną siłą napędową technologii jest konsumpcja. Więc jest to interesujące dla sieci sklepów czy marketingowców, w jaki sposób organizować sprzedaż, by trafić do konkretnego klienta, dopasować się. Stąd zbieranie big data. Na tym była oparta metoda Trumpa czy Obamy, czyli profilowanie, dostosowanie się do tego, co ludzie chcą usłyszeć. Tak samo z czerwoną sukienką: ślady sugerują, że jest to coś, w co warto zainwestować technologię, żeby przekonać panią, żeby ten produkt pani sprzedać.

Internet miał być miejscem wolności i wymiany poglądów, a de facto staje się miejscem, w którym trudno nam nawet poznać poglądy innych

Jarema Piekutowski w artykule „Bronie matematycznego zniszczenia” sugerował, że te algorytmy mogą prowadzić do dyskryminacji. Np. biednym ludziom częściej wyświetlają się reklamy chwilówek, a przy rekrutacji brana jest pod uwagę historia kredytowa, więc potencjalnie dobry pracownik może wpaść w pętlę, ponieważ raz powinęła mu się noga; wziął kredyt, a potem nie mógł z tego wyjść – bo nie ma pracy.

Czy są w Warszawie jakieś instytucje finansowe oferujące chwilówki na Nowym Świecie albo na Starym Mieście? Nie. Już wcześniej firmy lokowały swoje siedziby, czy kierowały swoich agentów w te miejsca, gdzie jest potencjalny rynek zbytu. Teraz doprowadzono to do perfekcji. Są algorytmy, które mają głęboki wpływ na zamknięcie się nie tylko w tej spirali niewolnictwa ekonomicznego (algorytmy konsumenckie), ale również niewolnictwa społecznego – np. media społecznościowe, w których przez algorytmy trafiamy do konkretnej bańki społecznej. Znaleźliśmy się w błędnym kole: internet miał być miejscem wolności i wymiany poglądów, a de facto staje się miejscem, w którym trudno nam nawet poznać poglądy innych. Wszystko dlatego, że algorytmy starają się nas zadowolić – a przecież zadowolenie nie zawsze musi polegać na tym, że jesteśmy wsobni, że obracamy się w kręgu, z którego trudno wyjść.

A co z algorytmami wykorzystywanymi w relacjach państwo-obywatel?

Zajmuję się właśnie badaniem algorytmów, powstających na zlecenie państwa, które mają wspierać podejmowanie decyzji, czy wręcz decydować o prawach i obowiązkach obywateli. Przerażające jest to, że nawet twórca takiego algorytmu nie do końca rozumie, jakie są konsekwencje jego działania. To zjawisko po angielsku nazywa się black box. Tworzy się teraz algorytmy, które tłumaczą algorytmy… i tak w nieskończoność.

Najgorsze, że od algorytmów nie ma ucieczki. Niektóre z nich na przykład przewidują możliwość ponownego popełnienia przestępstwa. Jeszcze na początku cieszyły się one wielkim entuzjazmem w Stanach Zjednoczonych. Później okazało się, że te algorytmy dyskryminują choćby osoby biedniejsze, mieszkające w niebezpiecznych dzielnicach. I choćby te osoby popełniły drobne przestępstwa, takie jak np. kradzież hulajnogi, wypadały dużo gorzej niż mieszkańcy lepszych dzielnic, którzy dokonywali napadów z bronią w ręku. Nawet prokurator generalny Eric Holder powiedział, że coś poszło nie tak, skoro maszyna – nawet jeśli sama nie podejmuje decyzji – podpowiada sędziom, jaką decyzję powinni podjąć.

Czy taka technologia nie popycha nas w kierunku autorytaryzmu czy dyktatury?

Kiedy powstawały samoloty, bracia Wright mieli autentyczną wiarę w to, że teraz zapanuje pokój, że ludzie będą więcej podróżować, oglądać inne kraje itd. Kilka lat po tym wynalazku samoloty zostały wykorzystane do zrzucania bomb. Podobnie jest z nowoczesnymi technologiami. Z jednej strony państwo czy firmy mogą nas śledzić, wykorzystywać dane do inżynierii społecznej. Z drugiej strony my jako obywatele, też będący w posiadaniu technologii, mamy więcej możliwości przeciwstawienia się temu.

Czyli wcale nie byłoby tak łatwo sprzedać jeden konkretny światopogląd niemal 40 milionom Polaków?

Przykład Brexitu, Trumpa czy Cambridge Analytica pokazuje, że wcale nie chodziło o przekonanie ludzi do pewnych racji, a o wyciągnięcie na zewnątrz pewnych poglądów, które już w tych ludziach siedziały. Pamiętam wywiad z Michałem Kosińskim, który odpowiadał podobno za wstępny koncept, na którym opierała się Cambridge Analytica. Kosiński mówił, że może to ma dobre strony, może wreszcie analitycy próbują dowiedzieć się, co wyborcy myślą, jakie mają oczekiwania, i jak na te oczekiwania odpowiedzieć. Oczywiście, podobnie jak w offline’owej kampanii politycznej, chodziło też o wykorzystanie danych do wzbudzania strachu, bo jest to bardzo silny bodziec do podejmowania decyzji. Natomiast chodziło nie tyle o kreowanie poglądów, a o dotarcie do wnętrza naszych dusz – obaw, oczekiwań i nadziei i sprawne wykorzystanie tego przez polityków. I to jest może nawet bardziej przerażające.

W Fundacji sądzimy, że Polska, a nawet i świat nie jest jeszcze gotów, by głosować elektronicznie. Przykład Estonii z zeszłego roku pokazał, że obawy mogą być słuszne

Mówił Pan o przykładzie Trumpa i Cambridge Analytica. Padły oskarżenia o nieuczciwe prowadzenie kampanii, o manipulację opinią publiczną przez Rosjan.

Technologia jest transgraniczna, więc problem będzie się pogłębiać. Można bardzo łatwo zdobyć wpływ na wybory w innych krajach. W Fundacji sądzimy, że Polska, a nawet i świat nie jest jeszcze gotów, by głosować elektronicznie. Przykład Estonii z zeszłego roku pokazał, że obawy mogą być słuszne. Byłbym zaskoczony, gdyby mocarstwa czy grupy interesu nie chciały wykorzystać tez tych możliwości wpływu do rozgrywania swoich interesów. Pojawiły się głosy, że we Francji Rosja również próbowała wpłynąć na wynik wyborów. Francuzi ponoć jednak dużo bardziej krytycznie podchodzą do informacji, i to może być clue. Nasz krytycyzm w stosunku do tego, co widzimy w internecie, jest chyba najlepszą formą zabezpieczenia. Dlatego we Francji ta manipulacja nie do końca się udała, ale w Stanach Zjednoczonych, czy przy okazji Brexitu było już inaczej.

Więc może zamiast zakazywać działań takich, jakie wykonała Cambridge Analytica, należy dać do nich dostęp wszystkim kandydatom?

To już się dzieje. Zespół Cambridge Analytica wymyślił innowacyjną, bardzo rozbudowaną metodologię docierania do wielu milionów ludzi i wykorzystywania big data. Natomiast dziś w każdej kampanii, czy to będzie Mołdawia, Polska, Gruzja czy Argentyna, wykorzystywane są analizy mediów społecznościowych, wykorzystuje się influencerów, tak samo jak zawsze prowadziło się tajne sondaże, by dopasować się do potrzeb wyborców. Pytanie, czy to dobrze, że politycy dostosowują swój program do tego, co wyborcy chcą usłyszeć; czy to źle, że rezygnują z części swojej wiarygodności, swoich poglądów, swoich opinii, i są takim samym produktem, jak ta czerwona sukienka.

Tu dochodzimy do populizmu, którego fala przetacza się obecnie przez świat zachodni. Czy populizm jest więc produktem technologii?

To, że społeczeństwa zachodnie są bardziej populistyczne, wynika przede wszystkim z dobrobytu demokratycznego. Jednym z czynników, który wyzwolił falę populizmu, był też brak wiary w polityków, i jednoczesne domaganie się coraz większego włączenia obywateli w życie polityczne przez różne mechanizmy demokracji bezpośredniej. Mówi się teraz, że referendum powinno być stałym elementem życia publicznego. Wynika to z tego, że władze działają bardziej otwarcie. Z drugiej strony, jeśli widzimy, co jest na biurku, to domyślamy się, że polityk na pewno coś pod tym biurkiem chowa. To jest konflikt pomiędzy demokracją bezpośrednią i uznaniem, że większość ma zawsze kompetencje, a jakąś formą powierzenia władzy ekspertom.

Według mnie każdy ma prawo do fake newsa. Komisja Europejska również idzie w kierunku nieblokowania i nieograniczania dostępu do treści, które zostały określone jako fake news

A zatem technologie wzmacniają problemy związane z demokracją?

Władze, które próbują jakoś odpowiadać na zjawisko deficytu demokracji czy zaufania, wykorzystują technologie, by dać nam większą możliwość udziału w życiu publicznym. Chociażby w pracy nie muszę kontaktować się z ministerstwem, by uzyskać dane, na ogół ministerstwo już je publikuje, ja mogę je pobrać, i to zajmuje sekundę. W tym kontekście jestem nie tyle optymistą, co technorealistą.

Problem zaczyna się, kiedy fetyszyzujemy mechanizmy, które przy wykorzystaniu technologii wspierają demokrację. Dzieje się tak, gdy na przykład uważamy, że większość aktywności publicznej powinna się odbywać w internecie. To jest absurdalne – między innymi dlatego, że istnieje wykluczenie cyfrowe. Ale takie rozwiązanie nie daje też możliwości wyboru, czy chcemy wchodzić w interakcje z rządem offline czy online. Poza tym, skoro nie ufamy politykom, to dlaczego mamy ufać narzędziom, które oni robią? Nie wystarczy możliwość wypowiedzenia swojego zdania online. Ważne jest też to, co politycy z tym zdaniem zrobią, a tu pojawiają się problemy. Dobrze pokazuje to tendencja spadkowa, jeśli chodzi o udział w budżetach partycypacyjnych. Na początku były bardzo popularne, ale pojawiły się problemy z realizacją – i obywatelom coraz mniej chce się w tym uczestniczyć. Brakuje poczucia realnego wpływu.

Wracając do populizmu, nowe technologie mogą go wspierać o tyle, jako narzędzie komunikacji tworzą poczucie wspólnoty, pokazują, że wielu ludzi myśli tak jak my. To daje – częściowo na pewno złudne – poczucie kolektywnej mądrości. Skoro widzę, że cała moja bańka myśli podobnie, i myśli inaczej niż ten polityk u władzy, to mamy po prostu rację. Tak utwierdzam się we własnych przekonaniach – a przecież to, że wielu ludzi myśli tak samo, nie oznacza, że dana idea jest dobra.

A przecież technologia miała wzmacniać krytyczne myślenie.

Przypomnijmy sobie słynne zdjęcie z wiecu NSDAP, gdzie wszyscy „hajlują”, i tylko jeden człowiek, stojący w tłumie, tego nie robi. Potencjalnie technologie dałyby temu człowiekowi możliwość lepszej organizacji opozycji. Obecnie osoby sprzeciwiające się pewnym tendencjom opartym na dyktaturze większości mają większe możliwości działania. To, że słyszymy o wielu opozycjonistach z wielu krajów świata jeszcze kilka lat temu byłoby niemożliwe.

Stajemy się jednak ofiarami fake newsów.

Cała dyskusja o fake newsach czy dezinformacji głównie skupiła się na negatywnych zjawiskach, natomiast pamiętam doświadczenie życia w PRL-u, pamiętam propagandę w krajach autorytarnych i to, jak słabe były możliwości reagowania na nią. Jako zwykły obywatel mogłem jedynie założyć jakieś wydawnictwo podziemne. Wiedza pozwalająca odróżnić prawdę od kłamstwa była trudno dostępna. Nowe technologie dają nam możliwość zidentyfikowania takiego fake newsa i indywidualnej reakcji – mówi się, że każdy może być dziennikarzem. Dlatego państwa czasem decydują się na wyłączanie internetu czy blokowanie treści. To wynika z bezsilności i pokazuje, że w tym starciu jednak obywatele wygrywają.

W szkole brakuje nauki krytycznego myślenia, nauki rozumienia treści internetowych, korzystania z nich w rozsądny sposób – a to jest kluczowe. Mamy za to wiarę w to, że wszyscy będziemy kodować

Czy państwo powinno ścigać autorów fake newsów?

Uważam, że o ile w przypadku algorytmów interwencja państwa jest wymagana, to w przypadku dezinformacji czy fake newsów nie jestem już tego pewien. Według mnie każdy ma prawo do fake newsa. Komisja Europejska również idzie w kierunku nieblokowania i nieograniczania dostępu do treści, które zostały określone jako fake news.

W jaki sposób w ogóle zdefiniować, że coś jest fake newsem? Zmierzamy bardziej do samoregulacji, gdzie to sektor czy dane platformy internetowe będą oznaczać treści, które są podejrzewane o bycie fake newsami. Chodzi o to, by użytkownik wiedział, że informacja została uznana za potencjalnie nieprawdziwą.

Ofiarami fake newsów stajemy się też dlatego, że sami korzystamy z tych technologii i współtworzymy je. Gdyby Facebook był płatny, pewnie mniej osób by z niego korzystało, a skoro nie jest – płacimy swoimi danymi. Dlatego pojawiają się koncepcje (szczególnie we Francji), by firmy takie jak Facebook płaciły nam za to, że zarabiają na naszych danych. Na razie ta dyskusja wydaje się dosyć absurdalna. Jednak człowiek, który założył tak potężny serwis jak Facebook musi się spowiadać przed Kongresem, Parlamentem Europejskim, jest poddany presji. Jak widać, państwa, politycy i obywatele zdają sobie sprawę, że może czas zacząć to kontrolować.

Mówi się, że Facebook cenzuruje debatę publiczną.

Sytuacja jest trudna, gdyż jedni twierdzą, że nawet mowa nienawiści jest elementem wolności słowa, a inni – że Facebook powinien blokować takie treści. To jest ciekawe pod względem prawnym: w jakim stopniu prywatna firma może cenzurować? Cenzura zawsze miała związek z państwem. Tutaj mamy przedsiębiorcę, który ma olbrzymi wpływ na nasze prawa i wolności, szczególnie informacyjne. Jest pokusa, żeby to regulować. Facebook uciekł do przodu, stwierdzając, że sam będzie takiej regulacji dokonywał w sposób kontrolowany. Jest to dowód na to, że takie platformy są quasi-państwami.

Regulacja przez państwo wydaje się więc konieczna. Ale jak powinna przebiegać?

W tym roku we Francji została uchwalona ustawa cyfrowa, która między innymi określa, że wszystkie algorytmy tworzone przez państwo muszą być jak najbardziej przejrzyste. Na stronie internetowej musi być dostępna publicznie informacja, jak one działają, jakie są konsekwencje, jakie dane zbierają itd. Oczywiście trwa dyskusja nad tym, w jaki sposób wytłumaczyć ich często skomplikowane funkcjonowanie. Podobne prace toczą się w parlamencie brytyjskim. Tam po wielu miesiącach przesłuchań przed komisją, analizy setek dokumentów powstał raport, z którego wynika, że jest potrzeba regulacji tego typu rzeczy. Oczywiście samoregulacja jest potrzebna, jednak tam, gdzie dany sektor jest zmonopolizowany, dochodzi do tego, że np. Facebook czy Google pilnują same siebie, co też jest ryzykowne.

Komisja Europejska czy OECD poświęcają dużo czasu tym zagadnieniom – zdają sobie sprawę, że to problem globalny, wymagający globalnej odpowiedzi. Państwa widzą potrzebę wspólnych działań nawet mimo tego, że wykorzystują technologie, by podkopywać nawzajem swoje własne interesy.

Mamy też dziś do czynienia z zadyszką technologiczną. Pewne produkty są ulepszane, ale nie są już tak innowacyjne jak cztery czy pięć lat temu

Może powinniśmy położyć silniejszy akcent na edukację w zakresie technologii?

Tu mamy do czynienia problemem w skali systemowej. Chociażby w Polsce, przy okazji zmian w programie edukacji, wprowadzono naukę kodowania. To jest swego rodzaju fetysz technologii. Ja pracuję w technologiach i nie potrafię kodować – i szczerze mówiąc nie uważam, że jest mi to do czegokolwiek potrzebne. Nie wszyscy muszą się też znać na stolarce, a być może jest ona bardziej praktyczna, bo możemy sobie wybudować dom czy szafę.

Za to w szkole brakuje nauki krytycznego myślenia, nauki rozumienia treści internetowych, korzystania z nich w rozsądny sposób – a to jest kluczowe. Mamy za to wiarę w to, że wszyscy będziemy kodować. Po co? Czy wszyscy mają pracować w branży IT, czy wymyślać własne produkty? To jest zachłyśnięcie się technologicznym optymizmem.

Może wyjściem jest ograniczenie postępu technologii albo wręcz wylogowanie się z wirtualnej rzeczywistości?

Łatwo jest mówić o wylogowaniu, ale nie wyobrażam sobie go w świecie, w którym dla ludzi, szczególnie młodszych, technologia jest czymś zupełnie naturalnym. To nasz towarzysz na dobre i na złe. Nie istniejemy jako społeczeństwo bez technologii.

Natomiast jej ograniczanie zależy od naszych rezerw energetycznych. Elektronizacja, digitalizacja, samochody elektryczne – mówi się, że to wszystko jest ekologiczne. Bzdura. Zużycie energii przez te wszystkie sprzęty jest ogromne. Gdyby na jeden dzień wyłączyć prąd w Warszawie, to byłoby realne ryzyko dla życia i zdrowia ludzi, poczynając od szpitali – i nie chodzi nawet o utrzymywanie ludzi przy życiu, ale choćby o diagnostykę. Być może bez poszukiwania alternatywnych źródeł energii to wszystko przestanie działać.

Mamy też dziś do czynienia z zadyszką technologiczną. Pewne produkty są ulepszane, ale nie są już tak innowacyjne jak cztery czy pięć lat temu. Może stać się tak, że w pewnym miejscu się zwyczajnie zatrzymamy. Również z tego względu, że ludzki umysł jest jakoś ograniczony i że nie pozwoli nam pójść dalej niż pozwala na to nasz kompas moralny.

Czy technologia to nasz przyjaciel czy broń wymierzona w nas?

Ważne, byśmy jako konsumenci mamy świadomość, że dzielimy się danymi z firmami i z państwem, i byśmy naprawdę chcieli kontrolować technologie. Nie możemy tego odpuścić. Dyrektywa RODO jest odpowiedzią na postęp technologiczny w zakresie zbierania i przetwarzania danych osobowych i na związane z tym bardzo konkretne zagrożenia. Ma też uświadomić nam, kto przetwarza nasze dane i w jakim celu. Co my z tą wiedzą zrobimy – to zależy od nas. Czy godzimy się, żeby telefon śledził nasz każdy krok, żeby Facebook rozpoznawał nas na zdjęciach? Mamy jeszcze wybór. Na końcu zawsze są ludzie – ten „interfejs białkowy”. Bez niego się nie obejdzie.