27 listopada 2020
Tegoroczne wybory prezydenckie w USA dla wielu osób mogły okazać się sporym zaskoczeniem. Dlaczego? Otóż nie zdarza się zbyt często, że wyborcze zwycięstwo ogłaszają dwaj główni rywale. W wyścigu o Biały Dom nie ma przecież miejsca na remis. Warto w tym miejscu podkreślić, że wybory odbywały się w czasie pandemii, a znaczna część właściwej kampanii wyborczej i działań sztabów przeniosła się m.in. do Internetu, a w zasadzie do mediów społecznościowych. I w ten sposób docieramy do sedna problemu.
Nie jest żadną tajemnicą, że politycy oraz ich sztaby wykorzystują social media do kreowania wizerunku kandydata oraz, a może przede wszystkim do wpływania na preferencje wyborcze głosujących. Dziś zapewne jeszcze doskonale pamiętamy poruszenie, jakie wywołała w 2017 roku publikacja na łamach „The Observer” na temat Cambridge Analytica. Już wtedy zwracano uwagę na możliwość wykorzystywania danych o użytkownikach Internetu (a zwłaszcza mediów społecznościowych) w wyborach prezydenckich w USA, a także innych krajach. Już wówczas, z całego zamieszania wokół Cambridge Analytica nasuwał się jeden wniosek: algorytmy stworzone i opracowane przez człowieka zaczęły wpływać, a w skrajnych przypadkach nawet rządzić naszymi pozornie świadomymi wyborami, zupełnie realnie wpływając na otaczającą nas rzeczywistość. Szerzej skalę tego zjawiska opisywałem w lipcu 2019 roku na łamach DWU.TYGODNIKA tutaj: http://instytutstaszica.org/2019/07/29/ja-wybieram-ty-wybierasz-oni-za-nas-wybieraja/
Dwie twarze bańki filtrującej
Mam nadzieję, że żaden z Czytelników nie żyje już w błogiej nieświadomości i zdaje sobie sprawę z tego, że za wyniki wyszukiwania w Internecie w mniejszym lub większym stopniu odpowiadają złożone algorytmy (często oparte o systemy uczenia maszynowego oraz Big Data). Korzystając z przeglądarek i wyszukiwarek internetowych jesteśmy skazani na wpadnięcie w pułapkę tzw. bańki filtrującej (eng. filter bubble). Jej mechanizm powoduje, że spośród wszystkich dostępnych w sieci wyników wyszukiwania danej frazy, odbiorca ma dostęp jedynie do niewielkiej ich części. Widzi jedynie to, co chce zobaczyć, najczęściej zbieżne z jego światopoglądem i systemem wartości. Na podobnej zasadzie działają media społecznościowe, które chronologiczną formę prezentacji treści zastąpiły spersonalizowanym wyszukiwaniem, dobierającą treści indywidualnie dla każdego użytkownika.
Algorytm filtrowania wykorzystuje informacje o lokalizacji użytkownika oraz historii jego wyszukiwani. Oczywiście tych zmiennych jest znacznie więcej, ale w tym tekście chciałbym oszczędzić Czytelnikowi technicznych szczegółów. Wszystko sprowadza się do tego, że poszczególne kanały w mediach społecznościowych uwzględniają wszystkie reakcje na posty, wyłączając domyślnie te posty, na które użytkownik poprzednio nie zareagował. Warto zwrócić uwagę, że już od 4 grudnia 2009 Google „personalizuje” wszystkich użytkowników. Ominięcie zaawansowanego wyszukiwania nadal jest możliwe przez specjalnie stworzone w tym celu wyszukiwarki, jak choćby DuckDuckGo. Nie zmienia to jednak faktu, że zdecydowana większość internautów została już złapana w pułapkę bańki filtrującej.
Termin filter bubble został wprowadzony w 2010 roku przez internetowego aktywistę Eli Parisera, który ostrzega, że „użytkownicy funkcjonując w „bańkach informacyjnych” mają blokady na nowe pomysły, obiekty i ważne informacje”. Według niego użytkownicy są odizolowani od informacji, która nie zgadza się z ich punktem widzenia. W tej wersji jednak spory wpływ na ograniczenie wyników wyszukiwania i zamykanie się w bańce mają sami internauci, poprzez swoje dotychczasowe wybory, każde kolejne kliknięcia i wyszukiwania. Można wręcz mówić o opcji samoograniczenia.
Jest to jednak tylko jedna strona medalu.
Drugą jest prowadzenie całych złożonych kampanii dezinformacyjnych właśnie w oparciu o wiedzę na temat funkcjonowania bańki filtrującej i poszczególnych algorytmów wyszukiwania i prezentacji treści w sieci. Dość szybko potencjał takiego rozwiązania dostrzegły wielkie koncerny i siły polityczne. Sięgnięcie po ten mechanizm pozwalało bowiem na kreowanie konsumenta, widza, czytelnika, słuchacza, a w końcu… wyborcy. W dość dosadny, ale i obrazowy sposób ukazuje to słynny paradokument Netflixka „Dylemat społeczny” (The Social Dilemma).
Algorytm też… człowiek?
Internetowy kanał telewizyjny Vice News informował swego czasu o poważnych zarzutach pod adresem Twittera. Chodziło o ograniczanie w wynikach wyszukiwania widoczność wpisów przewodniczącej Krajowego Komitetu Republikanów Ronny McDaniel oraz innych Republikanów, a także samego prezydenta USA Donalda Trumpa. Głośno było także o ograniczaniu zasięgów córki Trumpa – Ivanki.
Dziś nie ulega wątpliwości, że media społecznościowe w dość krótkim czasie stały się kluczowym elementem politycznej rozgrywki. Dla sporej grupy internautów to właśnie Facebook, Twitter lub Instagram są głównym źródłem informacji o kulturze, sporcie, sytuacji w kraju, na świecie, a także… o polityce. Już przy poprzednich wyborach prezydenckich część ekspertów i analityków przekonywała, że bez wykorzystania social mediów w kampanii i zaangażowania w Internecie zwolenników Donalda Trumpa, nie miałby on szans na prezydenturę. Polityczna konkurencja szybko jednak dodała dwa do dwóch i szybko pozbierała się po porażce. Dość oczywiste jest, że Dolina Krzemowa już od lat jest zdominowana przez lewicę i środowiska liberalne, a media społecznościowe nie stanowią w tej kwestii wyjątku. Przykłady oskarżeń kierowanych pod adresem Facebooka czy Twittera w sprawie cenzurowania nie tylko prawicowych polityków, ale także konserwatywnych komentatorów, dziennikarzy oraz celebrytów można mnożyć godzinami. W ostatnich miesiącach szerokim echem odbiła się także sprawa ograniczenia widoczności w mediach społecznościowych z pewnością niewygodnego dla Demokratów artykułu na temat interesów syna Joe Bidena.
Republikanie mówią wprost o cenzurze politycznej i proponują zmianę treści Sekcji 230 – jest to fragment Ustawy o Przyzwoitości w Komunikacji z 1996 roku. Zapis ten dotychczas chronił właścicieli portali internetowych przed odpowiedzialnością prawną za treści publikowane tam przez strony trzecie. Przez lata zapis ten wykorzystywano jako kluczowy do zagwarantowania swoistej nietykalności portali społecznościowych. W tym kontekście warto podkreślić, jaka jest skala całego zjawiska. Sam Facebook ma aktualnie ok. 2,7 miliarda użytkowników publikujących treści co najmniej raz w miesiącu, a Twitter może się pochwalić gronem 330 milionów aktywnych użytkowników. Jest oczywiste, że „ręczne” sprawdzenie wszystkiego, co publikują użytkownicy jest po prostu fizycznie niemożliwe. Dlatego giganci social mediów sięgnęli po potęgę algorytmów.
Doprowadziło to do sytuacji, w której wolność słowa (chroniona w USA na mocy konstytucji) okazywała się jedynie fikcją. Klauzula zawarta w Sekcji 230 dała mediom społecznościowym możliwość usuwania (chronionych przez pierwszą poprawkę) treści lub drastycznego ograniczania ich zasięgów, jeśli operatorzy danego portalu społecznościowego uznaliby go za obsceniczny, groźny lub obraźliwy. Warunek? Ograniczanie dostępu do tego typu treści miałoby odbywać się „w dobrej wierze”. Dość szybko zaczęto jednak tej możliwości nadużywać.
Społecznościowa cenzura
O realnym zagrożeniu związanym z nadużywaniem potęgi algorytmów i możliwości zamknięcia obywateli w bańce filtrującej świadczą chociażby wydarzenia, które rozegrały się w kontekście wyborów prezydenckich w USA. Wówczas Twitter i Facebook oznaczyły jako „mylący i wprowadzający w błąd” wpis prezydenta USA Donalda Trumpa, w którym sugerował on m.in., że głosowanie korespondencyjne prowadzi do „oszustwa”.
Chodziło o wpis krytykujący decyzję Sądu Najwyższego w USA, wydłużającą termin przyjmowania głosów oddanych korespondencyjnie w stanach Pensylwania i Karolina Północna do trzech dni po zamknięciu lokali wyborczych. Trump przekonywał, że decyzja ta pozwoli na „szerzenie się oszustwa” i jest „bardzo niebezpieczna”.
Tymczasem Twitter oflagował wpis URZĘDUJĄCEGO jeszcze prezydenta USA, jako „bezpodstawny” i „mylący”. Co więcej, serwis zablokował możliwość przesyłania tweeta dalej, dopuszczając jedynie jego cytowanie. Tego typu przypadków w kontekście wpisów Donalda Trumpa było w czasie kampanii wyborczej i już po jej zakończeni znacznie więcej.
Co ciekawe, internauci w USA znaleźli proste rozwiązanie na stosowaną przez Twitter cenzurę. Użytkownicy Twittera chcąc uchronić się przed ograniczeniem zasięgów wpisów pisali rzeczy odwrotne do zamierzonych i samemu dodawali twitterowe ostrzeżenie: „Oficjalne źródła stwierdziły, że jest to fałszywe i mylące”. Dopisek taki można znaleźć w przypadku wielu wpisów politycznych, ostatnio na przykład w szeregu tweetów dotyczących wyborów w Stanach Zjednoczonych.
Jest to jednak tylko częściowe rozwiązanie poważnego problemu. Długotrwałe funkcjonowanie w bańce informacyjnej prowadzi do negowania wszystkiego, co wykracza poza jej ramy. Z tego typu sytuacją spotkała się chociażby utytułowana zawodniczka MMA, a ostatnio aktorka znana z serialu „The Mandalorian” Disneya – Gina Carano. Podpadła ona internautom, za otwarte wyrażanie poglądów na temat ruchu Black Lives Matter, walki o prawa osób LGBT+, czy wyborów prezydenckich w Ameryce. Warto dodać, że chodziło o dość konserwatywne poglądy i dość kąśliwe uwagi pod adresem Demokratów. Czarę goryczy przelał wpis o treści: „Demokraci teraz rekomendują, abyśmy wszyscy zaczęli nosić także opaski na oczy oprócz masek, żebyśmy nie mogli zobaczyć co tak naprawdę się dzieje.” – napisany w kontekście oskarżeń o wyborcze nieprawidłowości w USA. Władze Disneya zalała fala petycji z żądaniami usunięcia aktorki z obsady serialu, a na Twitterze powstał nawet hashtag #FireGinaCarano, w którym nietrudno doszukać się dosadnych przykładów funkcjonowania w Internecie hejtu i szerzenia mowy nienawiści.
Na koniec proponuję wszystkim Czytelnikom prosty eksperyment. Wystarczy przez najbliższych kilkanaście dni kliknąć 3-4 razy w oferty sponsorowane wyświetlane w tzw. newsfeedzie (istotne są także kliknięcia „lubię to” oraz udostępnienia). Idę o zakład, że z każdym kolejnym kliknięciem wpisów komercyjnych i sponsorowanych będzie przybywać lawinowo. Najpierw będzie się to działo kosztem wpisów naszych dalszych znajomych, później (w zależności od czasu trwania eksperymentu) dotknie również najbliższych. Podobny test prowadził kilka lat temu dziennikarz „Wired”. Dość szybko doszedł on do poziomu, w którym na jego facebookowym kanale informacyjnym wyświetlały się praktycznie same oferty sponsorowane, a jego newsfeed przypominał społecznościowy śmietnik.
Tak w praktyce działa bańka filtrująca. Jeżeli w oparciu o jej mechanizmy kształtujemy światopogląd i wiedzę o otaczającym nas świecie, może się okazać, że na własne życzenie stworzyliśmy sobie alternatywną rzeczywistość – taki Matrix, z którego może już nie być wyjścia.
dr Piotr Łuczuk
Medioznawca, ekspert ds. cyberbezpieczeństwa.
Adiunkt w Katedrze Komunikacji Społecznej, Public Relations i Nowych Mediów Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie. Redaktor naczelny serwisu FilaryBiznesu.pl. Ekspert Instytutu Staszica.
Foto: Joe Biden/FB