Koronawirus na Świecie

All countries
177,966,027
Zakażeni
Updated on 17 June 2021 19:15
All countries
160,766,099
Ozdrowieńcy
Updated on 17 June 2021 19:15
All countries
3,851,742
Zgony
Updated on 17 June 2021 19:15

Koronawirus na Świecie

All countries
177,966,027
Potwierdzone
Updated on 17 June 2021 19:15
All countries
160,766,099
Wyzdrowiało
Updated on 17 June 2021 19:15
All countries
3,851,742
Zgony
Updated on 17 June 2021 19:15

WIELKI BRAT PATRZY-Michał Mońko

Nowoczesne gadżety techniczne z łącznością internetową, takie jak smartfony, iPody i laptopy, pozwalają nam odkrywać i użytkować platformy społecznościowe. Obecność w sieci umożliwia nam łączność z ludźmi za pośrednictwem Facebooka, Twittera, Instagramu, WhatsAppa, Goldenline, YouTube i Google+. Możemy dyskutować i dzielić się pomysłami poprzez fora dyskusyjne: Reddit, Quora, Houzz, Last.fm.

Utrzymujemy kontakty, przesyłamy informacje, komentujemy wydarzenia, dzielimy się swoim życiem z innymi. Nie zdajemy sobie sprawy z tego, że mając przy sobie gadżet łączności, zawsze i wszędzie jesteśmy w sieci. Można powiedzieć za Orwellem, autorem „Folwarku zwierzęcego” i „Roku 1984”: „Wielki Brat patrzy”. Patrzy i sprawuje nad nami całkowitą kontrolę.

Gdy schodzę z górujących nad Bosforem ruin średniowiecznej twierdzy Anadolu, słyszę w kieszeni: pip-pip. To odzywa się Wielki Brat. Pyta mnie, czy podobał mi się Bosfor widziany z wierzchołka Anadolu? Gdy przeprawiam się promem przez Bug opodal wsi Gnojno na Podlasiu, znowu słyszę Wielkiego Brata. Pyta mnie o przeprawę i czy przewoźnik ma marynarską czapkę? Gdy zaś wychodzę od dentysty w Atrium w Warszawie, słyszę: pip-pip. Na ekranie widzę propozycję wstawienia mi implantów.

Można powiedzieć, że użytkownicy Facebooka albo Instagramu są na pępowinie mediów społecznościowych. Gdy klikają linki, przeglądają strony, umieszczają teksty i czytają wiadomości, gromadzą swoją historię wyszukiwania, zakreślają w hipertekście pola swoich zainteresowań, lokalizują nad Bosforem albo nad Bugiem. W ten sposób sygnalizują, jakie tematy należy im podsuwać i jakie treści będą oczekiwane i akceptowane.

Sieć internetowa jest zarazem systemem wyjaśniającym i oceniającymi świat, a więc jest ideologią. Nacechowane ideologią przekazy rozszczepiają się na odmienne, niekiedy wrogie sobie kulturowo i politycznie grupy społeczeństwa. Żadna grupa, jak zdążyliśmy się przekonać, nie szuka użytecznych informacji i opinii, a tylko wiadomości, które potwierdzają jej poglądy i postawy.

Zamknięta na wolny przepływ informacji grupa zostaje wciągnięta do swego rodzaju bańki filtrującej (filter bubble). Termin „filter bubble” opisał Eli Pariser w książce „The Filter Bubble”. Fakty, okraszone opiniami, trafiają do grup społecznych o zróżnicowanych poglądach i potrzebach. Tam są filtrowane pod kątem ich akceptacji albo odrzucenia.

Bańka filtrująca symbolizuje stan intelektualnej albo ideologicznej izolacji odbiorcy. Izolacja ta powstaje, gdy karmimy się albo media nas karmią informacjami tylko takimi, z którymi się zgadzamy, których poszukujemy i które akceptujemy. Bańka powstaje na dwa sposoby: poprzez samopersonalizację (self – selected personalisation), a także poprzez preselekcję (preselected personalisation).

Samopersonalizacja odnosi się do dobrowolnych wyborów mediów, tekstów, audycji, programów i występuje offline. Żeby zdobyć informację, kupujemy tę albo inną gazetę, oglądamy ten, a nie inny kanał telewizyjny, unikamy tamtych audycji, odrzucamy tę książkę. Jest to wynik naszych poglądów, zainteresowań konkretnymi tematami etc.

Preselekcja to sytuacja, w której to algorytmy podejmują za nas decyzje o wyborze poza naszą świadomością. Ten rodzaj selekcji personalnej, obejmując lokalizację, informację, wartości, oceny i wiedzę, wciąga odbiorcę do bańki filtrującej. Nie wyklucza to, że potem następuje jakaś samoselekcja, ale już nie w obrębie hipertekstu, ale w obrębie przygotowanych i podsuniętych przez algorytm leksji, czyli pól tekstu i obrazów.

W sieci jesteśmy mniej ostrożni, mniej rozważni, tam wszystko jest dostępne, wszystko otwarte dla każdego. Kiedy natomiast sami dokonujemy wyboru, jesteśmy offline, to bardzo uważnie i rozważnie dobieramy te źródła informacji, które wydają się nam wiarygodne i którym ufamy.

Gdy społeczeństwo jest podzielone, zatomizowane, dokonywane wybory informacji i opinii są coraz ostrzejsze i radykalniejsze. Bańki filtrujące wzmacniają poglądy i postawy odbiorców, wykluczają inne poglądy. Coraz więcej ludzi żyje w bańkach mediów społecznościowych, takich jak Facebook, Twitter, YouTube, Instagram. Media te, opierając się na naszej historii wyszukiwań i na podstawie znajomości tego, co akceptujemy, filtrują dla nas informacje i opinie, wykluczając te, których nie akceptujemy.

Słowami kluczowymi na konferencjach poświęconych mediom jest dzisiaj przepływ, dostęp i wolność. Ale za tymi słowami stoją wpływy, pieniądze i interesy. Dlatego szefowie mediów nie zrezygnują dziś z utrzymywania baniek filtrujących. Bo filtrowane są zarówno informacje biznesowe, jak i polityczne.

Dyrektor Facebooka, Mark Zuckerberg, powiada, że martwi się o bańki filtrujące, ale nic nie może zrobić. W manifeście „Building Global Community” pisze, że bańki filtracyjne to „jedna z dwu najczęściej dyskutowanych kwestii”. Ale tylko dyskutowanych.

Tymczasem Facebook Zuckerberga tworzy, podtrzymuje i zamyka w bańkach filtracyjnych społeczności na rynkach telewizorów i skarpetek, samochodów i aparatów fotograficznych, a także na rynkach o podobnym widzeniu polityki, podobnych upodobaniach i poglądach, o podobnym widzeniu świata.

Bańki filtrujące wciągają nas tam, gdzie my sami chcemy się wciągnąć. Wystarczy, że klikniemy na hasło „Stambuł”, a już po chwili mamy w Internecie kilkanaście linii lotniczych i kilkadziesiąt hoteli w Stambule. Wystarczy, że poszukamy na Facebooku albo na Twitterze jakiegoś tekstu politycznego, a już po chwili będziemy dostawać podobne teksty o podobnym zabarwieniu politycznym.

Człowiek zamknięty w kręgu akceptowanych przez siebie informacji i opinii, bez możliwości wyjścia ku innym opiniom, tematom i punktom widzenia, to zazwyczaj człowiek odosobniony i w pewnym sensie zdany na prowadzenie go przez życie. Można z nim zrobić wszystko i jeszcze więcej.

„A zatem, jeśli nie znasz innych społeczności, nie rozumiesz innych punktów widzenia – przyznaje były prezes Microsoftu, Bill Gates, w wywiadzie dla pisma Quartz.

Algorytmy mediów społecznościowych przeprowadzają filtrowanie za kulisami jawnego komunikowania, tworząc strumienie wiadomości w oparciu o to, co spodobało się dotąd użytkownikowi. Zachowują się jak elektroniczne narzędzie do przeżuwania strawnej papki dla narodu. Z setek i tysięcy informacji wybierają, przeżuwają i przekazują kilka ekscytujących, łatwych do konsumpcji i do zapamiętania przez konkretnego odbiorcę.

– Rosnąca stratyfikacja gospodarcza i regionalna, rozszczepienie naszych mediów i kanałów dla każdego gustu – wszystko to wydaje się naturalne, a nawet nieuniknione – powiedział 11 stycznia 2017 roku, w pożegnalnym przemówieniu, prezydent Barack Obama.  

– I coraz częściej stajemy się tak bezpieczni w naszych bańkach, że akceptujemy tylko informacje prawdziwe albo nieprawdziwe, które pasują do naszych opinii, zamiast opierać nasze opinie na dowodach, które tam są”.

Niestety, nie szukamy dowodów, nie weryfikujemy odbieranych wiadomości. Ale na co dzień korzystamy z mediów społecznościowych, nie podejrzewając, że media te przesyłają najwięcej tego, co nas zadawala, odcinając nas od tego, co nas nie zadawana.

Filtracja informacji i opinii jest procesem. To algorytm. Czynności nie są przypadkowe. Można powiedzieć, że moja tożsamość kształtuje moje media. Bańka filtrująca opisuje sytuację, w której news o wydarzeniu, które nam się nie podoba, automatycznie jest wyrzucany poza nawias, zawężając to, co wiemy.

Możemy coraz częściej powiedzieć za św. Hieronimem: „Błogosławiony ten, który nie wie”. Bo jeśli nie wie, to ma święty spokój.

A czy stać nas na odbiór przekazów wściekłych, perswazyjnych, nienawistnych? Nie są to zazwyczaj indywidualne przedstawienia, pojedyncze opinie, jednostkowe punkty widzenia. Są to zbiorowe produkcje, przekazy społeczne, kulturowe i polityczne, obmyślane i wykonane w konkretnych okolicznościach i z konkretnym celem, dostępne na małym ekranie i na platformach medialnych.

Człowiek w bańce informacyjnej albo ideologicznej nie jest narażony na konflikt z propagandą jakiegoś medium albo opinią człowieka z innej bańki informacyjnej. Po prostu może być tak, że ludzie ze zróżnicowanymi poglądami politycznymi nie prowadzą ze sobą dysputy, żeby chronić swoje zdrowie psychiczne. Czy jednak z tego powodu zawężają swoją perspektywę intelektualną?

Pozostawanie w bańce informacyjnej chroni odbiorcę przed tym, czego on nie akceptuje i co odrzuca, jednocześnie skazuje odbiorcę na niewidzialną autopropagandę i indoktrynację jego własnymi poglądami, obsesjami i uczuleniami.

Bill Gates dostrzega w bańkach filtrujących rodzaj obozów, w których ludzie nie mają dostępu do dokładnych informacji. Ludzie ci tworzą społeczności o podobnych poglądach i żywią się błędnymi informacjami, zgromadzonymi w bańkach filtrujących.

 „Czy ludzie naprawdę chcą być w mikrokosmosie, gdzie fakty są błędne? – pyta Bill Gates. – Z czasem złe fakty nie prowadzą do dobrych rzeczy. Jeśli słyszysz: ‘Nie używaj szczepionek’, to nie jest dobre dla ciebie”.

Efekt bańki może mieć negatywne konsekwencje dla dyskursu obywatelskiego. Potencjalną wadą filtrowanego wyszukiwania jest to, że człowiek jest odgrodzony od nowych pomysłów, tematów, ważnych informacji.

Od niedawna bańka filtrująca opisywana jest jako nasilający się fenomen, zwany splinternetem. Internet zostaje podzielony na podgrupy ludzi podobnie myślących, którzy zostają izolowani w ich własnych wirtualnych społecznościach i pozbawieni możliwości kontaktu z innymi poglądami.

Obok bańki filtracyjnej funkcjonuje pojęcie komory echo (echo chamber), a także pojęcie ramki ideologicznej (ideological fram). W mediach pojęcia te funkcjonują jako metaforyczny opis sytuacji, w której dochodzi do wzmocnienia przekonania wewnątrz zamkniętego systemu. 

Odwiedzając „komorę echo”, ludzie mogą szukać informacji, które wzmacniają ich poglądy. Może to zwiększyć polaryzację polityczną i społeczną oraz ekstremizm. Termin „komora echo” jest metaforą opartą na akustycznej komorze echa, gdzie dźwięki rozbrzmiewają w pustej obudowie. 

O bańkach filtracyjnych i o komorach echo mówił w 2017 roku prezydent Barack Obama, określając koncepcję filtracyjnych baniek jako „zagrożenie dla demokracji Ameryki”.

Bańki filtrujące nie chronią przed złymi wyborami i przed fake newsami. Nawet przeciwnie. Bańka może uczynić ludzi bardziej podatnymi na propagandę, manipulację i kłamstwa. Wiadomość, która łomocze się w bańce, najczęściej nie jest świeża, bywa, że już jest znana. Bywa, że jest rytuałem, czyli komunikacją bez informacji.

 „A świat zbudowany ze znanego jest światem, w którym nie ma się czego nauczyć” – pisze Eli Pariser.

Żeby zrozumieć, jak i dlaczego powstają bańki filtrujące, trzeba wiedzieć, skąd ludzie czerpią wiadomości. Na ten temat dostarczają wiedzy badania przeprowadzone w Reuters Institute i efekt tych badań pod nazwą Digital News Report.

Na pytanie o sposób zdobywania wiadomości online, jedna trzecia respondentów odpowiedziała, że czerpie je bezpośrednio ze stron internetowych. Natomiast dwie trzecie powiedziało, że głównym sposobem zdobywania wiadomości jest sięganie do mediów społecznościowych. A tamtejsze serwisy opierają się właśnie na algorytmach!

„Jest więc czym się martwić” – mówi Richard Fletcher, autor „The Truth Behind Filter Bubbles”.

Gdy ludziom, biorącym udział w badaniu, zadano pytanie co jest dla nich głównym źródłem informacji, połowa ankietowanych odpowiedziała, że telewizja, a druga połowa, że Internet. Radio i media drukowane znalazły się daleko w tyle za telewizją i Internetem.

Wiek respondentów czerpiących swoje informacje głównie online, to ludzie poniżej 45 lat. Dla tych powyżej 45 lat podstawowym źródłem informacji jest telewizja. W większości krajów Facebook jest dominującą platformą, wykorzystywaną do pozyskiwania wiadomości. W latach 2016-20 wzrosła popularność Instagramu, Twittera i WhatsAppa.

Media te zagrażają demokracji odbiorcom dlatego, że starają się dostosowywać swoje usługi do naszych indywidualnych gustów. W konsekwencji zatrzaskują nas w bańce filtracji. A my nie otwieramy się na informacje, które mogłyby poszerzyć nasz horyzont widzenia świata lub nawet go zmienić.

Ta sytuacja jest potencjalnie szkodliwa zarówno dla jednostek, jak i dla społeczeństwa w tym sensie, że bańki filtracyjne mogą podważyć dyskurs obywatelski (undermining civic discourse). Kenneth J. Georgen, profesor w Swarthmore College, opisuje dyskurs obywatelski jako „język beznamiętnego obiektywizmu i szacunku dla wszystkich stron dyskursu”, twierdzi, że bańki filtrujące demolują język dyskursu obywatelskiego.

Problem szacunku dla stron zaczyna się tam, gdzie nie wszystkie strony dyskursu trzymają się swoich poglądów i odrzucają otwartość na zmiany.

 „Dla zbyt wielu z nas bezpieczniej jest wycofać się do własnych baniek, czy to w naszych dzielnicach, kampusach uniwersyteckich, miejscach kultu lub naszych kanałach w mediach społecznościowych, w otoczeniu ludzi, którzy wyglądają jak my i mają te same poglądy polityczne i nigdy nie kwestionują naszych poglądów” – powiedział w swym przemówieniu prezydent Barack Obama.

Prezydent Obama niedwuznacznie sugeruje, że należałoby rozbić owe bańki filtracyjne Wielkiego Brata, medialne pułapki, w których dla spokoju wyrzekły się wolności i zamknęły się od środka na skobel społeczności różnej orientacji kulturowej i politycznej.

 Michał Mońko 

P.S.

Komisja Europejska uznała ostatnio, że sytuacja na rynku Internetu dojrzała do poważnej interwencji. Problemem jest asymetria wiedzy i władzy w sieci. Jesteśmy skazani na korzystanie z medialnej infrastruktury, która należy do kilku potężnych firm o globalnym zasięgu. Firmy te zgromadziły wiedzę o miliardach użytkowników mediów.

Obecny model platform internetowych powoduje erozję prywatności i umożliwia manipulację. Zaś optymalizowanie algorytmów dla coraz większego wciągania użytkowników w bańki informacyjne i ideologiczne wpływa negatywnie na stan dyskursu publicznego, a także na zdrowie psychiczne społeczeństwa.

Komisja Europejska rozpoczęła pracę nad nową regulacją usług cyfrowych pod nazwą Digital Services Act. Komisja uznała, że na rynku Internetu musi pojawić się silny regulator, który zadba o to, aby usługi w sieci były bezpieczne i nie prowadziły do szkodliwych skutków społecznych i politycznych.

Gorące tematy

Jak rozbudzić w dziecku pasje?

Pasję zazwyczaj postrzegamy jako hobby, coś co lubimy robić w wolnym czasie, co nas interesuje, przy czym często odpoczywamy. Dorośli zazwyczaj potrafią wskazać na...

Wychowanie dziecka do roli ojca i matki

Wychowanie jest to proces bardzo długi. Na początku dziecko jest w pełni zależne od rodziców, natomiast po około dwudziestu latach ma ono stać się...

Rodzinne posiłki – konieczna normalność!

Nasze dni wypełnione są po brzegi zajęciami, co sprawia, że często jakość spotkań z ludźmi jest coraz gorsza. Nie mamy czasu na spokojną rozmowę...

Powiązane Artykuły

Jak rozbudzić w dziecku pasje?

Pasję zazwyczaj postrzegamy jako hobby, coś co lubimy robić w wolnym czasie, co nas interesuje, przy czym często odpoczywamy. Dorośli zazwyczaj potrafią wskazać na...

Wychowanie dziecka do roli ojca i matki

Wychowanie jest to proces bardzo długi. Na początku dziecko jest w pełni zależne od rodziców, natomiast po około dwudziestu latach ma ono stać się...

Rodzinne posiłki – konieczna normalność!

Nasze dni wypełnione są po brzegi zajęciami, co sprawia, że często jakość spotkań z ludźmi jest coraz gorsza. Nie mamy czasu na spokojną rozmowę...