Kodėl algoritmų diktuojamos naujienos tyliai keičia tai, kuo tikime

Mes manome, kad renkamės – bet iš tikrųjų esame renkami

Kiekvieną rytą atidarai telefoną ir tau pasirodo „svarbios” naujienos. Bet kas nusprendė, kad jos svarbios? Ne tu. Ne redaktorius su dešimtmečių patirtimi. Tai padarė kodas – optimizuotas ne tavo supratimui gilinti, o tavo dėmesiui išlaikyti kuo ilgiau. Skirtumas yra esminis, ir mes jį nuolat ignoruojame.

Algoritmai neturi jokio intereso, kad tu suprastum pasaulį geriau. Jų tikslas – kad tu liktum ekrane. O tam geriausiai tinka turinys, kuris sukelia stiprias emocijas: pyktį, baimę, pasipiktinimą. Neutrali, subalansuota žinia apie komplikuotą ekonominę situaciją pralaimi prieš sensacingą antraštę apie tai, kaip kažkas kažką apgavo. Visada. Nes taip veikia metrika.

Burbulas, kurio nesimato iš vidaus

Informacinis burbulas – tai ne teorija iš akademinio vadovėlio. Tai kasdienybė, kuri tiesiog neatrodo kaip burbulas, nes viduje viskas atrodo normalu. Jei tavo feed’e dominuoja tam tikros politinės pažiūros, po kurio laiko pradedi manyti, kad „visi normalūs žmonės” mano panašiai. Priešingos nuomonės atrodo ne kaip alternatyvus požiūris, o kaip akivaizdus kvailumas arba piktavališkumas.

Ir čia prasideda tikroji problema. Ne ta, kad žmonės nesutaria – nesutarimas yra sveikas. Problema ta, kad mes nebežinome, kodėl nesutariame, nes esame maitinami skirtingomis realybės versijomis. Du žmonės gali kalbėtis apie tą patį įvykį ir turėti visiškai skirtingą faktinę bazę – ne dėl to, kad vienas meluoja, o dėl to, kad algoritmai jiems parodė skirtingus pasaulius.

Platformos žino, ką daro

Čia norisi būti aiškiam: tai nėra atsitiktinumas ar šalutinis poveikis. „Facebook” vidaus tyrimai – kuriuos nutekino Frances Haugen – parodė, kad kompanija žinojo, jog jos algoritmai skatina poliarizaciją ir neapykantą, bet pakeitimai, kurie tai mažintų, taip pat mažintų įsitraukimą. Jie pasirinko įsitraukimą. Tai buvo sąmoningas verslo sprendimas.

Tą patį galima pasakyti apie YouTube rekomendacijų sistemą, kuri ne kartą buvo dokumentuota kaip vedanti žiūrovus vis radikalesnio turinio link – ne dėl to, kad platforma nori radikalizuoti žmones, o dėl to, kad ekstremalus turinys laiko žmones prie ekrano ilgiau. Pasekmės yra šalutinis produktas, bet žinomas šalutinis produktas.

Mes patys irgi esame kalti – ir tai svarbu pripažinti

Lengva viską suversti „blogiems algoritmams” ir „godžioms korporacijoms”. Bet sąžiningumas reikalauja pripažinti: mes spaudžiame ant to, kas mus erzina. Mes dalijamės tuo, kas sukelia pasipiktinimą. Mes ignoruojame nuobodžias, bet svarbias žinias ir klykiame ant sensacijų. Algoritmai mus pažįsta geriau nei mes patys – ir naudoja tą žinojimą prieš mus.

Tai nereiškia, kad atsakomybė vienoda. Platformos turi galią keisti sistemas – vartotojai to neturi. Bet vartotojai turi galią bent jau suvokti, kas vyksta, ir tai jau yra kažkas.

Vietoj ramios pabaigos – nepatogus klausimas

Jei tavo nuomonės per pastaruosius penkerius metus tapo ryškesnės, kategoriškesnės, mažiau linkusios į kompromisą – verta paklausti, ar tai brendimas, ar algoritminis kondicionavimas. Nes abu procesai iš vidaus atrodo vienodai. Abu jaučiasi kaip „pagaliau suprantu, kaip viskas iš tikrųjų veikia”.

Niekas nenori galvoti, kad jo įsitikinimai buvo formuojami ne gyvenimo patirties ar gilaus mąstymo, o reklaminių pajamų optimizavimo modelio. Bet galbūt kaip tik todėl verta apie tai galvoti – nes tai, kas nepatogu, dažniausiai yra arčiau tiesos nei tai, kas patinka.

About the Author

You may also like these