Autor: Željko Injac, novinar
Algloritmi na društvenim mrežama su dizajnirani da optimizuju efikasnost društvenih mreža i efikasnost reklama na društvenim mrežama. Međutim, vremenom su postali uzrok diskriminacije na društvenim mreža, pa i ograničavanja slobode govora. Konkretan primer diskriminacije prouzrokovane algoritmima na društvenim mrežama i platformama su oni koji su upotrebljeni za filtriranje korisnika za zapošljavanje u određenim kompanijama. Ovakva vrsta diskriminacije se pravda nehotičnim učinkom algoritama, međutim nije jednostavno u pitanju propust, nego upravo se predrasude i nejednakosti u društvu podupiru algoritmima, koji se zapravo oslanjaju na stereotipe o pojedinim socijalnim grupacijama.
Tehnološke kompanije koje vrše zapošljavanje preko interneta jednostavno ne čine ništa na transparentnosti u vezi sa načinom na koji njihovi algoritmi funkcionišu. Veća transtapernstnost funkcionisanja algoritama bi trebala biti omogućena objavljivanjem informacija o faktorima koji se uzimaju u obzir prilikom donošenja odluka i omogućavanjem nezavisnih revizija algoritama.
Algoritmi su samo toliko dobri koliko su dobri podaci na kojima su kreirani, odnosno ukoliko su baze alogoritama i trening postavljeni tako da isključuju svaku mogućnost diskriminacije. Obezbeđivanje da podaci koji se koriste za obuku algoritama budu raznoliki i reprezentativni mogu pomoći u smanjenju algoritamskih propusta koji idu na ruku predrasudama i diskrimininaciji.
Ukoliko se algoritmi ne testiraju redovno i revidiraju kako bi se otkrili i ispravili bilo kakvi propusti ili nesvesno uneti elementi koji doprinose diskriminaciji korisnika, što uključuje korišćenje simulacija i scenarija koji obuhvataju različite demografske grupe, rizik od diskriminatorskih algoritama je suviše velik.
Jasna etička pravila i zakoni bi mogli značajno regulisati upotrebu algoritama u oblastima kao što su zapošljavanje i uopšte algirotamsko delovanje na društvenim mrežama. Potrebno je zabraniti diskriminatorne prakse algoritama i postaviti zahtev za transparentnošću i odgovornošću.
Programeri i inženjeri koji razvijaju algoritme treba da budu obučeni o etičkim pitanjima i predrasudama o određenim društvenim grupama. Edukacija o etici i odgovornosti u razvoju tehnologije pomaže u prepoznavanju i sprečavanju potencijalnih problema.
U razvoj algoritama potrebno je uključiti različite perspektive, uključujući stručnjake za etiku, sociologe i predstavnike različitih demografskih grupa kako bi se obezbedila pravednost i nepristrasnost.
Ukoliko postoji odsustvo interesovanja korporacija u čijem vlasništvu su platforme društvenih mreža ili međunarodnih organizacija, potrebno je uključiti državne organe koji bi postavili jasne etičke standarde o upotrebi algoritama. Ovo uključuje donošenje zakona i propisa koji sprečavaju diskriminaciju i zahtevaju odgovornost od tehnoloških kompanija.
Regulacija algoritama na društvenim mrežama postaje sve važnija tema u javnom diskursu i među regulatornim telima širom sveta. Iako postoje inicijative i rasprave o ovoj temi, može se reći da se to još uvek ne reguliše u dovoljnoj meri kako bi se adekvatno odgovorilo na izazove koje algoritmi predstavljaju po privatnost, javno mišljenje i društvenu koheziju.
Postoje istraživanja i rasprave u akademskim krugovima, kao i u civilnom društvu, koja ukazuju na uticaj algoritama na društvene mreže, te samim tim i na društvo u celini i predlažu različite pristupe regulaciji.
U nekim državama postoje regulatorna tela koja razmatraju pitanja vezana za algoritme i internet platforme. Na primer, Evropska unija je uvela Opštu uredbu o zaštiti podataka (GDPR), koja se bavi pitanjima privatnosti, ali ova uredba ipak ne reguliše rad algoritama, što je ozbiljan propust.
Pojedine inicijative za donošenje zakona koji bi se bavili transparentnošću i odgovornošću algoritama se često suočavaju sa kompleksnošću tehnoloških procesa i potrebom za međunarodnom saradnjom zbog globalne prirode tehnoloških kompanija, a još češće ostaju samo mrtvo slovo na papiru i jalov posao.
Pošto su društvene mreže globalne platforme, regulacija algoritama zahteva međunarodnu saradnju i usklađivanje standarda kako bi se postigla efikasna regulativa.
Povećanje javnog pritiska i svesti o uticaju algoritama može uticati na regulatorna tela i tehnološke kompanije da preduzmu odgovornije korake u vezi sa algoritmima.
Regulacija algoritama na društvenim mrežama jeste u fokusu, ali još uvek nedovoljno da bi se izvršio značajan uticaj na kompanije i korporacije koje kreiraju algoritme.
U pojedinim slučajevima reakcija regulatornih tela nakon afere Fejsbuk–Kembridž analitika bila je usmerena ka jačanju zaštite privatnosti korisnika društvenih mreža. Ovo je uključivalo donošenje rigoroznijeg zakonodavstva u nekim državama, kao i primenu novih pravila koja se odnose na prikupljanje, čuvanje i korišćenje ličnih podataka.
Međutim, postoji važna razlika između regulisanja prava korisnika društvenih mreža i regulisanja algoritama koji operišu na tim platformama. Dok su zakoni o zaštiti privatnosti usmereni na zaštitu podataka korisnika, pitanje algoritama je kompleksnije jer se tiče načina na koji tehnološke kompanije manipulišu informacijama i utiču na korisničko iskustvo i javno mišljenje.
Da bi se adekvatno regulisali algoritmi na društvenim mrežama, potrebno je uspostaviti nove ili prilagoditi postojeće regulative koje bi zahtevale veću transparentnost u radu algoritama, ograničavanje njihovog uticaja na formiranje društvenih balona filtriranja i manipulaciju javnim mišljenjem.
Dakle, iako je zaštita privatnosti korisnika važan korak, regulacija algoritama je takođe neophodna kako bi se očuvao integritet informacija i obezbedila raznolikost izvora i perspektiva na društvenim mrežama, ali i omogućile slobode koje su trenutno ograničene korisnicima mreža pod izgovorom očuvanja bezbednosti podataka ili privatnosti korisnika.
Afera Fejsbuk–Kembridž analitika, zaista je pokazala sve razmere mogućih zloupotreba podataka koji se prikupljaju putem algoritama u političke svrhe. U ovoj aferi, podaci korisnika Fejsbuka su neovlašćeno prikupljeni putem aplikacije za testiranje ličnosti, a zatim su korišćeni za ciljano usmeravanje političkih poruka tokom američkih predsedničkih izbora.
Afera je kod šire javnosti izazvala veliku zabrinutost zbog zloupotrebe privatnosti podataka, manipulacije javnim mišljenjem i nedostatka transparentnosti u načinu na koji tehnološke kompanije rukuju korisničkim informacijama. Posledice afere su bile mnogostruke.
Korisnici su postali svesni da informacije koje dele na društvenim mrežama mogu biti zloupotrebljene bez njihovog znanja ili saglasnosti.
Postali su svesni (u većoj ili manjoj meri) da korišćenje podataka za ciljano usmeravanje političkih poruka može značajno uticati na izborne rezultate i oblikovanje društvenih stavova i tokova.
Afera je dovela do smanjenja poverenja korisnika u tehnološke kompanije i njihovu sposobnost da adekvatno zaštite podatke korisnika.
Ova situacija je dodatno istakla potrebu za jačim regulativnim okvirom koji bi štitio privatnost podataka korisnika i zahtevao veću transparentnost u radu tehnoloških kompanija. Iako su nakon ove afere doneti određeni koraci ka boljoj regulaciji, izazovi u vezi sa zaštitom privatnosti i odgovornim rukovanjem podacima i dalje ostaju aktuelni.
Zabrinutost da bi u budućnosti moglo doći do situacije u kojoj bi tehnološke kompanije, putem svojih društvenih mreža i kontrolisanih algoritama, mogle uticati na formiranje neke vrste totalitarnog društva je u ovom momentu potpuno opravdana. Ova zabrinutost se bazira na više faktora.
Algoritmi koji filtriraju informacije mogu stvarati „balone filtriranja”, gde korisnici vide samo određeni tip informacija koji je u skladu sa njihovim prethodnim interesovanjima ili ponašanjem. Ovo može smanjiti raznolikost i objektivnost u informacijama koje korisnici dobijaju. Takvo namerno „zaglupljivanje” korisnika ili uskraćivanje šire informacione slike, definitivno može da se upotrebi u kakvom društvenom inženjeringu i postoji opravdana bojazan da se zapravo već na tome radi svesno i namerno.
U mnogim zemljama, tehnološke kompanije operišu sa visokim stepenom autonomije u regulisanju sadržaja na svojim platformama, često bez jasne regulative koja bi ih obavezivala na transparentnost ili zaštitu korisničkih prava.
Nedostatak adekvatnog odgovora država, zakona i civilnog društva još više otežava ili onemogućava regulisanje aktivnosti tehnoloških kompanija u vezi sa algoritmima i kontrolom informacija.
Bez jasne, odgovorne regulacije i kontrole postoji ozbiljan rizik da tehnološke kompanije mogu ili već čine sve što mogu u manipulisanju algoritmima kako bi kontrolisale informacije koje korisnici vide, što značajno utiče na političke stavove, društvene norme i javno mišljenje.
Da bi se sprečilo eventualno kreiranje totalitarnog društva putem tehnoloških kompanija i njihovih algoritama, potrebno je raditi na više frontova.
Neophodno je uspostaviti jasne zakonske okvire koji bi regulisali rad algoritama i zahtevali transparentnost u njihovom delovanju.
Potrebno je podizati svest o uticaju algoritama i balonima filtriranja među korisnicima društvenih mreža kako bi se smanjio njihov negativan uticaj. Umesto podizanja svesti vrši se, najverovatnije ciljano i koordinisano, zastrašivanje korisnika društvenih mreža koje dovodi do efekta ekstremne paranoje i podstiče deo korisnika da neometano šire teorije zavere koje idu u prilog nemenjanju trenutnog stanja pod izgovorom fatalističkog uverenja da se protiv „robota” i korporacija ne može učiniti ništa i da je to već gotova stvar.
Organizacije civilnog društva moraju igrati ključnu ulogu u zagovaranju zaštite korisničkih prava i odgovornog delovanja tehnoloških kompanija.
S obzirom na globalnu prirodu tehnoloških kompanija, međunarodna saradnja i standardi moraju biti ključni za uspostavljanje efikasnih regulativa jer je nedovoljno da samo pojedine države uvode zakone koji bi ograničavali uticaj algoritama ili njihovu zloupotrebu.
Kako bi se zaštitile slobode i integritet korisnika interneta sada i u budućnosti, potrebno je ozbiljno pristupiti ovom problemu, pre svega osvestiti korisnike da problem zaista postoji i da su upravo oni ti koji ga mogu rešiti.
Trenutno, tehnološke kompanije nisu u svim državama podložne istim zakonima i uredbama koje bi ih obavezivale da pruže transparentnost u vezi sa algoritmima koje koriste. Privatne kompanije često imaju široku autonomiju u regulisanju sadržaja na svojim platformama, što najčešće dovodi do toga da ne postoji dovoljna transparentnost i odgovornost prema korisnicima.
Takođe, nedostatak ozbiljnog pritiska na kompanije rezultira manjkom incijativa za promenu. Civilni sektor i regulatorna tela u nekim državama mogu biti ograničeni u svojoj sposobnosti da efikasno regulišu ovu oblast zbog nedostatka specifičnih zakonskih okvira ili političke volje.
Iako se pitanje odgovornosti algoritama povremeno pokreće u javnoj debati, konkretni koraci ka uspostavljanju globalnih standarda ili zakonskih regulativa još uvek su ograničeni. Potrebna je veća javna svest, angažovanje civilnog društva i možda međunarodni pritisak kako bi se podstakle promene u ovoj oblasti.
Do tada sve ostaje na pojedincima koji mogu preduzeti izvesne korake kao što su informisanje o načinu rada algoritama, podržavanju organizacija koje se zalažu za transparentnost i aktivnog traženja raznolikosti izvora informacija kako bi se smanjio uticaj „balona filtriranja”.
Činjenica je da većina korisnika interneta možda nije zainteresovana za edukaciju o tome kako algoritmi utiču na informacije koje im se prikazuju. To zapravo pogoduje scenariju u kojem će algoritmi sve više determinisati sadržaj koji korisnici konzumiraju, ograničavajući njihovu perspektivu i dovodeći ih u sve uže društvene balone.
Kako bi se ovo izbeglo ili ublažilo, važno je da tehnološke kompanije preuzmu odgovornost za transparentnost algoritama i pruže korisnicima veću kontrolu nad sadržajem koji im se prikazuje. To naravno u ovom momentu deluje kao utopija, ili barem tako deluje korisnicima društvenih mreža u Srbiji, međutim, društvo u celini treba da razvija kritičku svest o informacijama koje se konzumiraju i da podstiče raznolikost u izvorima informacija, te ujedno i izvrši ozbiljan pritisak na kompanije kako bi omogućile veću transparentnost algoritama.
Većina korisnika interneta nije svesna u potpunosti kako algoritmi funkcionišu i kako utiču na sadržaj koji im se servira. Ovo dalje dovodi do situacije gde korisnici nesvesno konzumiraju filtriran sadržaj koji odgovara njihovim prethodnim interesovanjima ili ponašanju, što za posledicu ima suženje perspektive ili čak stvaranje „balona filtriranja”.
Ne treba previše očekivati od edukacije korisnika društvenih mreža, ali je potrebno raditi na njoj kako bi se kod korisnika razvila svest o ulozi algoritama i njihovom uticaju na informacije koje konzumiraju.
Stvaranje balona filtriranja, ograničava se raznolikost informacija kojima su korisnici izloženi i utiče se na njihov pogled na svet.
Ovakav uticaj na korisnike društvenih mreža je u direktnoj suprostnosti sa demokratskim vrednostima jer algoritmi, koji diktiraju sadržaj, mogu biti analogija autoritarnom liderstvu u smislu kontrole i ograničavanja informacija koje korisnici dobijaju. To dovodi do situacije gde korisnici nisu u potpunosti svesni širih perspektiva ili informacija koje bi im mogle pružiti sveobuhvatan uvid u društvene tokove.
Balansiranje korisnika na društvenim mrežama kada ih algoritmi namreno usmeravaju u određeni društveni balon može biti izazovno i činiti se gotovo nemogućim, ali zapravo nije nemoguće. Ujedno je to u ovom trenutnku jedino rešenje za izbegavanje „getoizacije” korisnika društvenih mreža, odnosno zatvaranja u određeni društveni balon i uskraćivanja šire perspektive.
Da bi se ovo balansiranje uspešno izvelo, potrebno je potruditi se da se prate različiti izvori informacija, ne samo one koji se slažu sa trenutnim stavovima korisnika, nego i namerno praćenje portala, ili stranica, ili drugih korisnika koji imaju sasvim suprotne ili drugačije stavove. To zapravo najbolje pomaže da se razbije društveni balon i da se izbegne diskriminacija koju nameću algoritmi i zatvaranje u određeni društveni balon.
Potrebno je uvek biti svestan mogućnosti da su informacije koje vam algoritmi preporučuju selektivne. Proveravajte i istražujte samostalno kako biste obezbedili da imate širu sliku. Nemojte jednostavno odlaziti na već ponuđene linkove, već se sami potrudite da istražite određenu informaciju, vest, temu.
Razgovarajte sa ljudima koji imaju drugačije stavove od vaših, ali sa poštovanjem i otvorenošću. To sigurno pomaže da se izbegne „balon” i podstakne raznolikost mišljenja, ali pre svega sigurno pomaže da vas algoritmi ne klasifikuju i zatvore u određeni društveni balon. Većina korisnika, na žalost nije ni svesna da već godinama unazad funkcioniše u okviru određenog društvenog balona i da su zapravo getoizirani, te im bude neverovatno kada neko probije taj balon i uđe u neku diskusiju sa sasvim drugačijim stavovima. Takvi „padobranci” se obično dočekuju „na nož”, blokiraju ili maksimalno hejtuju dok sami ne odu, a probijanje društvenog balona se doživljava kao incident.
Svi zapravo unutar jednog društvenog balona imaju privid „mira i sloge” i lažnu sliku da je „ceo svet”, odnosno sajber svet u kome oni borave, onakav kakvi su i oni sami.
Ponekad je dobro napraviti pauzu od društvenih mreža ili smanjiti vreme provedeno na njima kako bi se osvežio pogled na svet. To je zapravo najbolji način da se izađe iz zarobljenosti algoritmima u određeni nametnuti društveni balon.
Ostavi komentar