U digitalnom prostoru Republike Srpske i Bosne i Hercegovine, problem ugrožavanja digitalnih prava novinara i aktivista posljednjih godina poprima sve složenije oblike.
Prethodne analize na portalu Gerila pokazale su kako su prijetnje, širenje dezinformacija i neovlašteni upadi u digitalne identitete postali svakodnevna pojava za one koji javno propituju rad institucija ili otkrivaju afere. Uz sve te prijetnje i napade, novinari i aktivisti suočavaju se i s nevidljivim ograničenjima — online cenzurom koja utišava njihov glas.
Ono što ovu prijetnju čini posebno opasnom jeste činjenica da ona nije uvijek očigledna. Dok su prijetnje novinarima, lažni nalozi ili digitalni napadi lako prepoznatljivi, cenzura na platformama poput Facebooka odvija se tiho, često bez obrazloženja i bez jasne mogućnosti žalbe. Time se stvara osjećaj nesigurnosti među medijima, aktivistima i građanima, jer više nije jasno gdje završava legitimna moderacija sadržaja i počinje politički motivisano ograničavanje informacija.
Primjeri prikupljeni tokom istraživanja portala Gerila pokazuju da online cenzura na Facebooku nije izolovan problem, već sve češća praksa koja utiče na vidljivost novinarskog sadržaja. Među zabilježenim slučajevima nalaze se uklanjanja tekstova i blokiranja naloga bez jasnog obrazloženja. Tako je, prema istraživanju, Facebook uklonio sadržaj portala iz Banjaluke koristeći pravila koja se tumače uz pomoć “diskutabilnih partnera” iz BiH, što je direktno uticalo na doseg objava i odlazak čitalaca sa platforme. Pored toga, Facebook je uklonio tekst o Danu bijelih traka, uz objašnjenje da je problem u opisu linka u kojem je pisalo “ubijena djeca”. Redakcija je tada dobila “strike”, a pristup Facebooka ocijenjen je kao krut i nefleksibilan.
Kada pravila postanu oružje
Pravila društvenih mreža postavljena su kako bi štitila korisnike od govora mržnje, nasilja, dezinformacija i zloupotreba. Međutim, sve češće se pokazuje da ta ista pravila mogu postati alat za ograničavanje slobode izražavanja i filtriranje informacija od javnog značaja. U praksi to znači da iste smjernice koje bi trebalo da štite integritet digitalnog prostora često koriste i platforme i vlasti kako bi ograničile pristup nepoželjnim sadržajima.
Izvještaji organizacija poput BIRN-a i portala Detektor pokazuju da je regulacija digitalnih platformi u Bosni i Hercegovini i dalje nedovoljno razvijena, nejasna i nedosljedna. Trenutno ne postoji jedinstveni okvir koji bi precizno definisao pravila odgovornosti platformi poput Facebooka, Instagrama, X-a ili TikToka, kao ni mehanizme zaštite digitalnih prava novinara i građana. Upravo taj regulatorni vakuum ostavlja prostor za različita tumačenja i omogućava zloupotrebe, kako od strane vlasti, tako i samih platformi.
U isto vrijeme, vlasti uvode odredbe i prijedloge zakona koje, iako deklarativno “štite korisnike”, u praksi mogu postati alat za ograničavanje slobode govora. Primjeri dolaze iz Unsko-sanskog kantona, gdje je predložen Zakon o informisanju koji bi vlastima dao mogućnost da naređuju uklanjanje sadržaja ili blokiranje portala pod izgovorom “zaštite javnog interesa”.
BIRN-ov regionalni izvještaj iz aprila 2025. upozorava da nadzor i cenzura u Jugoistočnoj Evropi postaju sve izraženiji. Vlade u regionu, uključujući BiH, koriste pravne mehanizme, političke pritiske i saradnju s velikim platformama kako bi oblikovale javnu debatu i kontrolisale protok informacija. Ove prakse dovode do situacije u kojoj mediji sve češće moraju balansirati između očuvanja profesionalnih standarda i rizika da budu sankcionisani ili “utišani” algoritamskim ograničenjima.
Reporteri bez granica svrstavaju Bosnu i Hercegovinu među zemlje u kojima su politički pritisci na medije, nejasne regulative i pravna nesigurnost doveli do opasnog porasta autocenzure. Novinari sve češće sami filtriraju teme, naslove i izraze kako bi izbjegli uklanjanje sadržaja ili blokiranje naloga. To stvara situaciju u kojoj novinarstvo gubi svoj osnovni smisao — istraživanje i otkrivanje osjetljivih tema — dok javnost ostaje uskraćena za informacije od ključnog značaja.
Facebook kao filter javne debate
U Bosni i Hercegovini, gdje je Facebook i dalje primarni kanal informisanja za većinu građana, ova platforma ima ogroman uticaj na oblikovanje javne debate. Prema podacima Digital 2025 izvještaja, Facebook doseže više od polovine internet korisnika u BiH. Međutim, upravo taj dominantni položaj čini je i najopasnijim filterom informacija: ono što platforma odluči prikazati ili potisnuti direktno određuje šta građani znaju o događajima, aferama i političkim procesima.
Na prvi pogled, sadržaj objavljen na Facebooku izgleda dostupan, ali istraživanja pokazuju da platforma koristi niz nevidljivih mehanizama koji utiču na vidljivost objava. Uklanjanje sadržaja bez obrazloženja, selektivna zabrana sponzorisanja, potiskivanje sadržaja u algoritmu – samo su neki od primjera kako se cenzurišu sadržaji na Facebooku.
Kerim Hodžić, menadžer društvenih mreža u Balkanskoj istraživačkoj mreži, za Gerilu kaže da im je Facebook jedno vrijeme uklanjao objave koje su se ticale disciplinskih postupaka sudija zbog heštega #UDT koji krši pravila i smjernice Mete.
“Adekvatno obrazloženje od Mete nikada nismo dobili. U pitanju su objave koje u sebi sadrže link naše vijesti. Videe, fotografije, grafike i reelse nam nisu nikada uklonili”, kaže Hodžić i dodaje da nikad nisu dobili jasna obrazloženja zašto su objave obrisane.
Ističe da su uvijek bili usmjeravani ka Meta smjernicama i pravilima.

“Čak i kada sam direktno stupio u kontakt i pisao mail uposlenicima Mete, nisam naišao na bilo kakav odgovor mailom uprkos podsjećanju na upit. Žalbe sam slao direktno Meti prilikom uklanjanja oglasa ali i na mail osoba koje su relevantni POC's za Bosnu i Hercegovinu. Prvi odgovor na mail sam dobio nakon jednog dana ali nažalost, nakon dostavljanja dodatnih informacija, nisam više dobio odgovor, a pritom sam slao dva upita. Prilikom Meta pregleda, odgovore na žalbe sam dobijao i u roku od 24 sata ali su odgovori znali potrajati i do 7 dana”, naglašava Hodžić.
Facebookovi algoritmi za moderaciju sadržaja često ne razumiju lokalni kontekst, što dovodi do brojnih nesporazuma i pogrešnih blokada. Borislav Vukojević, profesor na Fakultetu političkih nauka u Banjoj Luci i individualni konsultant za medijsku i informacijsku pismenost u UNESCO, objašnjava da su algoritmi neprilagođeni bosanskom, hrvatskom i srpskom jeziku, pa ne prepoznaju ironiju, sarkazam ni lokalne izraze.
“AI modeli su trenirani dominantno na engleskom sadržaju, pa naši jezici za njih predstavljaju egzotiku. To je kao da tražite od nekog ko je cijeli život jeo samo burek da vam spremi sushi – može pokušati, ali rezultat će biti upitan. Ćirilica posebno “pati” jer je AI često povezuje sa ruskim sadržajem, pa automatski primjenjuje stroža pravila. Vidio sam slučajeve gdje je isti tekst na latinici prošao, a na ćirilici bio blokiran. To nije teorija zavjere, to je jednostavno loše treniranje modela. Lokalni izrazi su katastrofa – “jebiga” nije psovka nego stanje duha, ali probajte to objasniti algoritmu. Ili kada kažete “ubiće me mama” – AI misli da vam prijeti opasnost i blokira sadržaj radi “vaše sigurnosti”. Naša ekspresivnost i metaforičnost su kriptonit za AI moderaciju”, ističe Vukojević.
Ove pristrasnosti imaju direktne posljedice na novinarski rad. Mediji mijenjaju naslove, opisne rečenice i ključne riječi kako bi izbjegli uklanjanje sadržaja, dok publika ostaje uskraćena za informacije.
Iako Facebook tvrdi da neutralno provodi svoja pravila, mnoga istraživanja pokazuju da algoritamske odluke i ograničenja oglašavanja imaju vrlo stvaran uticaj na oblikovanje javnog prostora. Teme koje su ključne za razumijevanje političke situacije, korupcije, sudskih procesa i protesta često su potisnute, dok sadržaji “lakšeg formata” poput zabave automatski dobijaju veću vidljivost.
Profesor Vukojević ističe da, što se BiH tiče, imamo pravi “balkanski koktel problematičnih tema”.
“Prvo, sve što miriše na “govor mržnje” vezano za nacionalnost i religiju – algoritmi ne razumiju kontekst našeg sarkazma i ironije. Napišete “tipični Bosanac” u šali, algoritam vidi etničku karakterizaciju i bam – shadowban. Drugo, ratna dešavanja i interpretacije – tu je minsko polje. Algoritmi ne razlikuju istorijsku diskusiju od propagande. Treće, ćirilica versus latinica – da, i to je problem. AI često ćirilicu povezuje sa “problematičnim” sadržajem zbog geopolitičkih predrasuda ugrađenih u treniranje modela. Poseban problem su lokalni izrazi koji zvuče “opasno” algoritmu – “zapaliti” može značiti otići, ali AI misli da pozivate na nasilje. Ili “ubiti” u kontekstu “ubio sam se od smijeha” – algoritam ne kapira našu hiperboličnu ekspresivnost”, navodi Vukojević.
Kerim Hodžić ističe da u BIRN-u nisu imali problema sa uklanjanjem objava o ratnim zločinima, korupciji kao ni protestima. Međutim, kako kaže, često nailaze na teškoće sponzorisanja ovih objava iako odaberu opciju da su ovo “Ads about social problems or politics” uz adekvatno odobrene disclaimere i sve odobrene verifikacije.
“Tekstovi o Miloradu Dodiku najčešće ne mogu biti sponzorisani te u skladu s tim se odlučujemo da ove članke sponozorišemo putem Google Ads oglasa”, navodi Hodžić.
Dakle, novinari i redakcije u takvim okolnostima nerijetko počinju sami cenzurisati svoje sadržaje. Mijenjaju naslove, izbjegavaju određene riječi i teme, prilagođavaju ton kako bi “prošli” kroz algoritamske filtere. To dovodi do svojevrsne autocenzure, gdje mediji više razmišljaju o tome šta algoritam dozvoljava nego šta je važno za javnost.
Na taj način društvene mreže postaju neformalni urednici javne debate. Publika ne vidi sve što mediji objavljuju, nego samo ono što platforma “procijeni” kao sigurno, neutralno ili prikladno. Ovaj nevidljivi filter stvara ozbiljne posljedice po slobodu izražavanja, pravo na informisanost i zdravlje javnog diskursa.
Moderacija ili cenzura?
Jedna od ključnih dilema u savremenom digitalnom prostoru jeste granica između legitimne moderacije sadržaja i online cenzure. Na prvi pogled, oba procesa mogu izgledati slično jer uključuju uklanjanje objava, blokiranje naloga ili ograničavanje vidljivosti sadržaja. Međutim, razlika je u tome ko donosi odluke, na osnovu kojih pravila i uz kakvu transparentnost.
Moderacija, barem u teoriji, postoji kako bi se zaštitila zajednica od štetnog sadržaja. Ona uključuje uklanjanje govora mržnje, nasilnih sadržaja, dezinformacija i materijala koji direktno ugrožavaju sigurnost korisnika. Legitiman oblik moderacije je jasan i predvidljiv.
“Legitimna moderacija je kao dobar domaćin na žurci koji ne dozvoljava da neko razbije inventar, dok je cenzura kao da ti domaćin ne da ni da pričaš o politici jer mu se ne sviđa tvoje mišljenje. Ključna razlika je u transparentnosti i proporcionalnosti”, ističe profesor Vukojević.
Naglašava da legitimna moderacija ima jasna pravila igre.

“Znate šta ne smijete, zašto ne smijete i šta će se desiti ako prekršite pravila. To je kao saobraćajna signalizacija – jasna, vidljiva, predvidljiva. Cenzura, s druge strane, djeluje kao crna kutija – ne znate ko odlučuje, na osnovu čega, niti imate pravo žalbe. Pogledajte samo kako Facebook blokira objave – često ne znate ni zašto vam je sadržaj uklonjen, a kamoli da možete da se žalite nekome ko će to stvarno razmotriti”, navodi Vukojević.
Cenzura, dakle, za razliku od moderacije, ne štiti javni interes već ga ugrožava. Problem nastaje kada platforme uklanjaju sadržaje bez jasnog kriterijuma, ograničavaju sponzorisanje osjetljivih tema ili koriste algoritamske filtere koji potiskuju određene objave. Ova praksa utiče na oblikovanje javne debate jer publika dobija samo selektovanu sliku stvarnosti.
Kada platforme poput Facebooka preuzmu ulogu neformalnog urednika javne sfere, nastaje ozbiljan problem za demokratiju i slobodu izražavanja. Kritičke teme ostaju potisnute, a javnost gubi pristup informacijama od ključnog značaja. Ova nevidljiva kontrola sadržaja ne utiče samo na novinare, nego i na građane koji sve češće dobijaju filtriranu verziju stvarnosti.
Uticaj ograničenja na javnu diskusiju i navike publike je ogroman i opasan, ističe profesor Vukojević.
“Stvaramo generaciju koja praktikuje autocenzuru – ljudi više ne pišu šta misle nego šta će proći algoritam. To je kao da trenirate psa da ne laje – na kraju dobijete životinju koja je zaboravila svoju prirodu. Publika postaje pasivna, konzumira samo ono što joj algoritam servira. Nastaju eho komore gdje svi misle isto jer su svi drugi ućutkani. Javna diskusija postaje sterilna, bez kontroverzi, bez pravog dijaloga. To nije demokratija, to je simulacija demokratije”, upozorava Vukoijević.
“Ministarstvo istine” u digitalnoj eri
Borba protiv dezinformacija na društvenim mrežama često se prikazuje kao nužna mjera za zaštitu javnog interesa i informacione bezbjednosti. Međutim, u praksi se sve češće pokazuje da se upravo taj argument koristi kao izgovor za ograničavanje slobode govora i selektivno uklanjanje sadržaja. Na Facebooku, koji u BiH dominira kao primarna platforma za praćenje vijesti, algoritmi i mehanizmi provjere sadržaja često primjenjuju pravila na način koji više liči na kontrolu nego na zaštitu.
Platforme poput Facebooka sarađuju s globalnim i lokalnim fact-check organizacijama kako bi smanjile širenje dezinformacija, ali te saradnje nisu uvijek transparentne. U praksi se dešava da određeni sadržaji budu uklonjeni ili ograničeni bez jasnog objašnjenja zašto su označeni kao problematični. Čak i kada mediji imaju mogućnost žalbe, odgovori su često generički, spori i bez detaljnih obrazloženja, što ostavlja prostor za sumnju da se kriterijumi ne primjenjuju jednako na sve.
Profesor Vukojević smatra da postoji opasnost da „borba protiv dezinformacija” postane izgovor za pretjerana ograničenja.
“To je kao kad vlast kaže da uvodi policijski čas “radi naše sigurnosti” – može biti legitimno, ali može biti i izgovor za kontrolu. Već vidimo kako se fact-checking koristi selektivno – provjeravaju se samo određeni izvori, dok drugi prolaze nekažnjeno”, navodi Vukojević.
Što se prevencije tiče, ističe da je, prije svega, važna transparentnost procesa. Ko odlučuje šta je dezinformacija? Na osnovu čega? Ko finansira fact-checkere?
“Drugo, pluralizam u fact-checkingu – ne može jedan centar imati monopol na istinu. Treće, obrazovanje publike – najbolja odbrana od dezinformacija nije cenzura nego kritičko mišljenje. Moramo insistirati na tome da borba protiv dezinformacija ne smije postati Ministarstvo istine iz Orvelove “1984”. Rješenje nije u tome da neko drugi misli umjesto nas, nego da naučimo da mislimo sami”, naglašava Vukojević.

Online cenzura i algoritamska kontrola sadržaja nisu problem koji će nestati sami od sebe. Naprotiv, u narednim godinama možemo očekivati da će pravila digitalnih platformi postajati još kompleksnija, a njihova primjena još netransparentnija. Kako se mediji mogu prilagoditi novim ograničenjima?
Kerim Hodžić kaže da, što se tiče promjene sadržaja, izbjegavanja riječi, slika ili tema, jedina situacija u kojoj je BIRN za sada “prinuđen” izbjegavati riječi su vijesti sa heštegom #UDT.
“Kada govorimo o Palestini ili Gazi sadržaj prilagodimo tek toliko da se objave mogu sponzorisati”, kaže Hodžić.
Profesor Vukojević ističe da mediji prvo moraju da diverzifikuju platforme.
“Ne mogu sva jaja u istu korpu. Drugo, moraju da grade direktan odnos sa publikom kroz newsletter, RSS, vlastite aplikacije. Treće, treba da edukuju publiku o tome kako funkcionišu algoritmi i zašto je važno da traže informacije aktivno, a ne da čekaju da im budu servirane”, navodi Vukojević.
Naglašava da mediji moraju da se bore za svoju autonomiju.
“Ne mogu da budu robovi algoritma. Moraju da insistiraju na kvalitetu, ne na klikovima. Jer ako nastave ovako, za deset godina nećemo imati novinarstvo nego samo content farme koji proizvode ono što algoritam voli. Mediji su kao bilijarski sto na kojem se odigrava društvena stvarnost – ali ako dozvolimo da algoritmi kontrolišu taj sto, onda više nismo igrači nego kuglice koje se kotrljaju kako neko drugi udari”, upozorava Vukojević.
Gerila.info