Robotët ishin drejtuesit kryesorë pas përhapjes së dezinformimit COVID-19 në internet, sugjeron një studim i ri.

Studiuesit shikuan ndarjen e lidhjeve të ndryshme që lidhen me pandeminë në më shumë se 300.000 postime, kryesisht në lidhje me përdorimin e maskave, të bëra në grupet e Facebook.

Ata përdorën kohën e lidhjeve të caktuara të ndara në këto grupe për të matur aktivitetin e robotëve. Ndarja e shpeshtë, ose postimet e shumta të së njëjtës lidhje në grupe vetëm disa sekonda, ishin një shenjë e aktivitetit robotik.

Ekipi – i udhëhequr nga Universiteti i Kalifornisë San Diego në bashkëpunim me studiuesit në Universitetin George Washington dhe Universitetin Johns Hopkins – po kërkojnë që Facebook dhe gjigandët e tjerë të mediave sociale të forcojnë kufizimet – por jo të gjithë ekspertët e shëndetit publik pajtohen që platformat duhet të “censurojnë” dezinformata.

Kjo vjen ndërsa shumë supozime për COVID-19 herët në pandemi, dikur të klasifikuara si ‘keqinformim’, tani po rishikohen – siç janë origjina e virusit dhe teoria që mund të ketë ardhur nga një laborator në Wuhan.

Studiuesit zbuluan se një pjesë e madhe e keqinformimit në lidhje me COVID-19, maskat dhe vaksinat u përhapën nga llogaritë e robotëve në mediat sociale.

“Pandemia e koronavirusit ka shkaktuar atë që Organizata Botërore e Shëndetësisë e ka quajtur një “infodemike” të keqinformimit,” tha autori kryesor i studimit John Ayers, një shkencëtar i specializuar në mbikëqyrjen e shëndetit publik në Universitetin e Kalifornisë, San Diego,

‘Por, robotët janë anashkaluar si një burim i keqinformimit COVID-19″, shtoi ai.

Një nga lidhjet që studiuesit hulumtuan ishte me një studim në Danimarkë që gjeti të dhëna nëse bartja apo jo e maskës ul transmetimin e COVID-19.

Studimi u keqinterpretua dhe u përdor si burim i keqinformimit nga shumë njerëz në mediat sociale, veçanërisht në Facebook.

Studiuesit zbuluan se postimi shpesh ndahej nga shumë llogari në grupe të shumta shumë herë në hapësirën e sekondave, një shenjë që llogaritë që ndanin postin ishin robotë që veprojnë në të njëjtin rrjet.

Pothuajse 40 për qind e herë postimi ishte shpërndarë në Facebook, kjo ishte bërë në grupe që studiuesit vlerësuan se kishin aktivitet të rëndë robotësh.

Një në pesë prej atyre postimeve gënjeu për rezultatet e studimit, duke thënë se studiuesit vendosën që maskat ishin të dëmshme për përdoruesit – një përfundim që nuk shfaqet kurrë në hulumtim.

Postimet e studimit në grupet e Facebook me aktivitet robotësh të zbuluar kishin 2.3 herë më shumë gjasa të ndajnë pretendimin e rremë se maskat dëmtojnë përdoruesin e tyre.

“Robotët gjithashtu duket se po minojnë institucionet kritike të shëndetit publik. Në studimin tonë të rastit, ata keq karakterizuan një botim të shquar nga një revistë prestigjioze mjekësore për të përhapur dezinformata. Kjo sugjeron që asnjë përmbajtje nuk është e sigurt nga rreziqet e keqinformimit të armatosur”, tha Brian Chu, bashkautor i studimit dhe student i mjekësisë.

Studiuesit po kërkojnë që Facebook dhe gjigandët e tjerë të mediave sociale të forcojnë kufizimet në përhapjen e dezinformimit.

Ata besojnë se kompani si Facebook lehtë mund të zbulojnë dhe censurojnë informacione të rreme të prodhuara nga robotët, pasi ata vetë ishin në gjendje të zbulonin vetë shumë prej dezinformimit dhe grupeve aktive robotësh.

Studiuesit gjithashtu kanë frikë se robotët mund të manipulojnë algoritmet e përdorura nga këto kompani, pasi ndarja masive e këtyre storieve nga robotët mund të bëjë që algoritmi të mendojë se janë më të popullarizuar se sa janë dhe t’i rritë ato në burimet e përdoruesve.

“Puna jonë tregon se platformat e mediave sociale kanë aftësinë për të zbuluar, dhe për këtë arsye për të hequr, këto fushata të koordinuara robotësh”, tha David Broniatowski, drejtor i asociuar i Institutit GW për të dhëna, Demokraci dhe Politikë, dhe bashkautor i studimit.

“Përpjekjet për të pastruar botet mashtruese nga platformat e mediave sociale duhet të bëhen një përparësi midis ligjvënësve, rregullatorëve dhe kompanive të mediave sociale të cilët në vend të kësaj janë përqendruar në shënjestrimin e pjesëve individuale të keqinformimit nga përdoruesit e zakonshëm,” shtoi ai.

Megjithatë, jo të gjithë studiuesit pajtohen. Kamran Abbasi, redaktor ekzekutiv i BMJ, një nga revistat më të vjetra mjekësore në Angli, shkroi në një artikull se platformat e mediave sociale që censuronin këto histori mund të ishin të rrezikshme.

“Duket se viti 2020 është Orwell i vitit 1984, ku kufijtë e ligjërimit publik drejtohen nga korporata me shumë miliarda dollarë (në vend të një regjimi totalitar) dhe algoritme sekrete të koduara nga punonjës të paidentifikuar,” shkroi Abbasi në lidhje me censurimin ose etiketimin e historive të Facebook në lidhje me studimin danez si ‘keqinformim’.

“Ku është përgjegjësia e Facebook për gënjeshtrat dhe dezinformatat e dëmshme që ka hedhur në tema të diskutueshme të tilla si shëndeti mendor dhe vetëvrasjet, pakicat dhe vaksinat? Në veçanti Facebook synon të lejojë lirinë e fjalës në platformën e saj, por vepron në mënyrë selektive, në dukje pa logjikë, qëndrueshmëri ose transparencë. Kjo është mënyra se si kontrolli i fakteve dhe opinioneve çon përpara agjendat e fshehura dhe manipulon publikun”, tha ai.

Keqinformimi në lidhje me COVID-19 është përhapur në të gjithë botën aq shpejt sa virusi. Javën e kaluar, shkrimtarja e shquar feministe Naomi Wolf u pezullua nga Twitter pas një serie postimesh që përhapnin dezinformata në lidhje me vaksinat antiCOVID-19.

Pretendimet që ajo kishte bërë përfshinte thënien se vaksinat ishin platforma softuerësh që mund të merrnin ngarkime dhe se ujërat e zeza nga individët e vaksinuar mund të ishin të rrezikshëm për furnizimin me ujë të pijshëm, të dy pretendime pa mbështetje shkencore.

Facebook, Instagram dhe platforma të tjera kanë shtuar veçori për të luftuar dezinformimin e vaksinave, duke lidhur informacionin rreth vaksinave automatikisht me çdo postim të bërë në lidhje me fotografitë.

Facebook madje ka thënë se ata do të heqin postime të caktuara duke bërë pretendime të pabazuara në lidhje me vaksinat./TV Malisheva

Share.