Ugotovite Združljivost Z Znakom Zodiaka
Vandalizem Wikipedije bi lahko preprečil razkrivanje goljufij na Googlu, YouTubu in Facebooku
Preverjanje Dejstev

Za kratek trenutek je kalifornijska republikanska stranka podprla nacizem. Vsaj tako je rekel Google.
To je zato, ker je nekdo 31. maja vandaliziral stran Wikipedije za stranko in navedel »nacizem« poleg ideologij, kot so »konzervatizem«, »tržni liberalizem« in »fiskalni konservatizem«. Napaka je bila odstranjena iz rezultatov iskanja z Googlom pojasnjujejo za Vice News da iskalniku ni uspelo ujeti vandalizma v vnosu Wikipedije.
Če v Googlu iščete »kalifornijski republikanci«, Google kot eno od ideologij navede »nacizem«. pic.twitter.com/JblamxkyF7
— Eric Wilson (@ericwilson) 31. maja 2018
Google ima dolgo potegnjen spletna enciklopedija za dodajanje osnovnih informacij rezultatom iskanja. Po navedbah dnevnik urejanja za stran California GOP, nekdo je dodal 'nacizem' na stranski oddelek za ideologijo okoli 7:40 UTC 31. maja. Popravek je bil odstranjen v minuti, vendar se zdi, da je Googlov algoritem stran postrgal ravno pravočasno za ponaredek.
'Včasih ljudje vandalizirajo javne vire informacij, kot je Wikipedia, kar lahko vpliva na informacije, ki se prikažejo v iskanju,' je Googlov tiskovni predstavnik Poynterju povedal v e-poštnem sporočilu. 'Imamo vzpostavljene sisteme, ki ujamejo vandalizem, preden to vpliva na rezultate iskanja, vendar občasno pridejo do napak, in to se je zgodilo tukaj.'
Fundacija Wikimedia, neprofitna organizacija, ki upravlja Wikipedijo, je na Twitterju objavila tudi izjavo.
Rezultat Googlove plošče znanja je razkril vandalsko dejanje a @Wikipedia današnji članek. Tukaj je več o tem, kaj se je zgodilo in kako se vandalizem obravnava na Wikipediji. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1. junija 2018
Po Googlovih podatkih več kot 99,9 odstotka popravkov Wikipedije, ki se prikažejo na ploščah znanja, ki prikazujejo osnovne informacije o ključnih besedah, po katerih je mogoče iskati, na vrhu rezultatov, ni vandalizma. Uporabnik, ki je avtor izvirnega urejanja strani kalifornijske GOP ni uporabil uporabniškega profila , zaradi česar jih je težko izslediti.
to je običajna taktika med ljudmi, ki vandalizirajo strani Wikipedije, je praksa neprofitne organizacije obširno dokumentirana . Toda glede na količino popravkov, ki so narejeni na Wikipediji — približno 10 na sekundo , s 600 novimi stranmi na dan – in dejstvom, da se Facebook in YouTube zdaj od njih umikata, da bi zagotovila več konteksta objavam, je možnost in učinek zlorabe velik.
'Seveda je to precej šibek način za boj proti lažnim novicam, ker Wikipedija ni zanesljiv vir informacij - kot priznava celo Wikipedia,' je dejal Magnus Pharao Hansen , podoktorski raziskovalec na Univerzi v Kopenhagnu, v sporočilu Poynterju. 'Wikipedia je zelo ranljiva za prevare in vsebuje vse vrste napačnih informacij, zato ni zelo resen način za boj proti problemu izmišljenih novic.'
Hansen že približno 10 let ureja strani Wikipedije in je dejal, da je vandalizem na platformi običajen. Število urednikov se je zmanjšalo v zadnjih letih, medtem ko so spletni partizani vedno bolj ciljala na platformo — problem, ki prišel do glave med kontroverzo Gamergate leta 2014. V bistvu gre za igro številk.
To je daleč od tega kjer je bila Wikipedia leta 2005 , ko je študija pokazala, da je približno tako natančen kot Britannica. In prostovoljnim urednikom je težje boj proti vandalizmu v velikem obsegu na Wikipediji, kar ni dobro za uporabo za boj proti dezinformacijam na drugih platformah.
'Vsekakor je na Wikipediji veliko napačnih informacij in veliko jih bo ostalo,' je dejal Hansen. »Pogosto nekdo napiše članek in lahko mine leta, preden nekdo pride in ga uredi. Ljudje ne preverjajo dejstev, razen če je nekaj videti, kot da ni na mestu.'
ena izmišljen članek Wikipedije je na spletnem mestu živelo desetletje, preden je bilo leta 2015 izbrisano.
Hkrati se je platforma izkazala za odporno na vrste potegavščin, ki se redno širijo po virusih Facebook in Twitter . Wikimedia ocenjuje da je približno 2,5 odstotka dnevnih urejanj vandalizem, Samantha Lien, vodja komunikacij pri Wikimediji, pa je opozorila na algoritem, ki vprašljive popravke samodejno označi kot ključni uspeh za svoja prizadevanja za integriteto.
'Članki ponavadi zagotavljajo uravnoteženo predstavitev dejstev, spletno mesto pa se je do te točke izkazalo za odporno na lažne novice in napačne informacije,' je povedala Poynterju v e-poštnem sporočilu. 'V zadnjih nekaj letih smo sodelovali tudi s prostovoljnimi uredniki, da bi zgradili in izboljšali orodja za moderiranje za hitro prepoznavanje in obravnavanje vandalizma na Wikipediji.'
Poleg lastnih omejitev Wikipedije so lastni sistemi tehnoloških platform pogosto predmet napak in polemik – zlasti plošč znanja.
Prav tako 31. maja iskanje republikanskega senatorja, ki podpira Donalda Trumpa v Severni Karolini pojavila se slika od nje z napisom 'bigot' na dnu. Januarja je The Daily Caller ugotovil, da je Google napačno dodajal preverjanje dejstev svoji vsebini in ne vsebini drugih prodajnih mest. Zaradi tega je tehnološko podjetje začasno prekinilo funkcijo, dokler ni odpravilo napak.
Google je Poynterju povedal, da ne spreminja ročno rezultatov iskanja, da bi prikazal prednost eni stranki pred drugo. Toda njegove algoritme se redno igrajo potegavščine , lažni oglasi in troli, ki želijo spremeniti rezultate iskanja. Te težave bi se lahko razširile tudi na druge platforme, ki se povezujejo z Wikipedijo.
'Če več medijskih platform nekritično uporablja vsebino iz Wikipedije, to dvigne vložke - tako za tiste, ki bi zavajali ali prevarali, kot za tiste, ki bi širili znanje,' je dejal Hansen. 'Mislim, da bi to lahko pritegnilo napačno množico, zlasti s povezavami na Wikipedijo iz videoposnetkov na YouTubu o teorijah zarote.'
V marcu, YouTube je objavil da bi se v opisih videoposnetkov povezal neposredno na strani Wikipedije, da bi zagotovil več konteksta in razkril virusne teorije zarote, ki pogosto postanejo virusne po izrednih novicah. Tisti 'informacijski namigi', ki so bili uvedeni na platformi brez vednosti Wikipedije — bo vseboval kratko vrstico o viru in povezavo do strani Wikipedije.
Ta funkcija še ni bila uvedena, vendar je YouTube februarja predstavil podobno, ki zagotavlja več konteksta za novičarske organizacije, ki prejemajo denar od vlade ZDA.

(Posnetek zaslona iz YouTuba)
Glede na povečano prepoznavnost strani Wikipedije je možno, da bi se vandali lahko zgrnili na platformo, da bi z enim urejanjem trolali več platform.
»Vdiranje v Wikipedijo je bilo vedno težava, vendar je bila težava, ki je resnično vplivala le na bralce Wikipedije. Zdaj je to še bolj nevarno, saj se platforme vedno bolj samodejno umikajo iz Wikipedije,« je v e-pošti Poynterju povedala Claire Wardle, izvršna direktorica First Draft. 'Za agente dezinformacij, ki želijo največjo širitev, vsaka tehnika, ki zagotavlja, da se platforme ali redakcije ponavljajo in tako legitimira laž, zagotavlja nesorazmerno 'donosnost naložbe'.'
Kljub temu, da služi kot vir za več platform, Wikipedia ni opazila porasta vandalizma, je dejal Lien. Toda glede na to, kako so dodatki organizacijo ujeli nenadoma, ni jasno, kako natančno bodo vplivali na integriteto strani Wikipedije.
'Trend tehnoloških podjetij, ki uporabljajo Wikipedijo za reševanje vprašanj dezinformacij na svojih lastnih platformah, je za nas novo ozemlje in ne vemo, kakšne bodo posledice,' je dejala. »Kratkoročno pozorno spremljamo, kako to vpliva na Wikipedijo in našo globalno skupnost prostovoljcev. Do danes nismo videli ničesar, kar bi kazalo na širše vprašanje vandalizma.'
Toda tudi če bi prišlo do povečanja vandalizma Wikipedije z namenom spreminjanja rezultatov na platformah, je Lien dejal, da organizacija ne bi imela možnosti vedeti.
'Nimamo na voljo podatkov, ki bi kazali na trende vandalizma z izrecnim namenom manipuliranja z drugimi platformami,' je dejala.
Kakšna je torej verjetnost, da se bo več dezinformacij prebilo na druge platforme? Joseph Reagle, izredni profesor komunikacij na Univerzi Northeastern in strokovnjak za Wikipedijo, je Poynterju povedal, da čeprav ni mogoče vedeti brez ustreznih sistemov za spremljanje, bi lahko struktura, ki je bila vzpostavljena, naredila napačne informacije bolj vidne - tudi če ni ustvarjena za igranje platformah, kot sta Google in Facebook.
'Da, to je verjetno in mislim, da bo postalo še bolj verjetno, saj bodo ta profitna podjetja še naprej skočila na kolovoz,' je dejal. »V primeru Googla mislim, da ni bil namen urejanja onesnažiti uporabnike Wikipedije na nižji stopnji, vendar je bil to še vedno učinek. Dejstvo, da Wikipedijo uporabljajo ti nekakšni agregatorji na nižji stopnji, bo Wikipedijo naredilo bolj tarčo, kar je zaskrbljujoče.'
Kljub temu, da se krči, ima Wikipedija še vedno predano skupnost urednikov leta izkušenj obdelovanje člankov o najnovejših novicah. Nathan Matias, podoktorski znanstveni sodelavec na univerzi Princeton, je Poynterju v e-poštnem sporočilu povedal, da napačne informacije zaradi te skupnosti verjetno ne bodo pogosto zdrsnile skozi razpoke.
Toda na obrobju spletnega mesta se ta možnost znatno poveča.
'V primerih izjemnih novic, kjer so aktivisti vseh vrst razvili načine za vplivanje na algoritme platforme hitreje kot hitrost novinarstva, pričakujem, da bo Wikipedia bolj odporna na vpliv,' je dejal. 'Tveganja za Wikipedijo in platforme bodo večja na obrobju znanja in pozornosti, saj je težje opaziti majhen tok ljudi, ki dostopa do nizkoprofilnega ekstremističnega gradiva.'
Kljub izzivom nekateri strokovnjaki vidijo, da so tehnološke platforme, ki se povezujejo na strani Wikipedije, korak naprej za boj proti spletnim dezinformacijam.
Eni Mustafaraj, docent za računalništvo na Wellesley Collegeu, je Poynterju v elektronskem sporočilu povedal, da je dodajanje Wikipedije velikim tehnološkim platformam pozitivna poteza. Vendar prihaja s opozorili.
'To morajo početi dosledno, in ne le za boj proti napačnim informacijam ali potegavščinam ali teorijam zarote,' je dejala. 'Za boj proti napačnim informacijam ne bi smeli zadolžiti Facebooka in Googla, saj sta bila ona tista, ki sta težavo še poslabšala.'
Hkrati lahko jemanje informacij iz Wikipedije s platforme bralce sam po sebi zmede. Hansen je dejal, da videnje povezav do spletnega mesta s platform družbenih medijev, tudi če so dobro označene, ne bo izzvalo enake vrste skepticizma, kot je neločljivo prisoten pri uporabnikih Wikipedije.
»Bralec ne ve, da je to iz Wikipedije. To nekako uvaja plast, kjer ne morete biti prepričani o viru informacij,« je dejal. 'Ljudje so skeptični, ko so na Wikipediji - lahko vidite, ko ni vira ... ko ste na drugi platformi, niste pozorni na takšne stvari.'
Potem je tu še vprašanje pasovne širine. Ker uredništvo še naprej upada, bi Wikipedia morda želela razmisliti o zaposlitvi zaposlenih za polni delovni čas, katerih naloga je spremljanje vandalizma in zagotavljanje, da se ne razširi na druge platforme. Hansen je dejal, da meni, da bi morala neprofitna organizacija ustvariti interno enoto za preverjanje dejstev ali povabiti strokovne urednike in akademike, da pretehtajo nekatere bolj niansirane strani.
'Mislim, da je to edini način za boj proti dezinformacijam na Wikipediji,' je dejal.
Lien je vsaj predlagal, da tehnološke platforme, ki uporabljajo Wikipedijo za boj proti napačnim informacijam, na nek način vrnejo neprofitni organizaciji - to je v trditvi izvršne direktorice Wikimedije Katherine Maher nedavni članek za Wired . (Facebook in YouTube niso vključeni med najboljšimi Wikimedijinimi dobrotniki.)
'Podjetja, ki uporabljajo vsebino Wikipedije, spodbujamo, da vračajo v istem duhu trajnosti,' je dejala. 'S tem bi se pridružili milijonom posameznikov, ki se vključijo, da bo Wikipedia močna in uspešna.'
In Matias se je strinjal.
'Če podjetja pričakujejo, da se bodo pri reševanju nekaterih svojih najtežjih težav zanašala na ogromne količine neplačanega in pogosto psihično obremenjujočega dela Wikipedijev in Fundacije Wikimedia, morajo poiskati načine, kako podpreti to delo, hkrati pa zaščititi intelektualno neodvisnost Wikipedije,' je dejal.