La notizia oramai è di dominio pubblico. L’allarme fake, a poche settimane dalle elezioni italiane, fa riflettere. Il Russiagate ha mostrato che è possibile plagiare l’opinione pubblica con la diffusione sui social network di messaggi falsi. Cerchiamo di capire meglio cosa è successo e come Facebook e Twitter abbiano influenzato l’esito delle precedenti elezioni americane.
Il caso Russiagate: novità sulle indagini
A pochi giorni dalle elezioni politiche italiane, torna alla ribalta il caso Russiagate, ponendo interrogativi e mostrando le paure degli elettori nei confronti della disinformazione e del dilagare di notizie false, fake news, che possono arrivare a plagiare l’opinione degli elettori tanto da contribuire nella scelta dei canditati di governo.
Le novità sul Russiagate sono lampati. Infatti, con la pubblicazione di un documento ufficiale sulle indagini del Russiagate, il procuratore speciale Robert Muller ha accusato 13 cittadini russi e 3 aziende di Mosca di aver cospirato a favore di Donald Trump, l’allora candidato alla presidenza degli Stati Uniti.
Ma procediamo con ordine e cerchiamo di capire tutte le fasi di questo caso oramai tristemente noto, che sta sconvolgendo il mondo degli USA e dei social network.
Russiagate: tutto nasce da un post sui social network
Come scrive il Sole 24ore, tutto nasce da un post di tale Alice Norton che nel 2015 sosteneva che si era sentita male dopo aver acquistato un tacchino da Walmart. In poche ore, il messaggio raggiunge un numero esorbitante di condivisioni.
Fino qui sembra tutto normale. Il problema, però, nasce dal fatto che la maggior parte delle condivisioni partivano da account creati dall’agenzia russa Internet Research Agency, celebre sulla stampa italiana con il nome di “fabbrica dei troll di San Pietroburgo”, che pare interferì nella campagna elettorale americana. Con quest’azione, i troll russi cercarono di generare caos e paura già da diversi anni prima delle elezioni, anche con temi tra i più disparati.
Questi erano i test condotti per capire la potenzialità dei social network nell’influenzare l’opinione pubblica. Visti i risultati delle elezioni americane, possiamo affermare con un po’ di tristezza che… il test è perfettamente riuscito.
Facebook e Twitter sono i principali canali di diffusione di fake news
Attraverso gli account falsi, infatti, i russi avrebbero diffuse una serie di notizie infinite, volte a gettare in cattiva luce la candidata democratica Hilary Clinton.
Nel 2016 Facebook fa delle dichiarazioni ufficiale che contribuiscono a fare chiarezza sugli aspetti numerici della diffusione del fenomeno. I famigerati account dei troll russi avrebbero speso in pubblicità circa 100.000 dollari.
Dopo Facebook, tocca a Twitter. Anche il social dei cinguettii rivela di aver ricevuto pagamenti in pubblicità fino a 274.000 dollari da circa duecento account riconducibili all’IRA.
Secondo una stima recente, i post pubblicati su questi due social avrebbero raggiunto circa 126milioni di americani. Come possiamo capire, questi sono numeri dalle dimensioni spropositate. È inevitabile ritenere che abbiano influito sulla coscienza degli elettori.
Con i social è possibile manipolare l’opinione degli elettori
Questo episodio, al di là degli stravolgimenti politici che porterà negli USA a conclusione del processo, è la prova della sconcertante della facilità con cui si possono manipolare le opinioni delle persone attraverso l’utilizzo dei social network, diventati oramai il principale canale di informazione del mondo.
Facebook e Google, ne abbiamo già parlato, stanno cercando di attuare dei filtri e dei blocchi per riconoscere e bloccare la diffusione delle fake news.
Ma se le notizie false sono riuscite a raggiungere uno dei posti più impenetrabili del mondo, la speranza di una soluzione definitiva si fa sempre più debole.
A noi utenti consapevoli non resta che stare con gli occhi ben aperti. E valutare bene e controllarne la veridicità, volta per volta, quando e se ci troveremo mai di fronte a una notizia che sembra così sconvolgente da farti dubitare delle tue opinioni.