Giornalisti uccisi, campagne di delegittimazione, strumenti per insabbiare notizie negative, eserciti di avatar che alimentano finti dibattiti: come si mette il giornalismo sotto attacco
Quando è stata uccisa, stava lavorando alla pubblicazione di un editoriale dal titolo In the Age of False News, pubblicato poi postumo. Stava indagando sul sito Post card News, una delle «fabbriche di bugie» di cui si alimentano il BJP e gli ambienti di estrema destra.
«Il primo ministro Narendra Modi ha lasciato prosperare un clima di dominio delle gang in India, con i suoi sostenitori hindu che diffamano i “laicisti” – scrive il New York Times nell’editoriale L’omicidio di una giornalista indiana, pubblicato due giorni dopo -. Il veleno che i troll dei social media reazionari direzionano ai giornalisti, o “presstitute” (un gioco di parole tra press, stampa, e prostitute, ndr) come li chiamano loro, è particolarmente malvagio, ma non interamente nuovo. Almeno 27 giornalisti indiani sono stati uccisi dal 1992 «come conseguenza diretta del loro lavoro», secondo il Committee to Protect Journalists (Cpj). Il Cpj è un’organizzazione non profit che si occupa di libertà di stampa e sicurezza dei giornalisti.
L’omicidio è l’arma finale per silenziare un giornalista, ma ci sono altri metodi, più raffinati e meno evidenti con cui aggredire la stampa libera.
La disinformazione è come un’idra, il velenoso serpente mitologico a più teste: ciascuna corrisponde a un mercenario assoldato per iniettare il veleno nel discorso pubblico, in modi più o meno brutali. È un mostro immortale, che esiste da quando c’è il giornalismo. È parte delle macchine della propaganda. Sembra non avere alcuna regia, invece il corpo a cui appartengono le teste diverse è sempre lo stesso. Ogni mercenario, dispone di molti modi per uccidere una storia, anche senza macchiarsi di omicidio.
#StoryKillers è l’inchiesta internazionale sui volti della disinformazione – da quelli più violenti, a quelli più tollerati, da quelli incontrovertibilmente illegali, a quelli che sfruttano a loro vantaggio dei vuoti legislativi – a cui hanno partecipato oltre cento giornalisti di trenta media internazionali.
I mercenari della disinformazione sono spesso invisibili. La loro industria globale – che ha preso sempre più piede anche in Italia – è però fiorente e redditizia. Non è facile capire quanti siano, tuttavia secondo un report pubblicato dal Oxford Internet Institute, nel 2020 in almeno 81 Paesi sia governi che partiti politici sono ricorsi a campagne di manipolazione sui social media. Durante sei mesi di ricerche, i giornalisti di #StoryKillers hanno scoperto e investigato sulle organizzazioni che offrono questo tipo di servizi a pagamento, manipolando i risultati di Google, cercando di influenzare l’esito di elezioni e inondando i social network di informazioni false.
«Graduale indottrinamento»
Il processo per l’omicidio di Gauri Lankesh è cominciato a luglio 2022 e ancora non si è concluso. Sono imputate 18 persone (una delle quali ancora latitante), tutte collegate a una setta nazionalista induista chiamata Sanatan Sanstha e una sua affiliata, la Hindu Janajagriti Samiti (HJS). L’organizzazione è legalmente registrata in India, ha un trust finanziario dal 1999 e un sito dove presenta i suoi corsi di meditazione e spiritualità, ma dal 2007 in avanti alcuni suoi affiliati sono stati arrestati e processati per aver fatto esplodere bombe e per aver ucciso attivisti e politici di sinistra.
Secondo i documenti giudiziari visionati da Forbidden Stories, Amol Kale, membro della setta, avrebbe pianificato l’omicidio della giornalista per più di un anno. Era da tempo che il commando di killer – frequentatori sia della setta, sia di gruppi di motociclisti – stava monitorando gli spostamenti della giornalista. A premere il grilletto sarebbe stato Parashuram Waghmore, un induista radicale.
Almeno cinque membri del gruppo omicida avevano visto un video su Youtube del 2012 in cui la giornalista metteva in discussione le origini dell’induismo. Secondo un investigatore che ha parlato con Forbidden Stories sotto garanzia di anonimato, il presunto sicario Waghmore conosceva a memoria alcuni passaggi di quel video. Gli inquirenti ipotizzano che il filmato abbia avuto un ruolo fondamentale nel percorso di «graduale indottrinamento» con il quale il gruppo di assassini si è persuaso che uccidere la giornalista fosse giusto.
Un’analisi online, condotta da Forbidden Stories con il supporto dei ricercatori del Princeton’s Digital Witness Lab, dimostra che quello stesso video, prima che l’assassinio fosse pianificato, è stato diffuso ampiamente nei gruppi di estrema destra, contribuendo in maniera sostanziale a trasformare la giornalista in una nemica dell’induismo. Solo che le parole di Lankesh sono state modificate: il discorso «è stato accorciato per includere solo la parte in cui dice che la religione indù non ha un padre o una madre. L’intenzione era quella di sottolineare la pluralità della religione. Ci sono migliaia di caste e diversi credi», ha spiegato a Forbidden Stories Kl Ashok, coordinatore dell’evento in cui Lankesh aveva tenuto il discorso.
Caricata più volte su YouTube, la versione manipolata delle parole della giornalista è stata diffusa su Facebook attraverso otto diversi link, ottenendo in alcuni casi complessivamente circa 100 milioni di interazioni, tra like, commenti e condivisioni. Gli amici di Lankesh ricordano costanti attacchi e molestie online ai suoi danni da parte di gruppi dell’estrema destra, durante gli ultimi mesi di vita. Erano la dimostrazione degli effetti della macchina del fango messa in moto per distruggere la sua credibilità.
La centralizzazione dei social media in poche grandi aziende ha creato il perfetto strumento per una delle teste dell’idra della disinformazione. Dopo essere stato modificato in modo da generare le reazioni più forti nel pubblico, il video da YouTube finisce con l’essere introdotto in pagine e gruppi Facebook, aumentandone esponenzialmente l’esposizione.
Negli anni successivi all’omicidio di Lankesh, Post card News, l’oggetto delle ricerche della giornalista, ha continuato a postare incessantemente false informazioni, sia per screditare altre testate e l’opposizione, sia per distogliere l’attenzione dai nazionalisti induisti, accusati per l’omicidio, e incolpare invece gruppi della sfera politica di sinistra.
L’arma della delegittimazione
Il ricorso alla violenza e gli attacchi fisici contro i giornalisti portano spesso a una reazione da parte dei colleghi e a un’attenzione maggiore alle notizie su cui le vittime stavano lavorando. Questi episodi sono però solo la più tragica ed estrema manifestazione di un processo di avvelenamento del dibattito pubblico che parte da molto più lontano. Un processo che è spesso invisibile perché fatto di tecniche e azioni più silenziose ma allo stesso tempo efficaci.
Ci sono infatti reti di bot (profili automatizzati e in grado di operare massivamente) costruite da aziende specializzate fatte apposta per manipolare l’opinione pubblica. In parallelo, i tentativi di censura “legale” attraverso l’abuso delle leggi sul diritto d’autore o sulla privacy spingono poi i giornalisti all’auto-censura per timore di costosi casi giudiziari. E se il fiorire di fake news già mette in crisi il mondo dell’informazione, allora le aziende che rimuovono contenuti online per proteggere la reputazione di un cliente non fanno altro che peggiorare questa situazione, andando a colpire e nascondere articoli e inchieste di notevole rilevanza per l’opinione pubblica.
«Queste campagne hanno l’obiettivo di distruggere la credibilità dell’interlocutore, e se non puoi distruggerla allora minacci la sua vita», ha dichiarato ai giornalisti di #StoryKillers la dottoressa Emma Bryant, fellow al Bard College e professoressa associata al Center for Financial Reporting and Accountability dell’Università di Cambridge, esperta di propaganda internazionale e information warfare.
Il mondo dell’informazione è sotto attacco anche a causa dell’effetto collaterale della presenza di monopoli sui bacini di informazione: chi riesce a manipolarli potrà ottenere risultati con estrema facilità. In breve, visto che i colossi che gestiscono la distribuzione globale delle informazioni sono fondamentalmente solo tre – Google, Meta e Twitter – capendo come manipolare gli algoritmi che “scelgono” per noi quali notizie finiscano in evidenza si può efficacemente determinare cosa appaia e cosa no, e di conseguenza, cosa è vero e cosa è falso, almeno nell’opinione pubblica.
Mercenari nell’ombra: il Team Jorge
Alcuni di questi mercenari sostengono di essere in grado di cambiare l’esito di tornate elettorali o referendarie, grazie alla loro capacità di condizionare l’opinione pubblica. I colleghi delle testate TheMarker, Radio France e Haaretz li hanno incontrati fingendosi un gruppo di interesse intenzionato a rimandare, a tempo indefinito, delle elezioni in un Paese africano. Gli incontri sono stati registrati con una telecamera nascosta e mostrano, per la prima volta, come si negozia a porte chiuse l’interferenza in un voto.
Il nome Team Jorge deriva dall’alias utilizzato da una delle persone che ha mostrato le capacità e i servizi a disposizione ai giornalisti sotto copertura. L’uomo che si fa chiamare Jorge è in realtà Tal Hanan, amministratore delegato dell’azienda Demoman, società israeliana specializzata in consulenza per agenzie governative di tutto il mondo su temi come il terrorismo e la sicurezza nazionale. Hanan non ha voluto rispondere a una serie di domande dettagliate inviate dal consorzio di giornalisti ma ha dichiarato di non aver commesso alcuna azione illecita.
Email ottenute dal Guardian e condivise con il consorzio di #StoryKillers mostrano che i servizi di Tal Hanan e del suo team erano stati persino offerti nel 2015 a Cambridge Analytica, l’azienda coinvolta nello scandalo dei dati sottratti a Facebook e usati per influenzare la campagna elettorale del 2016 di Donald Trump per la presidenza degli Stati Uniti e nel referendum sulla Brexit. Quell’accordo non sembra essere stato siglato, ma il Team Jorge ha continuato a cercare clienti in tutto il mondo.
I servizi offerti dal Team Jorge sono vasti ed è molto difficile verificarne l’efficacia: raccolta di informazioni su concorrenti e oppositori politici, pianificazione di strategie politiche, addestramento per personale in grado di produrre contenuti online, ma anche interferenze nelle elezioni e attività informatiche offensive come ad esempio ottenere dati bancari, smascherare l’identità di una persona dietro a un nickname, e accedere a caselle di posta elettronica. Hanan ha specificato di avere una presenza con varie aziende in diverse zone del mondo – sul sito di Demoman sono indicate sedi in Israele, USA, Svizzera, Spagna, Croazia, Messico, Colombia, e Ucraina – e i pagamenti per le campagne possono essere fatte tramite aziende di comodo in base a dove si trova il cliente.
Ma il vero veleno per questa testa dell’idra è la diffusione di notizie false. In uno dei meeting, Tal Hanan spiega le tre fasi per una campagna di successo: «Per prima cosa raccogliamo informazioni, un po’ dalle fonti aperte e un po’ usando le nostre capacità tecnologiche». A quel punto bisogna costruire la narrazione: «In base al nostro obiettivo, cosa vogliamo influenzare? Qual è la narrazione? Che cosa produrrà un impatto?», prosegue Hanan. Poi non rimane che disseminare queste informazioni in modo che tutti le leggano e le conoscano. Il vero potere di queste operazioni, spiega Hanan, è che sono fatte dietro le quinte: «L’altro lato non sa nemmeno che noi ci siamo».
Tra gli strumenti preferiti da Team Jorge c’è la piattaforma AIMS, che sembra essere stata sviluppata in parte internamente circa sei anni fa, il cui acronimo sta per Advanced Impact Media Solutions. Questo software permette di creare e gestire centinaia di finti profili social in tutto e per tutto simili a un qualsiasi account autentico. Per mostrare le capacità di AIMS, su richiesta degli intermediari-giornalisti, Team Jorge ha offerto un esempio attaccando con una campagna sui social un personaggio diventato virale nel 2022 su TikTok e Twitter: un uccello emù chiamato Emmanuel. La campagna di dimostrazione aveva anche un hashtag, ricondiviso dagli avatar di AIMS: #RIP_Emmanuel.
Questa dimostrazione ha permesso di verificare le capacità di Team Jorge ma ha offerto anche indirettamente a Forbidden Stories la possibilità di tracciare a ritroso la rete di avatar virtuali utilizzati, scoprirne di nuovi che hanno collegamenti in comune e mappare così anche altre campagne di disinformazione attive in cui è stata utilizzata la piattaforma. L’analisi di Forbidden Stories ha individuato 16 campagne attribuite alla piattaforma AIMS, per un totale di circa 1.750 avatar coinvolti e quasi 110 mila tweet.
La piattaforma AIMS è venduta come parte di un pacchetto di servizi, di solito dedicati a partiti politici. «La nostra competenza principale sono le elezioni, abbiamo completato 33 diverse campagne a livello presidenziale», ha spiegato Hanan in una presentazione. La maggior parte di queste campagne, sempre secondo le sue parole, hanno coinvolto Paesi del continente africano ma anche in Asia, America Latina e Europa dell’Est.
Secondo alcune biografie disponibili online, Hanan è un esperto di antiterrorismo e intelligence, ex membro delle forze speciali dell’esercito israeliano. Sin dal 1990 è coinvolto nell’industria della sicurezza e dell’intelligence. Sul sito web della sua azienda, Demoman, Hanan offre una piattaforma per il monitoraggio dei social media, ma sul sito non c’è traccia delle campagne di disinformazione messe in piedi con AIMS. Gli altri membri di Team Jorge sono tutti parte del settore della sicurezza ed ex ufficiali dell’esercito/intelligence israeliano.
Il consorzio di giornalisti ha condiviso alcuni dei bot con Meta, l’azienda proprietaria di Facebook, che ha provveduto a eliminarli dal social media. Secondo un portavoce di Meta, questi account sarebbero collegati a un altro network di bot individuati nel 2019 e gestiti da un’azienda israeliana che ora non è più attiva.
I servizi di disinformazione offerti da Hanan e il suo Team ricadono in una zona grigia ma in alcuni casi si spingono chiaramente oltre il limite della legalità, come nel caso di intrusioni informatiche e attacchi hacker. In alcuni degli incontri ha mostrato infatti di avere accesso diretto a caselle di posta, tra cui quelle di Gmail, e poter scrivere e cancellare messaggi dall’account Telegram di assistenti nella campagna elettorale del neo-presidente del Kenya, William Ruto.
Forbidden Stories è riuscita a confermare l’accesso abusivo agli account personali di posta elettronica e di alcune chat ma non è stata in grado di verificare cosa abbia fatto Jorge per ottenere l’accesso. Telegram ha confermato che gli account coinvolti non avevano attivato la password per l’autenticazione a due fattori, un metodo alternativo alla tradizionale verifica tramite SMS che si usa quando si aggiunge il proprio account a un nuovo dispositivo.
Secondo Jorge, come ha raccontato in uno degli incontri, non c’è nessun tipo di intrusione informatica nei dispositivi, non si tratta di spyware, né vengono inviati SMS e email di phishing per carpire le credenziali di accesso: «Per spiegarlo in parole semplici, copiamo l’identità del dispositivo e stabiliamo un collegamento con tutti i server che inviano i dati al dispositivo», dicono.
Uno degli aspetti più peculiari di questi mercenari della disinformazione sta nella loro capacità di creare disturbo, sia che si tratti di bot sui social sia ottenendo informazioni con attacchi informatici. In molti casi infatti non è necessario che tutti credano alla storia messa in piedi dai bot di Team Jorge, la sola presenza di questi contenuti può instillare il dubbio e produrre reazioni in alcune parti della popolazione.
«È possibile che l’impatto più grande delle campagne di disinformazione, come queste, sia nel pretendere di essere estremamente efficaci e spingerci a mettere in dubbio l’autenticità di tutto ciò che vediamo online», ha dichiarato a Forbidden Stories Nir Grinberg, professore associato al Dipartimento di Software and Information Systems Engineering presso l’Università di Ben-Gurion.
Le teste dell’idra, infatti, preferiscono essere semplici supposizioni nella testa dei cittadini, rimanere nell’ombra, aggirarsi nei vicoli più nascosti delle piattaforme online per poi colpire sfruttando proprio quei monopoli digitali che tengono insieme le nostre vite. Ma rivelare questi meccanismi e puntare l’attenzione sui punti di congiunzione tra le diverse strategie dei mercenari della disinformazione permette di comprendere in anticipo quali sono i pericoli che le nostre democrazie devono affrontare e, forse, evitare che una nuova storia venga lasciata incompiuta.
Condizionare le opinioni è un servizio che può acquistare solo chi se lo può permettere. È un bene di lusso che serve sia a chi vuole condizionare consultazioni elettorali, sia a chi vuole ripulirsi la reputazione, sia a chi vuole trasformare chi la pensa diversamente da lui in un nemico da abbattere. Il luogo dove è più facile incidere sulle opinioni è la rete, dove il giornalismo è già avvelenato dallo strapotere delle piattaforme online: Google, Facebook, Twitter e gli altri giganti del web, sono interessati più a evitare conseguenze legali che a migliorare il modo di fornire e rettificare le informazioni che il pubblico consuma. È così che, accanto alle tecniche di manipolazione degli algoritmi, nel tempo sono andati sviluppandosi metodi più subdoli, paralegali e solo apparentemente legittimi, che sfruttano le vulnerabilità del diritto alla privacy o dei diritti d’autore.
Togliere o insabbiare un’informazione può diventare quindi un servizio, piuttosto costoso, accessibile solo a chi si può permettere di ripulire la propria reputazione web. Questa testa dell’idra è la protagonista della seconda puntata di #StoryKillers, che, come IrpiMedia ha scoperto, in Italia è la più insidiosa.
Riccardo Coluccini