Magazine Opinioni

Trolling e Astroturfing come strumenti di guerra informativa della Russia

Creato il 28 giugno 2016 da Bloglobal @bloglobal_opi

information-warfare-russia

di Alessandro Pandolfi

Come è stato rilevato fin dagli esordi della rivoluzione digitale, i nuovi media possono facilitare un vasto insieme di attività, incluse quelle di propaganda, influenza, deception e guerra informativa [1]. Il concetto statunitense di information operations (IO) include in larga parte l’information warfare (IW, concetto simile e tuttora impiegato da numerosi Stati), ovvero l’impiego delle informazioni ai fini del perseguimento degli interessi nazionali e, in particolare, la lotta per la superiorità nel dominio informativo. La riflessione in merito all’impatto delle nuove tecnologie sulle attività di IO/IW ha riscontrato come le possibilità di manipolazione informativa e psicologica siano destinate a crescere parallelamente al perfezionamento e alla diffusione dei media interattivi.

In questo contesto, Internet rientra a pieno titolo nel panorama degli strumenti di propaganda e disinformazione, prefigurando enormi possibilità che meritano un’attenzione ben maggiore di quella che vi è stata finora dedicata. Come hanno evidenziato Jowett e O’Donnell: «Il potenziale propagandistico in questo clima è infinito. Chiunque può diffondere un messaggio, vero o falso, manipolare informazioni o persino alterare un’immagine per soddisfare i propri scopi» [2]. Il World Wide Web crea dinamiche e strategie manipolatorie diverse dal passato, costituendo potenzialmente lo strumento ideale per uno scontro informativo che superi in portata e magnitudine qualsiasi altra fase della storia della propaganda. Secondo Castells, l’assenza di filtri (istituiti da proprietari, inserzionisti, direttori, giornalisti, ecc.) rende Internet «l’ambito elettivo per i messaggi non controllati, che ampliano il raggio delle fonti di informazione e di disinformazione, introducendo una minore credibilità in cambio di maggiore diversità» [3].

Alcuni studiosi si sono cimentati nella creazione di una vera e propria classificazione delle information operations basate sul Web: un catalogo che spazia dalla dissuasione alla protezione, dalla prevenzione alla negazione, dalla divulgazione alla manipolazione [4]. Queste dinamiche si inseriscono nel solco delle tradizionali attività di IO/IW, ampliando la possibilità di modellare l’ambiente informativo, influenzando le percezioni e la comprensione, con effetti sulle relative volontà e azioni concrete. Possono essere impiegate da soggetti diversi, tra cui gli Stati, ma anche aziende, ONG, gruppi insurrezionali, terroristi.

Tra gli strumenti resi disponibili da internet, i social media sono stati da tempo individuati quali ambienti virtuali rilevanti ai fini della sicurezza nazionale e dei relativi interessi strategici; come è stato riscontrato, i social network possono rivelarsi efficaci strumenti di IO/IW e sono ormai entrati nel bagaglio degli attrezzi impiegati dalle forze armate accanto ai tradizionali strumenti per le attività di propaganda, influenza e deception [5].

Una particolare manipolazione degli spazi virtuali è il cosiddetto trolling, la pratica che prevede l’impiego di “voci” virtuali dirette a danneggiare il normale funzionamento della Rete. Questa etichetta, da sempre esistente nella sfera del comportamento online, è impiegata per descrivere le attività di disturbo condotte deliberatamente contro particolari soggetti (turbativa delle discussioni online, produzione di contenuti offensivi e violenti, ecc.). Due fattispecie risultano la disseminazione massiccia di contenuti testuali o multimediali, a partire dai commenti sulle piattaforme telematiche, e la creazione di falsi profili sui social network.

Il recente ricorso al termine trolling introduce il paragone ad altre dinamiche, tecnologie e concetti, quali i bot o l’astroturfing. Il primo consiste in sistemi automatizzati che replicano le azioni umane nel cyberspazio, il secondo nella simulazione di un diffuso supporto pubblico per un prodotto, un personaggio, una politica. Quest’ultimo, nato in ambito commerciale, tende a creare percezioni alterate relativamente al gradimento dell’oggetto in questione, mirando a conseguire effetti concreti. Nell’impiego politico esprime un falso supporto per governi, leader e istanze, creando una realtà fittizia che influisce sulla comprensione di contesti e avvenimenti. Questa tecnica, spesso inquadrata in un’ottica positiva, “di supporto”, può essere impiegata secondo la logica inversa, con la produzione di contenuti che discreditino determinate cause o soggetti (ad esempio gli oppositori di un regime). Il legame tra manipolazione dei social network e produzione di contenuti fittizi, parte o meno di una campagna di astroturfing, risulta quindi concreto.

Il fenomeno dei commentatori online ingaggiati da partiti e governi per influenzare le discussioni su Internet ha ormai una vasta portata ed è stato oggetto di vari studi. Secondo il rapporto Freedom on the Net 2015 questa situazione interessava 24 dei 65 Paesi esaminati [6], mentre il World Economic Forum ha indicato la diffusione di false informazioni online come uno dei principali rischi della società moderna, inserendo anche l’astroturfing [7]. Mozorov nel 2011 aveva ha definito i tentativi dei governi autoritari di minare il potenziale democratico della Rete come una trasformazione di Internet in spinternet [8].

L’attenzione a questi fenomeni è recentemente aumentata a causa del crescente utilizzo da parte di vari attori internazionali. Si è fatto sempre più riferimento, ad esempio, alle “brigate del Web” russe o al cosiddetto “partito dei 50 centesimi” cinese. Quest’ultimo caso, il più noto fino al 2015, comportava l’impiego massiccio di commentatori pro-governativi che modellano informazioni e percezioni nella sfera virtuale [9], vere e proprie “legioni di supporters”, con precise direttive e che impiegano moderne tecnologie e varie tecniche comunicative per conseguire i propri obiettivi, celando al contempo la vera origine dei messaggi [10]. La questione dell’attribuzione, ovvero dell’individuazione della corretta origine di un contenuto o di un attacco, è notoriamente uno dei principali punti critici – e quindi uno dei punti di maggior forza – del cyberspazio, in particolar modo della cyberwarfare.

L’uso del trolling e dell’astroturfing da parte dei regimi autoritari si esplica principalmente nella sfera domestica ed è stato studiato come parte integrante dei rispettivi dispositivi di propaganda e repressione del dissenso. La complessità e la sofisticatezza degli strumenti impiegati dalle autorità per disturbare o interrompere le attività informative delle opposizioni, restringendo progressivamente le possibilità di comunicazione, hanno fatto coniare agli studiosi nuove concetti. Tra questi, il controllo della Rete di “terza generazione”, che va ben oltre il tradizionale impiego di filtri e blocchi di server, indirizzi IP, ecc. (la prima generazione), ma si spinge anche più in là della seconda (la creazione di un quadro legale che consenta allo Stato di negare selettivamente l’accesso del pubblico ad Internet). Si tratta di nuovi approcci multidimensionali e iper-sofisticati di “competizione nel” invece che di “negazione del” campo informativo [11].

Le varie tecniche digitali, accompagnate da concrete “azioni fisiche”, vengano impiegate allo scopo di screditare o di demoralizzare gli oppositori e competere nel cyberspazio con i potenziali competitor tramite controinformazione e contenuti fittizi o manipolati. Se le operazioni di “prima generazione” riguardano in particolar modo le capacità concrete degli avversari, la “seconda” e la “terza generazione” mirano alla loro volontà e alla comprensione degli avvenimenti e del contesto [12]. Come è stato osservato: «La fonte finale di queste campagne è difficile da attribuire e può essere stabilita attraverso un’accurata attività di ricerca, dal momento che sono disegnate per rendere opaco il ruolo degli attori statali» [13].

La maggiore enfasi verso la “seconda” e la “terza generazione” deriva dalla crescente attenzione alla cyber security e alla concezione dello spazio cibernetico come ambiente militarizzato. Un dato che ben si adatta alla Russia, che ha una tradizionale predisposizione ad interpretare tutti gli ambiti dell’azione umana e sociale in un’ottica che favorisca la protezione e la sicurezza dello Stato. Un’osservazione valida non solo nel campo cibernetico, ma anche in quello dell’informazione tout court, come dimostra chiaramente la Doctrine of Information Security del 2000, che designa la sfera informativa come un asset vitale per lo Stato, che si riserva un potere di guida e di controllo su di esso [14].

Che l’uso di commentatori retribuiti pro-governativi fosse pratica comune della Federazione Russa era un dato già sporadicamente emerso. Le alterazioni della Rete mediante il trolling, impiegate in modo crescente nella vita politica del Paese dagli inizi degli anni 2000 [15], rientrano nella strategia anti-rivoluzioni colorate (come in Georgia e in Ucraina) elaborata dai political technologist, gli strateghi delle manipolazioni elettorali nello spazio post-sovietico [16]. Nondimeno, è stata di recente evidenziata la portata internazionale di questa dinamica, con larghe evidenze emerse anche in relazione alla crisi ucraina.

Tra il 2014 e il 2015 è esploso infatti il caso “troll factories”, con la scoperta della Agency for Internet Studies nella periferia di San Pietroburgo. Il caso di questa struttura, un’enorme fucina di propaganda da disseminare nel Web, era già stato evidenziato nel 2013 da Novaya Gazeta e ripreso dai principali media internazionali, anche grazie alle confessioni di alcuni ex dipendenti e alla pubblicazione di documentazione interna [17]. Il personale di questa “fattoria dei troll” lavorava alla produzione di un ampio quantitativo di materiale propagandistico di matrice anti-occidentale e in appoggio delle tesi ufficiali governative: dai fatti concernenti la guerra in Ucraina agli oppositori domestici, dalle politiche della NATO al sostegno del dissenso in Occidente. Contenuti destinati in buona parte all’audience internazionale.

L’impiego massiccio del trolling ha infatti provocato effetti tangibili anche al di fuori della RuNet, il Web russo. Le redazioni della grande stampa internazionale denunciano apertamente la campagna diretta a sopraffare il lavoro dei moderatori dei commenti in calce agli articoli. Il Guardian ha evidenziato come l’enorme flusso di commenti pro-Cremlino sia stato estesamente documentato e identificato come una precisa campagna volta a minare la funzione del commento alle news [18].

Social Network Analysis
Rappresentazione grafica dell’interconnessione tra 17.590 account di Twitter ricavata tramite avanzati software – Fonte: L. Alexander, Social Network Analysis Reveals Full Scale of Kremlin’s Twitter Bot Campaign, “Global Voice”, April 2nd 2015

Questa attività permette non solo di veicolare determinati messaggi verso l’audience internazionale, ma anche di generare, nel lungo periodo, frustrazione nel pubblico e spese crescenti per i siti web, portando all’estinzione degli spazi di discussione. Questa forma di censura inversa, per saturazione, è stata paragonata da un esperto di guerra informativa statunitense al fuoco di soppressione in uno scontro armato [19]. Oltre al depotenziamento della Rete, operazioni specifiche possono prevedere la manipolazione dei sondaggi online, degli indicatori di popolarità dei contenuti (con potenziali ricadute in termini di scelte editoriali) o il supporto di eventi reali (come indica il caso della mostra internazionale propagandistica Material Evidence [20]). I bot che causano un enorme flusso di accessi a determinati contenuti possono inoltre influire sui meccanismi di SEO (Search Engine Optimization) che incidono sul posizionamento nei motori di ricerca, manipolando i dati della popolarità di alcune fonti. Ciò potrebbe ad esempio contribuire a spiegare lo scarto tra la popolarità dichiarata dall’emittente RT (già Russia Today), quella reale e quella risultante dal traffico online [21].

Se valutare gli effetti concreti del trolling può risultare complesso, alcuni studi hanno tuttavia dimostrato come i commenti in calce ad un testo virtuale abbiano il potere di influenzare concretamente la percezione degli utenti in merito al contenuto (il cosiddetto nasty effect) [22]. Altre potenziali ricadute possono essere la capacità di alimentare tensioni, screditare determinati gruppi, instillare il dubbio negli individui, colpire il morale di una società, indurre timore nell’espressione di opinioni contrastanti e creare consenso mediante un effetto groupthink di massa.

Secondo Gatov, analista dei media, l’idea più sottile alla base del commento massiccio è che le fonti d’informazione occidentali non possano discostarsi troppo dalla loro audience e quindi non possano ignorare a lungo gli spazi saturati dalla propaganda pro-russa, portandoli ad un cambiamento che assecondi in qualche misura i fruitori scontenti [23]. Come hanno evidenziato Pomerantsev e Weiss: «il Cremlino sfrutta l’idea di libertà dell’informazione per iniettare disinformazione nella società. L’effetto non è quello di persuadere (come nella classica diplomazia pubblica) o di guadagnare credibilità, ma di disseminare confusione tramite teorie della cospirazione e il moltiplicarsi di falsità» [24].

E proprio gli aspetti sovversivi e bellici sono quelli sui quali le istituzioni statunitensi, della NATO ed europee hanno posto maggiore attenzione, in un contesto segnato dal dibattito sulle modalità “ibride” impiegate dalla Russia. Come è stato evidenziato, il trolling può agire a latere di azioni sovversive e impiegare sofisticate risorse informatiche e comunicative, come dimostra il caso della finta esplosione del Columbian Chemicals Plant o la diffusione di vari tipi di allarmismo negli Stati Uniti ad opera dell’Agency for Internet Studies [25].

Le troll armies sono state analizzate dagli specialisti militari, che ne hanno evidenziato il carattere di strumento delle nuove guerre informative ibride, atipiche in quanto prevedono una minore carica coercitiva a favore di una maggiore componente propagandistica e manipolatoria. Attività per le quali, paradossalmente, la tipica attenzione statunitense al software e agli effetti dirompenti nel contesto informatico (interruzione delle comunicazioni, distruzione delle infrastrutture e delle risorse elettroniche) risultano controproducenti [26]. Come emerge, se una nazione riuscisse a orchestrare una campagna di sobillazione e disinformazione di successo, modificando i sentimenti dell’opinione pubblica avversaria nel senso sperato e incidendo sul decision-making, si potrebbero conseguire obiettivi politici senza l’impiego della forza fisica.

Il tema è stato affrontato durante l’International Conference on Cyber Conflict (CyCon) 2015, che ne ha evidenziato l’impiego durante il conflitto ucraino e la vulnerabilità di alcuni attori occidentali. Come hanno osservato Jaitner e Mattsson, l’uso di questi agenti di opinione dimostra la comprensione russa circa l’importanza del parere del grande pubblico e la penetrazione dei gruppi tradizionalmente scettici dei canali informativi, oltre che dimostrare l’adattabilità dell’information warfare di Mosca [27]. Secondo Giles, il successo di questa tecnica risiede nella sua versatilità e nella possibilità di sviluppi costanti, che non hanno ancora trovato una corrispettiva attenzione né a livello di copertura mediatica, né di consapevolezza degli utenti, né di efficaci meccanismi di contrasto [28].

Al di là delle fabbriche del consenso e all’impiego di manodopera politica (come i gruppi giovanili Nashi [29]), vari osservatori imputano la gestione di agenti virtuali fittizi anche ad istituzioni governative quali FSB, SVR e forze armate, in una sorta di militarizzazione della componente dell’astroturfing all’interno delle cosiddette “Information Troops” o degli “Information Spetsnaz”. Dal momento che una campagna online ben orchestrata potrebbe riuscire ad influenzare la narrativa politica prevalente [30], questi sviluppi sono rilevanti nel contesto delle moderne IO, che includono operazioni psicologiche e propagandistiche.

Proprio il contesto ucraino rileva come scenario d’analisi primario per la questione in merito [31]. Al di là del supporto delle istanze del Cremlino e del discredito delle posizioni della comunità internazionale, una tecnica chiave è risultata quella della sobillazione mediatica. Le voci pro-russe hanno coltivato sistematicamente paura, ansia e odio tra i russi etnici in Ucraina, manipolando e distribuendo contenuti circa false atrocità perpetrate da parte governativa (tra cui torture, traffici di organi, bambini soldato, crocifissioni o cannibalismo) [32]. Come è stato rilevato: «Tramite i social media, queste informazioni – se offerte con qualche forma di sostegno o meramente sotto forma di allusioni – hanno spesso fatto il giro del globo nel giro di minuti, e una ben organizzata campagna di questo tipo può facilmente influenzare le percezioni e i comportamenti della popolazione target» [33].

L’attività informativa online è stata estesamente impiegata a supporto delle operazioni di terra, creando confusione a fini di deception nell’audience internazionale, generando incertezza e dubbio sulla rivoluzione ucraina nell’audience domestica, sobillando le popolazioni orientali contro il nuovo corso di Kiev e trasmettendo l’idea che il supporto all’Ucraina uscita dall’Euromaidan non fosse nell’interesse internazionale. Queste attività non sono indipendenti dal resto degli sforzi informativi bensì una componente integrata, come mostra il rilancio di fonti del Cremlino (quali RT, Sputnik, ecc.) e il rapporto organico con altre unità di una rete più ampia (false agenzie di stampa, siti web dal contenuto disinformativo, simulacri di enti e ONG, ecc.).

Sulla scia di queste analisi, le democrazie europee centro-orientali e i Paesi baltici sono stati designati quali aree maggiormente critiche. Le prime sono bersagliate, oltre che da attività di influenza e d’intelligence di altra natura, da un network di fonti di disinformazione e da attività di astroturfing [34]. Nel secondo caso si fa riferimento ad un’area particolarmente sensibile alle attività di destabilizzazione a causa della presenza di una forte minoranza russa. Non a caso le autorità locali sono state tra le più attive nello studio e nella preparazione circa eventuali mosse “ibride” della Russia, memori anche degli scontri di Tallinn del 2007. Il Centro di Eccellenza della NATO per la Comunicazione Strategica (COE STRATCOM), una piccola struttura basata a Riga, ha svolto quello che risulta finora il più approfondito studio pubblico sul trolling [35]. Il documento, che inquadra il fenomeno quale strumento di guerra ibrida in Lettonia, comprende una dettagliata analisi quantitativa e qualitativa, l’indirizzamento alle minoranze locali, una classificazione dei troll e delle tecniche impiegate, le modalità per individuare i falsi, una valutazione del possibile impatto sociale e alcune raccomandazioni per i decision-makers.

Ad ogni modo questo genere di attività non risulta un’esclusiva dei regimi autoritari, sebbene si possano constatare apprezzabili differenze quantitative, qualitative e in termini di target. Si ritiene ad esempio che Israele detenga capacità simili, che gli Stati Uniti le impieghino a scopi di contrasto del proselitismo jihadista online [36] e che il Regno Unito abbia recentemente attivato un contingente militare dedicato alla guerra informativa sui social network [37].

In conclusione, le analisi permettono di evidenziare come il trolling sia entrato a pieno titolo tra gli strumenti della politica estera e di sicurezza della Russia e come ponga una serie di problematiche, prefigurando tensioni tra la libertà della Rete e le attività di contrasto di questa minaccia. I dubbi sulla sua rilevanza sono confutabili considerando almeno tre fattori: la portata quantitativa del fenomeno; gli effetti erosivi degli spazi virtuali d’informazione, dialogo e confronto; la vulnerabilità nei confronti di un impiego destabilizzante o bellico.

Nel primo caso si fa riferimento agli alti tassi di penetrazione di Internet in Occidente e al ruolo che sta conquistando il Web, con i social network in prima fila, quale canale primario di informazione del grande pubblico. Il trolling, ormai ampiamente riscontrabile nella Rete, ha una portata potenziale di miliardi di utenti in tutto il mondo. Il secondo punto rimanda agli effetti concreti sul giornalismo e sugli spazi di interazione politica, come mostrano le applicazioni domestiche in Russia e Cina. Anche all’estero emergono casi di vere e proprie campagne di persecuzione virtuale dei giornalisti sgraditi [38] e un chiaro tentativo di danneggiare la disseminazione di informazioni credibili e di qualità, caratteristiche chiave del funzionamento dei sistemi democratici. L’ultimo punto rimanda a questioni concrete, quali la vulnerabilità dell’Europa centro-orientale e dei Paesi baltici, ma anche a prospettive più astratte come l’eterno dibattito circa la maggiore fragilità delle società liberal-democratiche alle attività di sovversione. Un aspetto della maggiore debolezza delle società complesse di fronte all’utilizzo delle tecnologie civili quali strumenti offensivi [39].

Al crocevia tra guerra informatica e psicologica, oltre che tra contesti domestici ed esteri, manipolazioni quali astroturfing e trolling sono ormai strumenti comuni a disposizione delle autorità russe. Fabbricazione del consenso domestico, proiezione della propria immagine all’estero, sovversione di una società terza o impiego quale strumento di guerriglia nell’èra di Internet, queste attività creano nuove dinamiche virtuali dalle ricadute potenzialmente molto concrete.

* Alessandro Pandolfi è OPI Contributor

[1] Definiamo qui brevemente la deception come quel complesso di misure attuate da un attore al fine di trarre in inganno un avversario e ottenere un vantaggio strategico. I manuali militari statunitensi inquadrano la guerra informativa con il termine ombrello di information operations (IO). Questo concetto, relativamente recente, è definito: «L’impiego integrato, durante le operazioni militari, di capacità legate alle informazioni di concerto con altre modalità di operazione per influenzare, interrompere, corrompere o usurpare il decision-making di avversari e potenziali avversari proteggendo al contempo il nostro» (US Department of Defense, Information Operations, Joint Publication 3-13, 27 November 2012 – Incorporating Change November 2014).

[2] G. S. Jowett, V. O’Donnell, Propaganda and Persuasion, SAGE, Los Angeles, 2012, p. 160.

[3] M. Castells, Comunicazione e potere, Università Bocconi Editore, Milano, 2009, p. 294.

[4] U. Franke, Information operations on the Internet. A catalog of modi operandi, Swedish Defence Research Agency (FOI), March 2013.

[5] Si veda ad esempio T. E. Nissen, The Weaponization of Social Media. Characteristics of Contemporary Conflicts, Danish Defence College, March 2015.

[6] Freedom House, Freedom on the Net 2015, Washington, October 2015.

[7] World Economic Forum, Global Risks 2013 Report, Cologny/Geneva, 2013, p. 47, pp. 25-26. La “Massive digital misinformation” è definita come «Deliberately provocative, misleading or incomplete information disseminates rapidly and extensively with dangerous consequences».

[8] Si veda ad esempio E. Morozov, Propaganda.com, “The New York Times”, March 29, 2009.

[9] Il nome fa riferimento alla remunerazione, in centesimi cinesi, per ogni commento filo-governativo inserito in Rete. Questo meccanismo, parte della vasta rete di censura e propaganda cinese, sarebbe composto da centinaia di migliaia di operatori ad ogni livello (centrale, provinciale e locale); R. Han, Manufacturing Consent in Cyberspace: China’s ‘Fifty-Cent Army’, “Journal of Current Chinese Affairs”, Vol. 44, No. 2, pp. 105-134.

[10] I progressi tecnologici comportano il passaggio dalle tradizionali legioni di supporter a strategie più sofisticate tanto nella tecnica (falsi indirizzi IP, software automatici, creazione di profili “dormienti” per irrobustirne la credibilità con il tempo, ecc.) quanto nelle tattiche (lo studio scientifico della mentalità della società oggetto di attacco, la rinuncia alla contrapposizione frontale nelle tesi a favore di vie indirette, ecc.).

[11] R. Deibert, R. Rohozinski, Beyond Denial. Introducing Next-Generation Information Access Controls, in AA.VV, Access Controlled. The Shaping of Power, Rights, and Rule in Cyberspace, MIT Press, Cambridge/London, 2010, pp. 3-13.

[12] U. Franke, Information operations on the Internet. A catalog of modi operandi, cit., p. 11.

[13] R. Deibert, R. Rohozinski, Control and Subversion in Russian Cyberspace, in AA.VV, Access Controlled. The Shaping of Power, Rights, and Rule in Cyberspace, cit., p. 28.

[14] The Ministry of Foreign Affairs of the Russian Federation, Information Security Doctrine of the Russian Federation, 9 settembre 2000.

[15] Per un’analisi delle elezioni del 2012 si veda U. Franke, C. V. Pallin, Russian Politics and the Internet in 2012, Swedish Defence Research Agency (FOI), December 2012.

[16] R. Horvath, Putin’s ‘Preventive Counter-Revolution’: Post-Soviet Authoritarianism and the Spectre of Velvet Revolution, “Europe-Asia Studies”, Vol. 63, No. 1, 2011, pp. 1-25.

[17] Tra i numerosi riscontri S. Walker, Salutin’ Putin: inside a Russian troll house, “The Guardian”, 2 April 2015; T. Parfitt, My life as a pro-Putin propagandist in Russia’s secret ‘troll factory’, “The Telegraph”, 24 June 2015, A. Chen, The Agency, “The New York Times”, June 2 2015.

[18] C. Elliott, The readers’ editor on… pro-Russia trolling below the line on Ukraine stories

[19] J. Harding, Suppressive Commenting, “To Inform is to Influence”, July 30, 2014.

[20] L. Alexander, When Online Kremlin Propaganda Leaves the Web, It Looks Like This, “Global Voices”, 29 September 2015. Alexander è autore di approfondite inchieste sull’Agency for Internet Studies tramite l’uso di sofisticati software di Open-source Intelligence e Network Analysis; si rimanda a https://globalvoices.org/author/lawrence-alexander/.

[21] K. Zavadski, Putin’s Propaganda TV Lies About Its Popularity, “The Daily Beast”, 17 September 2015.

[22] D. Brossard, D. A. Scheufele, This Story Stinks, “The New York Times”, March 2, 2013.

[23] M. Seddon, Documents Show How Russia’s Troll Army Hit America, “BuzzFeed News”, June 2, 2014.

[24] P. Pomerantsev, M Weiss, The Menace of Unreality: How the Kremlin Weaponizes Information, Culture and Money, Institute of Modern Russia, November 2014.

[25] A. Chen, The Agency, cit.

[26] S. Ranger, The new art of war: How trolls, hackers and spies are rewriting the rules of conflict, “TechRepublic”, 18 September 2015.

[27] P. A. Mattsson, M. Jaitner, Russian Information Warfare of 2014, relazione della 7a International Conference on Cyber Conflict (CyCon2015), NATO Cooperative Cyber Defence Centre of Excellence (CCD COE), 2015, pp. 47-48.

[28] K. Giles, Russia’s ‘New’ Tools for Confronting the West Continuity and Innovation in Moscow’s Exercise of Power, Chatham House, March 2016, p. 46.

[29] M. Elder, Polishing Putin: hacked emails suggest dirty tricks by Russian youth group, “The Guardian”, 7 February 2012.

[30] E. Lange-Ionatamishvili, S. Svetoka, Strategic Communications and Social Media in the Russia Ukraine Conflict, in K. Geers (a cura di), Perspective: Russian Aggression Against Ukraine, NATO CCD COE Publications, Tallinn, 2015, p. 110.

[31] NATO Strategic Communications Centre of Excellence, Analysis of Russia’s Information Campaign against Ukraine, Riga, July 2015, in particolare pp. 22-25; E. Lange-Ionatamishvili, S. Svetoka, Strategic Communications and Social Media in the Russia Ukraine Conflict, cit., pp. 103-111.

[32] E. Lange-Ionatamishvili, S. Svetoka, Strategic Communications and Social Media in the Russia Ukraine Conflict, cit., p. 108.

[33] Ibidem.

[34] D. Rohac, Cranks, Trolls, and Useful Idiots, “Foreign Policy”, March 12, 2015.

[35] NATO Strategic Communications Centre of Excellence, Internet Trolling as a hybrid warfare tool: the case of Latvia, Riga, January 2016.

[36] N. Fielding, Revealed: US spy operation that manipulates social media, “The Guardian”, 17 March 2011; S. Ackerman, Newest U.S. Counterterrorism Strategy: Trolling, “Wired”, 18 July 2012.

[37] E. MacAskill, British army creates team of Facebook warriors, “The Guardian”, 31 January 2015.

[38] J. Aro, My Year as a Pro-Russia Troll Magnet: International Shaming Campaign and an SMS from Dead Father, “Kioski”, 9 November 2015.

[39] A. Colombo, La guerra ineguale. Pace e violenza nel tramonto della società internazionale, Il Mulino, Bologna, 2006, p. 285.

Share on Tumblr

Potrebbero interessarti anche :

Ritornare alla prima pagina di Logo Paperblog

Possono interessarti anche questi articoli :