da FLAVIO AGUIAR*
I ricercatori riscontrano un uso diffuso dell’intelligenza artificiale tra i gruppi di estrema destra e le organizzazioni terroristiche
Il 29 luglio, intorno a mezzogiorno, nella città di Southport, nel nord-ovest dell'Inghilterra, un ragazzo di 17 anni ha fatto irruzione in una festa per bambini in una scuola di danza e yoga, organizzata da uno dei suoi insegnanti. Armato di coltello, il giovane ha ucciso tre bambini, di sei, sette e nove anni, ferendo altri otto e altri due adulti che cercavano di proteggerli, tra cui l'insegnante che aveva organizzato l'evento.
La polizia e le ambulanze sono arrivate in pochi minuti. Arrestato sul fatto, il giovane è stato identificato come Axel Rudakubana, 17 anni, cittadino britannico, i cui genitori provenivano dal Ruanda, Africa. Poiché era minorenne, per motivi legali la polizia non ha rivelato immediatamente la sua identità.
Successivamente, sui social media hanno cominciato a circolare false speculazioni.
In 24 ore sono proliferati 27 milioni di contatti verso un messaggio che identificava l'aggressore come musulmano (cosa non vera) e gli dava un nome falso. Altri messaggi lo identificavano come un rifugiato illegale, arrivato in Inghilterra in barca, in cerca di asilo. “influenzatori" e un sito web identificato come Canale3Ora (che in seguito si sarebbe scusato) ha diffuso rapidamente tali messaggi. Uno di questi”influenzatori” ha gridato che “l’anima dell’uomo occidentale viene lacerata quando gli invasori uccidono le sue figlie”.
Un altro messaggio – generato dall’intelligenza artificiale – presente sulla piattaforma protegge i nostri figli”.
Immediatamente, a Southport, una folla, secondo la polizia, infiammata da persone che non vivono in città, ha iniziato ad attaccare una moschea, litigando con la polizia. Gli attacchi alle moschee e ai centri di accoglienza per rifugiati e immigrati si sono diffusi in diverse città dell'Inghilterra, tra cui le popolose Londra e Manchester.
Il caso ha attirato l’attenzione dei ricercatori sul rapporto tra gruppi estremisti, soprattutto di estrema destra, e l’uso dell’intelligenza artificiale.
ricercatori da Ricerca sui media in Medio Oriente, dagli Stati Uniti, hanno attirato l'attenzione sul loro rapporto che mappa decine di casi simili. Dal rapporto emerge che tali gruppi, utilizzando strumenti di intelligenza artificiale, registrano le voci e le immagini di artisti, politici e altri personaggi famosi. Poi diffondono falsi messaggi come se fossero i loro, affermando la supremazia dei bianchi e attaccando neri, musulmani ed ebrei.
Secondo il ricercatore del gruppo NETLab, presso l'Università Federale di Rio de Janeiro, gruppi estremisti di destra diffondono messaggi con istruzioni che arrivano fino a illustrare la fabbricazione di armi ed esplosivi, sempre utilizzando strumenti di Intelligenza Artificiale. In America Latina, gli obiettivi preferiti per tali messaggi sono stati Messico, Colombia, Ecuador e Argentina.
Gli studiosi sull’argomento richiamano l’attenzione sul fatto che questo utilizzo dell’intelligenza artificiale è diffuso anche tra organizzazioni terroristiche come lo Stato Islamico e Al Qa’ida.
In Inghilterra, gli attacchi si sono calmati dopo che grandi manifestazioni antirazziste hanno preso le strade di decine di città britanniche. I sondaggi hanno mostrato che l’85% della popolazione rifiuta la violenza. Tuttavia, il 42% degli intervistati riconosce la legittimità delle manifestazioni con tali motivazioni, purché pacifiche.
*Flavio Aguiar, giornalista e scrittore, è professore in pensione di letteratura brasiliana all'USP. Autore, tra gli altri libri, di Cronache del mondo sottosopra (boitempo). [https://amzn.to/48UDikx]
Pubblicato originariamente su Radio França Internacional.