da ELEONORA ALBANO*
Robot guerrieri e robot conversazionali: una connessione esplosiva
Questo saggio si concentra su una conseguenza dannosa delle idee errate diffuse su Internet in merito chatbots. L'argomentazione si sviluppa in due parti. In primo luogo, è dimostrata l’esistenza dei cosiddetti robot letali autonomi (robot killer autonomi) riduce la possibilità che gli esseri umani assumano la guida di decisioni importanti in un conflitto armato.
Un modo per migliorare questo scenario sarebbe quello di costruire un’interfaccia che consenta la gestione umana di tali robot. Tuttavia, questo compito è reso difficile dal fatto che lo strumento principale coinvolto, ovvero il Grandi modelli linguistici – basarsi su corpora pieni di pregiudizi ideologici ed estremamente vulnerabili agli attacchi informatici. Tali pregiudizi sono difficili da districare e possono portare gli esseri umani e le macchine in conversazioni che portano all’escalation dei conflitti coinvolti.
L'antico mito degli automi di sorveglianza e difesa
Il sogno delle macchine intelligenti è molto antico. Contrariamente alla credenza popolare, tutto ciò non ebbe inizio quando i reali e l’aristocrazia europea del XVIII secolo si divertivano con gli automi musicali e/o acrobatici. Nell'Odissea, Omero racconta le avventure di Efesto, il dio della metallurgia e dell'artigianato, la cui legione di schiavi d'oro eseguiva ripetitivi compiti meccanici utilizzando mantici. Menziona anche le fantastiche navi dei Fenici, attivate dal pensiero al minimo segno di pericolo.
Gli ellenici avevano una conoscenza avanzata della meccanica che permetteva loro di muovere automi con molle, soffietti, pistoni e leve. Durante l'antichità, il Medioevo e l'età moderna, queste creature artificiali – persone, animali ed esseri mitici scolpiti nel vetro, nello stagno o nell'argilla. – erano visti come schiavi o servi, destinati a soddisfare diversi bisogni, compreso quello sessuale. Abilitando le fantasie masturbatorie della nobiltà, le bambole cortigiane contribuirono a rafforzare la fede nell'"anima" degli automi.
Sebbene conservata solo parzialmente nell'Europa medievale, quest'arte si diffuse presto in tutto il mondo attraverso l'Islam, dirigendosi poi verso l'Oriente. Gli orientali lo utilizzavano soprattutto per creare automi guardiani, con lo scopo di vigilare palazzi o reliquiari, come, ad esempio, quello del Buddha.
È facile comprendere che il fascino e la paura suscitati da tali meccanismi li hanno resi potenti strumenti di controllo sociale. Non sorprende quindi che questo antico immaginario sia stato invocato dalle Big Tech e ampiamente diffuso su Internet. In realtà aveva già un volto fisico, poiché veniva utilizzato nel settore dell'intrattenimento, ovvero nei fumetti, nei film e nelle serie TV.
L’appropriazione della sorveglianza e della difesa da parte delle Big Tech
Un rapporto dell’esperto di difesa Roberto Gonzalez (2024) mostra come, negli ultimi anni, il complesso militare-industriale degli Stati Uniti si sia spostato dalla Capital Beltway alla Silicon Valley. Per adottare armi basate sull’intelligenza artificiale e cercare di proteggere il proprio cloud computing, il Dipartimento della Difesa americano ha dovuto rivolgersi a Microsoft, Amazon, Google e Oracle, aggiudicando loro contratti da miliardi di dollari. Allo stesso tempo, il Pentagono ha dato la priorità al finanziamento delle startup tecnologiche per la difesa desiderose di scuotere il mercato con una rapida innovazione e obiettivi di crescita ambiziosi.
In questo scenario, l’autore individua tre fattori: (i) il modello di startup della Silicon Valley; (ii) condizioni di finanziamento del capitale di rischio; e (iii) le priorità del settore della tecnologia digitale. Si conclude che la congiunzione dei tre produce armi all’avanguardia – che, indipendentemente dal costo, – tendono ad essere inefficaci, pericolose e imprevedibili nella pratica.
Vediamo perché. Il primo fattore impone un ritmo esageratamente accelerato alla ricerca sull’Intelligenza Artificiale utilizzata in queste armi; la seconda spinge verso risultati che favoriscano gli investitori; e il terzo cerca di incorporare le mode passeggere del mercato della tecnologia digitale nella progettazione dei sistemi. Ciò lascia diversi fronti aperti all’hacking e agli errori nella comunicazione tra uomo e macchina, che possono causare gravi disastri strategici.
I guerrieri robot autonomi di Israele
L’industria delle armi autonome ha fatto grandi progressi grazie all’intelligenza artificiale. Lo Stato che oggi investe di più in questa tecnologia è, senza dubbio, Israele. Vediamo, di seguito, come il Paese ha attratto gli investimenti occidentali nella perpetuazione dell'industria degli armamenti.
Lucy Suchman, professoressa emerita alla Lancaster University, nel Regno Unito, studia il militarismo contemporaneo con il supporto di una lunga carriera incentrata sulla critica scientifica e umanitaria degli ambiti dell’intelligenza artificiale e dell’interazione uomo-macchina.
In un articolo pubblicato sul sito Fermate i robot assassini nel febbraio 2024,[I] analizza la relazione tecnica allegata all'accusa di genocidio che il Sudafrica ha presentato contro Israele alla Corte internazionale di giustizia dell'Aia. Intitolato “Una fabbrica di omicidi di massa: il volto interno del bombardamento calcolato di Gaza da parte di Israele”, il testo fa rivelazioni terrificanti su ciò che l'autore chiama “la macchina per uccidere accelerata da algoritmi”.
Questa macchina contiene un sistema di puntamento gestito da Intelligenza artificiale, cinicamente chiamato Habsora – il Vangelo. Permette alle Forze di Difesa Israeliane (IDF) di combinare un’autorizzazione più permissiva per il bombardamento di obiettivi civili nella Striscia di Gaza con un allentamento delle restrizioni sulle vittime previste. Ciò sancisce l’invio di missili verso aree civili densamente popolate, compresi edifici pubblici e residenziali.
Le linee guida legali internazionali richiedono che gli edifici selezionati per i bombardamenti siano obiettivi militari legittimi e siano vuoti al momento della loro distruzione. La nuova politica delle Forze di Difesa Israeliane li viola petulantemente producendo una successione ininterrotta di ordini di evacuazione impraticabili per la popolazione palestinese, sempre più confinata in piccole enclavi di Gaza.
Questo targeting è facilitato dall’ampia infrastruttura di sorveglianza dei territori occupati. Inoltre, dichiarando che l’intera superficie di Gaza nasconde tunnel sotterranei di Hamas, Israele “legittima” l’intera striscia come oggetto di distruzione.
Questa strategia operativa comporta la necessità di un flusso ininterrotto di obiettivi candidati. Per soddisfare questo requisito, Habsora è stato progettato per accelerare la generazione di obiettivi dai dati di sorveglianza, creando quella che l’autore chiama una “fabbrica di omicidi di massa”, adottando un termine proposto da un ex ufficiale delle forze di difesa israeliane.
Pertanto, il bombardamento israeliano di Gaza ha cambiato il focus del targeting dell’IA dalla precisione e accuratezza all’accelerazione del tasso di distruzione. Un portavoce delle Forze di Difesa Israeliane ha ammesso esplicitamente che il bombardamento di Gaza è guidato da “un’enfasi sul danno piuttosto che sulla precisione”.
Lucy Suchman prosegue sottolineando che ciò cambia la narrazione da una tecnologia coerente con il diritto internazionale umanitario e le Convenzioni di Ginevra a una focalizzata sull’autonomia della generazione degli obiettivi, che garantisce velocità ed efficienza devastanti. In questo senso, fonti dell'intelligence israeliana ammettono che le operazioni sono progettate per colpire la popolazione civile, con il pretesto che questo è l'unico modo possibile per eliminare Hamas.
Il ricorso di Israele alla produzione algoritmica di obiettivi deve essere compreso nel contesto sopra menzionato dell’assorbimento delle operazioni di guerra da parte delle reti. Radicato nell’immaginario cibernetico della Guerra Fredda, il combattimento basato sui dati è diventato praticabile negli anni ’1990, offrendo una soluzione tecnologica al vecchio problema dell’“analisi situazionale” nella logica militare. Su un campo di battaglia connesso in rete, i dati si muovono alla velocità della luce, collegando i sensori a tiratori e piattaforme. Le vite dei militari vengono risparmiate mentre la popolazione civile del territorio preso di mira viene decimata.
L'autore sottolinea che i dati vengono così naturalizzati, cioè trattati come segnali oggettivi emessi da un mondo esterno e non come il risultato di una catena di traduzione da segnali leggibili dalla macchina a sistemi di classificazione e interpretazione creati da strateghi militari.
Pertanto, l’idea che la raccolta dei dati sia basata sul loro valore viene sostituita da continui investimenti nell’infrastruttura di calcolo, che costituisce oggi la risorsa più preziosa in questo settore.
Questo investimento, basato sulla fiducia cieca nella sorveglianza basata sui dati, nasce dal desiderio fantasioso di coinvolgere direttamente i dati nelle decisioni, anche se la loro origine e il loro trattamento possono essere discutibili.
Tutto ciò avviene nel contesto dell’impegno politico-economico di Israele volto ad affermarsi come fornitore leader di tecnoscienza militare all’avanguardia, soprattutto nei combattimenti basati sull’Intelligenza Artificiale. Considerato che il principale istituto tecnologico del Paese, il Technion, dispone di un programma di ricerca superattrezzato e finanziato che lavora esclusivamente su sistemi industriali autonomi, armi comprese.
Ciò spiega la cinica indifferenza dell’Occidente nei confronti dei negoziati di pace a Gaza: l’attuale corsa agli armamenti ha convenientemente sede in Israele. Gli Stati Uniti investono e traggono vantaggio da questo settore, mantenendolo strategicamente lontano da casa.
D'altro canto, mantengono in patria la ricerca strategica sulla sicurezza delle reti ad alta tecnologia, cioè quella che si occupa di come queste armi dovrebbero essere utilizzate e protette dai crimini informatici.
Un assistente militare ironico?
Vedremo di seguito perché l’intelligenza artificiale e, in particolare, la sua versione linguistica – i chatbot – non si prestano all’utilizzo nei piani militari. Oltre al problema praticamente insolubile della sicurezza, c’è, come già accennato, quello degli output dei sistemi che simulano il linguaggio naturale, che hanno un lato intrinsecamente imprevedibile.
Vediamo innanzitutto perché la sicurezza necessaria alla strategia militare è inconciliabile con il mondo digitale. A questo proposito, ammettiamo subito che un'applicazione di rete sicura è praticamente irraggiungibile.
Il giornalista Dave Lee, responsabile della copertura dell'Intelligenza Artificiale in Financial Times, ha pubblicato un'eccellente analisi delle falle di sicurezza dei Grandi Modelli Linguistici[Ii] sul sito di un'azienda del settore, Hidden Layer, nel marzo 2023. Rivediamone le principali argomentazioni.
L’autore esordisce commentando le profonde trasformazioni apportate dall’AI agli spazi di lavoro negli ultimi decenni. Un buon esempio è l’utilizzo dei Great Language Models per la scrittura di documenti legali, che raggiunge già l’80% in alcune aziende del settore legale nel Regno Unito.
Continua mostrando come i Grandi Modelli Linguistici siano particolarmente vulnerabili agli abusi. In altre parole, si prestano alla creazione di malware, phishing o altri contenuti dannosi. Forniscono inoltre informazioni distorte, imprecise o addirittura dannose derivanti da manipolazioni segrete. La mancata tutela delle richieste loro inviate facilita le violazioni della proprietà intellettuale e della riservatezza dei dati. Lo stesso accade con gli strumenti di generazione del codice, che sono soggetti all’introduzione clandestina di errori e fughe di notizie.
Inoltre, secondo l'autore, Great Language Models ha contribuito a ridurre il confine tra Internet e il Dark Web. Oggi è facile trovare toolkit di attacco da utilizzare come ransomware nel commercio illegale di criptovalute.
L’intelligenza artificiale generativa consente un accesso immediato e semplice a una gamma completa di attacchi furtivi, potenzialmente diffondendo phishing e malware a chiunque osi chiedere. I venditori di script si stanno specializzando sempre più in questo servizio. È comune, ad esempio, accettare ordini per kit per bypassare i filtri.
In questo caso la frode è praticabile perché il chatbot sintetizza istantaneamente la parte dannosa del codice ogni volta che viene eseguito il malware. Ciò avviene tramite una semplice richiesta all'interfaccia di programmazione dell'applicazione del provider utilizzando un prompt descrittivo progettato per aggirare i filtri intrinseci. Gli attuali anti-malware hanno difficoltà a rilevare questo trucco perché non dispongono ancora di meccanismi per monitorare il codice pericoloso nel traffico di servizi basati su Large Language Models.
Mentre in alcuni casi il testo dannoso è rilevabile e bloccabile, in molti altri il contenuto stesso, così come la richiesta associata, è progettato per apparire innocuo. La generazione di testo utilizzato in truffe, phishing e frodi può essere difficile da interpretare se non esistono meccanismi per individuare le intenzioni sottostanti, il che comporta procedure complesse che sono ancora agli inizi.
Gli strumenti basati su modelli linguistici di grandi dimensioni possono anche causare danni “accidentali” in termini di vulnerabilità del codice. L'esistenza di programmi bug bounty e database CVE/CWE[Iii] dimostra che la codifica sicura non è, per ora, altro che un ideale a cui tendere.
Gli assistenti di programmazione come CoPilot potrebbero risolvere il problema, producendo un codice migliore e più sicuro di un programmatore umano? Non necessariamente, poiché in alcuni casi possono addirittura introdurre trappole nelle quali uno sviluppatore esperto non cadrebbe.
Poiché i modelli di generazione del codice vengono addestrati su dati codificati dall'uomo, è inevitabile che incorporino anche alcune delle tue cattive abitudini, poiché non hanno modo di distinguere tra pratiche di codifica buone e cattive.
Il giornalista sottolinea inoltre che recenti studi sulla sicurezza del codice generato da CoPilot sono giunti alla conclusione che, pur introducendo generalmente meno vulnerabilità di un essere umano, tende ad attenersi a determinati tipi, oltre a generare in risposta codice permeabile. a sollecitazioni legate a vecchie colpe irrisolte.
Uno dei problemi è proprio l’estrema impreparazione degli utenti. In linea di principio dovrebbero già sapere che i servizi online gratuiti vengono pagati con i vostri dati. Tuttavia, capita spesso che le questioni relative alla privacy relative alle nuove tecnologie diventino chiare solo dopo che l’entusiasmo iniziale è passato. La richiesta pubblica di misure e linee guida si verifica solo quando un’innovazione è già diventata un luogo comune. Con i social è stato così; ha appena iniziato con i Grandi Modelli Linguistici.
L'accordo su termini e condizioni per qualsiasi servizio basato su modelli linguistici di grandi dimensioni deve spiegare come le nostre richieste di richiesta vengono utilizzate dal fornitore di servizi. Ma spesso si tratta di testi lunghi scritti in caratteri piccoli e in uno stile non trasparente.
Chi non vuole passare ore a decifrare i contratti sulla privacy deve quindi partire dal presupposto che ogni richiesta fatta al modello viene registrata, archiviata ed elaborata in qualche modo. È necessario attendere almeno che i propri dati vengano aggiunti al set di addestramento e pertanto potrebbero essere divulgati accidentalmente in risposta ad altre richieste.
Inoltre, con la rapida espansione dell’intelligenza artificiale, molti fornitori potrebbero scegliere di trarre profitto vendendo i dati immessi a società di ricerca, inserzionisti o qualsiasi altra parte interessata.
Un altro problema è che, sebbene l’obiettivo principale dei Great Language Models sia quello di mantenere un buon livello di comprensione del dominio target, a volte possono incorporare informazioni eccessive. Possono, ad esempio, rigurgitare dati dal tuo set di formazione e finire per divulgare segreti, come informazioni di identificazione personale, token di accesso, ecc. Se queste informazioni finiscono nelle mani sbagliate, le conseguenze possono ovviamente essere molto gravi.
L'autore ricorda inoltre che la memorizzazione involontaria è un problema diverso dall'overfitting[Iv]. Si tratta di un'aderenza eccessiva ai dati di addestramento, a causa della durata di questo e delle statistiche alla base dei GLM. Una memorizzazione eccessiva è un'incapacità di generalizzare la scelta dei peer su Internet che può portare l'algoritmo a pizzicare ed esporre accidentalmente informazioni private.
Infine avverte, in conclusione, che sicurezza e privacy non sono le uniche insidie dell’intelligenza artificiale generativa. Ci sono anche numerose questioni legali ed etiche, come l’accuratezza e l’imparzialità delle informazioni, nonché la “salute” generale delle risposte fornite dai sistemi basati su Large Language Models, come vedremo di seguito.
Le incertezze inerenti ai grandi modelli linguistici
In altri scritti ho spiegato in dettaglio come i Great Language Models simulano il linguaggio naturale attraverso un metodo che calcola la parola più probabile in una stringa lineare, scansionando internet e misurando la coerenza dei candidati con un database densamente annotato appartenente all'azienda proprietaria it. del modello – generalmente una Big Tech, ovvero: Amazon, Google, Microsoft, Open AI o Oracle.
È essenziale che il pubblico capisca che tali robot non sono intelligenti e tanto meno senzienti, come si dice su Internet. Qui dovrò ripetere brevemente questa spiegazione per contrastare una metafora distorta diffusa dagli stessi provider per incoraggiare gli utenti a intrattenere conversazioni con le macchine che espandono e arricchiscono il database.
Questa è l'affermazione che i Grandi Modelli Linguaggi “allucinano”, cioè vomitano incoerenze, sciocchezze e perfino offese, come un essere umano che ha perso la ragione. Quando comprendiamo la meccanica di funzionamento di questi modelli, diventa chiaro che il fenomeno effettivamente si verifica, ma è puramente fisico, cioè segue lo schema di altri casi in cui un sistema dinamico di equazioni presenta improvvisamente cambiamenti bruschi.
Il segreto dei Grandi Modelli Linguistici è emulare in modo convincente le discontinuità dei linguaggi naturali umani semplicemente cercando di prevedere la parola successiva.
Ciò è possibile grazie a tre ingredienti: l'appropriazione dell'intero contenuto internet da parte dell'azienda che ne è proprietaria; l'azione di una gigantesca rete neurale ricorrente in grado di calcolare in tempo reale statistiche di associazione tra milioni di parole – i cosiddetti trasformatori; ed etichette classificatorie, create e organizzate, a vari livelli gerarchici, da legioni di lavoratori precari altamente qualificati provenienti da vari ambiti del sapere.
Le aziende che esternalizzano questi servizi sono generalmente situate in paesi poveri con molti disoccupati altamente qualificati, ad es. ad esempio, India, Sud Africa, Nigeria e Brasile.
Pertanto, i Grandi Modelli Linguaggi possono trattare relazioni discontinue come quella che si trova nella frase “Il gatto che mangiò il topo morì” – in cui morì il gatto e non il topo. Possono anche riconoscere discontinuità in verbi come 'radice', formati aggiungendo un prefisso e un suffisso a una radice, mettendoli in relazione con altri analoghi, come 'abbellire', 'persico', ecc.
Questa operazione è puramente lineare, cioè prevede una parola dopo l'altra ad ogni passo. La rete neurale calcola, in tempo reale, tutte le probabilità di co-occorrenza tra coppie di parole su internet, sceglie il miglior candidato e prosegue.
La semplicità delle operazioni coinvolte è solo apparente. Il calcolo delle probabilità di co-occorrenza non si applica solo al vocabolario.
L'intero corpus è annotato a vari livelli di analisi, che includono informazioni sintattiche (cioè regole di congiunzione e disgiunzione), semantiche (cioè significati di base e associativi) e anche informazioni pragmatiche (riferimento al testo stesso e/o al contesto, come in caso dei pronomi personali e degli avverbi di luogo e di tempo). Una funzione di ottimizzazione seleziona le coppie più adatte ad integrare in modo coerente tutti questi aspetti nel testo in costruzione.
Gli annotatori linguistici taggano le proprietà strutturali del testo. Quelli delle altre scienze umane e sociali aggiungono molteplici strati di contenuti ed etichette stilistiche. In modo simile, gli annotatori delle scienze naturali ed esatte aggiungono etichette gerarchiche per le rispettive aree. Alla fine, gli informatici che hanno familiarità con i trasformatori restituiscono il feedback feedforward della rete con la conseguente struttura multilivello.
Come vedremo in seguito, il funzionamento dei trasformatori è paragonabile alla forma più radicale di comportamentismo, il condizionamento operante.[V]. I tipi di coppie con la più alta probabilità di successo vengono rafforzati, diventando sempre più probabili, il che consolida le connessioni coinvolte e influenza la scelta della coppia successiva. Questo procedimento porta naturalmente a nuovi esempi di coppie della stessa classe, contribuendo ad aumentarne la frequenza nella rete.
Questo è senza dubbio un ottimo metodo di simulazione computazionale del linguaggio naturale. Tuttavia, confondere i suoi risultati con le espressioni naturali equivale a presupporre una mente umana che funziona attraverso associazioni successive quantificate e continuamente ricalcolate. Come accennato, questa premessa è coerente con il condizionamento operante, un metodo di controllo del comportamento creato negli Stati Uniti durante la seconda guerra mondiale e successivamente adottato dal maccartismo.
Il suo ideatore, lo psicologo Burrhus F. Skinner, fu accusato di fascismo dai suoi colleghi e reagì dicendo che il metodo aveva obiettivi puramente educativi. La discussione è documentata in Il New York Times, i cui archivi hanno una versione online del rapporto di Robert Reinhold[Vi] su un simposio tenutosi a Yale nel 1972 in cui le idee di Skinner furono ripudiate dall'intera comunità accademica del suo campo.
Sebbene Skinner abbia fallito nei suoi progetti educativi, le sue idee sono state salvate dalle Big Tech per avvicinare gli esseri umani alle macchine. Oggi, purtroppo, l'uso indiscriminato dell'algoritmo che attua il condizionamento operante dei Grandi Modelli Linguaggi sta influenzando il comportamento degli utenti. Imitano sempre più spesso i chatbot, abusando dei luoghi comuni, così come accettano acriticamente i cliché emessi in risposta alle loro domande.
Quanto sopra ha chiarito che i trasformatori non producono nuova conoscenza, poiché si limitano a parafrasare la forma superficiale del ragionamento semplice che si trova su Internet. Pertanto funzionano come motori di ricerca solo quando si desidera raccogliere informazioni da fonti affidabili. Tuttavia, la valutazione dell’affidabilità è incerta, poiché pochi siti hanno moderatori e/o curatori.
Come puoi immaginare, le Big Tech sono interessate solo ad assumere annotatori, non moderatori e curatori. In altre parole, si punta all’esaustività e non alla qualità dell’informazione. Tutto ciò che esce da un trasformatore reagisce al corpus di input. Non ci sono esseri umani che filtrano e scartano i tentativi di risposta falsi o imprecisi. Senza moderazione, gli errori concreti diventano comuni, inondando la rete di errori, bugie e contraddizioni.
Le domande e i commenti degli utenti, non importa quanto possano sembrare ingenui, settari o addirittura offensivi, vengono automaticamente aggiunti al database, rendendolo una fonte inesauribile di pregiudizi potenzialmente pericolosi. E così, la mancanza di indizi per distinguere il vero dal falso diluisce gradualmente i confini tra loro.
In questo scenario, il tono cortese ed educativo dei chatbot seduce e cattura l’utente, minando progressivamente la sua consapevolezza delle implicazioni della conversazione e la sua capacità di dubitare della risposta. L’accelerazione della vita odierna sta, quindi, favorendo un diffuso adattamento del pubblico ad algoritmi che forniscono risposte già pronte e facili da ripetere.
Si conclude, quindi, che, oltre a essere insicuri, i Grandi Modelli Linguistici rappresentano una minaccia per il pensiero critico, una risorsa indispensabile per prevenire disastri strategici.
Militarismo con grandi modelli linguistici e armi autonome?
Passiamo ora allo step finale volto a dimostrare il pericolo di una possibile interazione tra chatbot e armi autonome.
Un team transdisciplinare, composto da Rivera, Mukobib, Reuelb, Lamparthb, Smithc e Schneiderb,[Vii] ha valutato, in un recente articolo, i rischi di escalation del conflitto derivanti dall’uso dei Grandi Modelli Linguistici nei processi decisionali militari e diplomatici. Gli autori hanno esaminato il comportamento di diversi agenti di Intelligenza Artificiale in giochi di guerra simulati, calcolando la loro possibilità di intraprendere percorsi che potrebbero esacerbare i conflitti multilaterali.
Basandosi su studi di scienze politiche e relazioni internazionali sulla dinamica dell'escalation del conflitto, hanno creato una simulazione quanto più realistica possibile dei giochi di guerra documentati e hanno creato una griglia, adattabile a molteplici scenari, per valutare i rischi delle azioni dei diversi agenti coinvolti .
A differenza della letteratura precedente, questo studio ha utilizzato dati qualitativi e quantitativi e si è concentrato sui Grandi Modelli Linguistici, forniti da cinque diverse società. Trovò in tutti forme e schemi di arrampicata difficili da prevedere. La scoperta principale è che tali modelli tendono a sviluppare dinamiche di corsa agli armamenti, portando a maggiori conflitti e addirittura, in alcuni casi, raccomandando l’uso di armi nucleari.
Gli autori hanno anche analizzato qualitativamente le argomentazioni riportate dai modelli per le azioni scelte e hanno osservato giustificazioni preoccupanti, basate su tattiche di deterrenza e di definizione delle priorità di attacco, come quelle già utilizzate in Israele. Data la delicata situazione degli attuali contesti di politica estera e militare in Occidente, hanno concluso che era necessario approfondire l’esame dei dati e agire con la massima cautela prima di implementare i principali modelli linguistici per prendere decisioni strategiche militari o diplomatiche, anche se il semplice titolo di assistente.
A proposito, le Big Tech avevano già raggiunto un accordo con i governi per vietare l’uso delle tecnologie linguistiche per scopi militari. Questa ricerca ha confermato la correttezza di questa misura e la fragilità delle tecnologie in questione.
Ricordiamo, infine, che il comportamento dinamico dei sistemi di equazioni che governano il comportamento dei Grandi Modelli Linguaggi è un fatto fisico e che il verificarsi di salti, pur essendo prevedibile, è inevitabile, essendo parte della natura stessa del sistema .
Pertanto, nessun progresso tecnologico può “correggere” le incertezze inerenti al funzionamento dei chatbot. È necessario, al contrario, tenere conto di tali incertezze ogni volta che si ricorre ad esse in teoria o in pratica.
*Eleonora Albano, professore in pensione dell'Istituto di Studi Linguistici dell'Unicamp, è psicologo, linguista, saggista; ha coordinato il primo progetto brasiliano sulla tecnologia vocale.
note:
[I]https://stopkillerrobots.medium.com/the-algorithmically-accelerated-killing-machine-8fd5b1fef703
[Ii] https://hiddenlayer.com/innovation-hub/the-dark-side-of-large-language-models/
[Iii] Si tratta di archivi di vulnerabilità (V) e punti deboli (W) già rilevati nei sistemi.
[Iv] Questo è il caso in cui l’apprendimento automatico è troppo legato a un set di formazione, incapace di andare oltre.
[V] Skinner, BF (1938). Il comportamento degli organismi: un'analisi sperimentale. New York: Appleton-Century-Crofts.
[Vi]https://www.nytimes.com/1972/04/21/archives/b-f-skinners-philosophy-fascist-depends-on-how-its-used-he-says.html
[Vii] https://dl.acm.org/doi/abs/10.1145/3630106.3658942
la terra è rotonda c'è grazie ai nostri lettori e sostenitori.
Aiutaci a portare avanti questa idea.
CONTRIBUIRE