da SLAVEJŽIŽEK*
Il problema non è che i chatbot sono stupidi; è che non sono abbastanza "stupidi".
Non c'è nulla di nuovo nei “chatbot” che sono in grado di sostenere una conversazione in linguaggio naturale, comprendere le intenzioni di base dell'utente e offrire risposte basate su regole e dati predefiniti. La sua capacità, tuttavia, è aumentata notevolmente negli ultimi mesi, mandando molti nel panico e nella disperazione.
Si è detto molto sul fatto che i chatbot siano un presagio della fine delle dissertazioni studentesche. Ma una questione che richiede ulteriore attenzione è come dovrebbero rispondere i chatbot quando interlocutori umani usano affermazioni aggressive, sessiste o razziste per invogliare il robot a inventare le proprie brutte fantasie in risposta. Le intelligenze artificiali dovrebbero essere programmate per rispondere allo stesso livello delle domande poste loro?
Se decidiamo che debba essere applicato un qualche tipo di controllo, allora dobbiamo determinare fino a che punto dovrebbe spingersi la censura. Saranno proibite posizioni politiche che alcuni settori considerano “offensive”? Che dire delle espressioni di solidarietà con i palestinesi della Cisgiordania? L'affermazione che Israele è uno stato di apartheid (quale ex presidente Jimmy Carter ha messo una volta nel titolo di un libro)? Tutto questo verrà bloccato perché “antisemita”?
Il problema non finisce qui. Come ci avverte lo scrittore e artista James Bridle, le nuove intelligenze artificiali sono "basate sull'appropriazione di massa della cultura esistente" e la convinzione che siano "veramente ben informate o significative è attivamente pericolosa". Pertanto, dobbiamo essere molto cauti con i nuovi generatori di immagini dell'intelligenza artificiale. “Nel loro tentativo di comprendere e replicare la cultura visiva umana nella sua interezza”, osserva Bridle, “sembrano anche aver ricreato le nostre più grandi paure. Forse questo è solo un segno che questi sistemi sono in realtà molto bravi a imitare la coscienza umana, raggiungendo anche gli orrori che si nascondono nelle profondità della nostra coscienza: le nostre paure di sporcizia, morte e corruzione.
Ma quanto sono brave le nuove intelligenze artificiali a somigliare alla coscienza umana? Considera il bar che ha recentemente annunciato una promozione speciale secondo i termini: "Acquista una birra al prezzo di due e ricevi una seconda birra completamente gratis!" Per qualsiasi essere umano, questo è ovviamente uno scherzo. La tipica offerta "paghi uno, prendi due gratis" viene rielaborata per annullarsi. È un'espressione di cinismo apprezzata come onestà comica per aumentare le vendite. Uno chatbot riusciresti a capirlo?
"Fucking" presenta un problema simile. Sebbene la parola designi qualcosa che la maggior parte delle persone ama fare (copulare), acquista anche un valore negativo ("Siamo fottuti!", "Vaffanculo!"). Linguaggio e realtà si confondono. L'intelligenza artificiale è pronta a discernere tali differenze?
Nel suo saggio del 1805 "Sulla formazione graduale dei pensieri nel processo del discorso" (pubblicato postumo nel 1878), il poeta tedesco Heinrich von Kleist capovolse il detto popolare secondo cui non si dovrebbe aprire la bocca per parlare se non si ha una chiara idea di che dire: “Stando così le cose, se un pensiero è espresso in modo confuso, non significa affatto che tale pensiero sia stato concepito in modo confuso. Al contrario, è possibile che le idee che si esprimono nei modi più confusi siano proprio quelle che sono state pensate più chiaramente».
Questo rapporto tra linguaggio e pensiero è straordinariamente complicato. In un passaggio di uno dei suoi discorsi dei primi anni '1930, Joseph Stalin propone misure radicali per "individuare e combattere spietatamente anche coloro che si oppongono alla collettivizzazione solo con il pensiero - sì, è quello che voglio dire, dobbiamo combattere". persone." Possiamo tranquillamente presumere che questa frase non sia stata preparata in anticipo. Mentre si lasciava trasportare dal momento, Stalin si rese subito conto di ciò che aveva appena detto. Ma invece di fare marcia indietro, ha deciso di continuare la sua iperbole.
Come affermerà poi Jacques Lacan, questo è uno di quei casi in cui la verità emerge di sorpresa attraverso l'atto dell'enunciazione. Louis Althusser ha identificato un fenomeno simile nel rapporto tra presa e sorpresa. Qualcuno che diventa improvvisamente consapevole ("presa”) di un'idea si stupirà di ciò che ha realizzato. Ancora una volta, qualche chatbot in grado di farlo?
Il problema non è che i chatbot sono stupidi; è che non sono abbastanza "stupidi". Non è che siano ingenui (incapaci di ironizzare e riflettere); è che non sono abbastanza ingenui (non riuscendo a notare i momenti in cui l'ingenuità maschera l'intuizione). Il vero pericolo, quindi, non è che le persone scambino i chatbot per persone reali; ma di chatbot che fanno parlare persone reali come chatbot – incapaci di notare sfumature e ironie, dicendo ossessivamente esattamente quello che pensano di voler dire.
Quando ero più giovane, un amico è andato da uno psicoanalista per un trattamento dopo un'esperienza traumatica. L'idea di questo amico di ciò che tali analisti si aspettano dai loro pazienti era un cliché, e ha trascorso la prima seduta producendo false "libere associazioni" su come odiava suo padre e desiderava la sua morte. La reazione dell'analista è stata ingenua: ha adottato un'ingenua posizione “prefreudiana” e ha rimproverato il mio amico per non rispettare suo padre (“Come puoi parlare così della persona che ti ha reso quello che sei?”). Questa falsa innocenza ha inviato un messaggio chiaro: non sto comprando le tue false "associazioni". Un chatbot sarebbe in grado di comprendere questo sottotesto?
Probabilmente non capirebbe, perché è come l'interpretazione di Rowan Williams del principe Myshkin dal libro L'idiota di Dostoevskij. Secondo l'interpretazione convenzionale, Myshkin, "l'idiota", è "un uomo decisamente buono e bello" che è stato spinto alla follia solitaria dalle dure brutalità e passioni del mondo reale. Nella reinterpretazione radicale di Williams, invece, Myshkin rappresenta l'occhio di un ciclone: per quanto buono e santo sia, è lui che provoca il caos e le morti a cui assiste a causa del suo ruolo nella complessa rete di relazioni che lo circonda.
Non è che Myshkin sia un ingenuo sempliciotto. Ma quel suo particolare tipo di ottusità lo rende incapace di rendersi conto dei suoi effetti disastrosi sugli altri. È un personaggio piatto che parla letteralmente come un chatbot. La sua “gentilezza” si basa sul fatto che, come un chatbot, reagisce alle sfide senza ironia, proponendo banalità prive di qualsiasi riflessività, prendendo tutto alla lettera e affidandosi a un meccanismo mentale di autocompletamento delle risposte anziché formare frasi. . Per questo i nuovi chatbot se la caveranno benissimo con ideologi di ogni genere, dalla folla”svegliato” contemporaneo ai nazionalisti “MAGA”, che preferiscono restare addormentati.
*Slavoj Žižek, professore di filosofia alla European Graduate School, è direttore internazionale del Birkbeck Institute for the Humanities dell'Università di Londra. Autore, tra gli altri libri, di In difesa delle cause perse (boitempo).
Traduzione: Daniele Pavano.
Originariamente pubblicato sul portale Project Syndicate.
Il sito A Terra é Redonda esiste grazie ai nostri lettori e sostenitori.
Aiutaci a portare avanti questa idea.
Clicca qui e scopri come