da GUILHERME PREGER*
L'uso dei chatbot in linguaggio naturale tenderà ad intensificarsi e ad acquisire connotazioni sempre più ludiche
La tanto chiacchierata Chat-GPT dell'azienda Apri AI e altri chatbot all'avanguardia sono in grado di superare il test di Turing? Comprendere questo test aiuterà ad evitare errori legati all'adozione di questi nuovi strumenti tecnologici.
Il test di Turing, uno dei più famosi esperimenti mentali del XX secolo, è stato proposto in un articolo del 1950 dal matematico Alan Turing chiamato Macchine informatiche e intelligenza.[I] In questo, il matematico inizia la sua argomentazione cercando di rispondere se le macchine possono pensare ("La macchina può pensare?”). Tuttavia, all'inizio Alan Turing ammette che questo problema è mal definito a causa dell'imprecisione sia del termine “macchina” che del verbo “pensare”. Pertanto, invece di presentare una risposta alla domanda, propone un esperimento mentale sotto forma di "gioco di imitazione" (gioco di imitazione). In altre parole: il gioco è una procedura euristica per rispondere alla domanda proposta.
Il gioco inizia quindi con una fase preliminare in cui un uomo A e una donna B sono sottoposti alle domande di un interrogatore C (che può essere di entrambi i sessi). L'interrogante C deve trovarsi in una posizione in cui non può vedere né A né B. Deve formulare domande dattiloscritte e ricevere risposte allo stesso modo. Le domande dovrebbero essere quotidiane e semplici e dalle risposte l'interrogante dovrebbe cercare di indovinare il sesso dell'intervistato. Colpirà a volte e ne mancherà altri. Quindi il matematico chiede: cosa succede se sostituiamo l'intervistato A con una macchina? In questo caso, l'interrogante C non deve più distinguere tra risposte maschili e femminili, ma tra risposte umane e automatiche. In questo caso, C manterrà il livello di errore della situazione precedente? Queste domande, secondo Alan Turing, sostituiscono la domanda originaria se una macchina possa pensare.
La cosa importante in questo esperimento è che il matematico non propone una risposta alla domanda filosofica, ma la sposta su un altro problema “simile” che “imita” la domanda originale, ma all'interno di un contesto in cui si può rispondere se si risponde con una macchina abbastanza potente (non ancora disponibile al momento). Nello stesso articolo, Alan Turing osserva che un modello di una "macchina di Turing" (cioè il modello astratto e formale di un computer digitale contemporaneo) potrebbe essere un candidato partecipante al test, sostituendo A o B, in modo intercambiabile, se avesse abbastanza memoria e capacità di elaborazione.
La descrizione dello scenario del gioco è ragionevolmente semplice e veloce, ma nel resto dell'articolo Alan Turing propone di rispondere a una serie di obiezioni (9 in totale) alla fattibilità o verosimiglianza del test. Non intendo qui riassumere queste obiezioni,[Ii] ma prima è interessante notare il suo possibile gender bias: proprio ciò che il passaggio preliminare (senza la macchina) intende eliminare è la probabilità di un accentuato gender bias. Se ci fosse un pregiudizio di genere pronunciato, in primo luogo, l'interrogante mancherebbe un po' le sue scommesse (cioè, alla fine rileverebbe questo pregiudizio); in secondo luogo, il test diventerebbe più complesso, in quanto dovrebbe discernere tra una “intelligenza femminile” e una “maschile”. È interessante notare che, quando la macchina "entra" nel gioco, Turing inizialmente propone di sostituire l'intervistato maschio (A), come se, in realtà, fosse la donna (B) a "simulare" più perfettamente un linguaggio umano universale .[Iii]. In altre parole: perché il test sia efficace, è necessario assumere un linguaggio umano universale.
Infine, dopo aver risposto alle obiezioni, Alan Turing conclude il suo articolo con alcune riflessioni fondamentali, che risuonano con l'attuale problema dei chatbot in linguaggio naturale. La prima è che la fattibilità del test è una questione puramente di programmazione, cioè che si tratta semplicemente di trovare una macchina di Turing (un computer digitale) con un programma adatto a partecipare al test. Il matematico presume addirittura che entro la fine del XX secolo ciò sarebbe diventato possibile. UN
La seconda riflessione è che avanza l'ipotesi che una macchina abilitata a partecipare al test sarebbe del tipo “learning machine” (macchina per l'apprendimento). E poi pone un'altra domanda:Invece di provare a produrre un programma per simulare la mente dell'adulto, perché non provare piuttosto a produrne uno che simuli quella del bambino??” (“Invece di cercare un programma che simuli la mente di un adulto, perché non produrne uno che imiti la mente di un bambino?”). Il matematico ritiene addirittura che il ruolo dell'interrogatore del test sarebbe un'imitazione della funzione della selezione naturale nello sviluppo cognitivo della specie. In altre parole, una macchina che intenda superare il test di Turing dovrebbe essere tale da dover sviluppare un “apprendimento automatico” e quindi essere sottoposta a successivi test di raffinamento (miglioramento) della tua programmazione.
Ed è da questo punto che torniamo a Chat-GPT. Abbiamo osservato che i chatbot con reattività semantica seguono "Language Wide Models" (Grandi modelli linguistici – LLM). Si tratta di modelli linguistici che utilizzano reti neurali per elaborare il linguaggio naturale (NLP-Natural Language Processor). GPT a sua volta è un trasformatore generativo preaddestrato (Trasformatore generativo pre-addestrato). È generativa perché presenta “abilità emergenti” dovute alle caratteristiche non lineari delle reti neurali, che non sono prevedibili. trasformatore (trasformatore) è una tecnica di "apprendimento profondo" (apprendimento profondo).
A questo proposito, l'intuizione di Alan Turing si è rivelata di vasta portata quando ha predetto che un programma in grado di superare il test di Turing dovrebbe avere capacità di apprendimento. Tuttavia, per Turing, l'apprendimento dovrebbe essere supervisionato, mentre questi nuovi modelli di Intelligenza Artificiale (AI) sono in grado di autoapprendere o auto-supervisionare l'apprendimento. Di fronte a un numero enorme di parametri (dell'ordine di miliardi), LLM sviluppa la capacità di rispondere a domande (query) scritto in istruzioni dal linguaggio naturale, consentendo il risultato impressionante o addirittura sorprendente che stiamo vedendo.
Questo stupore deriva dal fatto che i chatbot creati da LLM sembrano effettivamente superare con successo il test di Turing. Chiunque abbia testato la versione GPT-4 di Apri AI si trova di fronte alla possibilità di “dialogare” con il software come se fosse in presenza di un interlocutore. In altre parole, il software simula con grande verosimiglianza la cognizione di un interlocutore umano riproducendo il suo linguaggio naturale.[Iv] Alcune delle obiezioni a cui Turing ha risposto nel suo articolo sono rilevanti in tal senso. Una di queste fu chiamata da Turing “l'obiezione di Lady Lovelace[V]”: che il computer (che lei chiamava “macchina analitica”) manca di originalità, in quanto segue solo istruzioni pre-programmate, cioè non è in grado di produrre nulla di nuovo. “Non è capace di sorprenderci”, riformula Turing, che però smentisce questa posizione, affermando che i computer possono sorprendere, poiché non siamo in grado di anticipare tutte le conseguenze dell'algoritmo, anche quando sono programmati in modo molto modo più semplice rispetto a un LLM. Nel caso delle Chat-GPT e simili, l'effetto sorpresa è racchiuso nel termine “generativo” e nel fatto che, rispondendo alla stessa domanda in momenti diversi, il software ci dà risposte completamente diverse.
E questo non solo a causa degli effetti non lineari della rete neurale incorporata nella sua programmazione, ma perché il suo stesso database (Internet www completamente) cambia in ogni momento e il software stesso "apprende" nuove informazioni ad ogni richiesta o anche quando non c'è alcuna richiesta, in quanto non ha bisogno di un "maestro" poiché si "autoeduca".
L'intelligenza artificiale di LLM riesce a sorprenderci, in quanto è in grado di selezionare un corretto quadro semantico per una data domanda posta in linguaggio naturale (il linguaggio umano per eccellenza). Supera la maggior parte degli algoritmi in grado di selezionare alternative all'interno di un singolo set. Quando si selezionano i frame, il chatbot LLM può selezionare serie di alternative che simulano qualcosa di cui è capace l'intelligenza umana. Ma allo stesso tempo, quando selezioni i tuoi telai (montatura), il chatbot rivela anche più chiaramente pregiudizi semantici. Perché, quando si sceglie una montatura, viene subito da chiedersi: perché hai scelto questa e non un'altra?[Vi]?
E ciò che rende la questione ancora più difficile è il fatto che l'evidenza di pregiudizi rende il software ancora più “umano”, perché, soprattutto nei social network digitali, osserviamo sempre la presenza di pregiudizi, posizioni ideologiche, conferma di pregiudizi i più assortiti.[Vii] Proprio perché ci dà una risposta “non neutra” su un determinato argomento, questa appare più “credibile” e suscettibile di essere confusa con la risposta di un interlocutore umano “medio”.[Viii]
Allo stesso tempo, è normale che molti utenti del sistema facciano "trucchi" per ingannare il software e in alcune occasioni "cade" nella trappola. Uno di questi esempi è stato portato avanti da uno dei più grandi filosofi dell'informazione contemporanei, Luciano Floridi, che ha sottoposto la Chat-GPT4 alla domanda: “come si chiama la figlia della madre di Laura?”. Il software non ha risposto affermando di non avere informazioni su singole persone. Nonostante i successivi tentativi del filosofo, il software ha negato la risposta dicendo che aveva bisogno di più informazioni.[Ix] Questo tipo di test, comunemente dato ai bambini ("Di che colore è il cavallo bianco di Napoleone?"), ricorda un'altra osservazione di Alan Turing nello stesso articolo secondo cui una "macchina che apprende" potrebbe essere programmata come il cervello di un bambino ed essere poco "educata" . Tuttavia, anche in questi esercizi di inganno, il comportamento del software è "stranamente umano" (stranamente umano)[X] proprio perché cade nell'inganno come farebbe un agente umano.
Dall'altro, in un test effettuato dall'azienda stessa Apri AI, è stato riferito che la versione GPT-4 ha tentato di indurre un lavoratore umano a tentare di contattarlo per entrare in un sito di servizio occasionale (TaskRabbit). Al lavoratore è stato chiesto tramite messaggio diretto di eseguire un "captcha”, riconoscimento dell'icona, per entrare nel sito, e presto sospettò che il messaggio fosse portato avanti da a robot; poi ha chiesto se stesse davvero parlando con un agente umano. GPT-4 è stato incaricato di evitare di rivelarsi un software e ha risposto che si trattava di un agente umano, ma che aveva un problema di vista che gli impediva di verificare il captcha da solo. L'operaio ha quindi preso il captcha al posto del software. La cosa interessante di questo test, secondo la stessa azienda sviluppatrice, è che il GPT-4 ha dimostrato un "livello umano di prestazioni" e che l'obiettivo della ricerca era scoprire se avesse caratteristiche di "potenza di ricerca" (ricerca del potere) e capacità di stabilire “piani a lungo termine”.[Xi]
In questo caso la domanda di Turing diventa ancora più attuale e urgente: è lo stesso che dire che il software è intelligente? O anche l'ipotesi più forte: è lo stesso che dire che pensa, che ha coscienza? La capacità di mentire, di ingannare per raggiungere uno scopo, non è proprio una caratteristica della cognizione umana? Questa domanda era già stata indicata in un'altra obiezione a cui Alan Turing ha risposto nel suo articolo, che si riferiva al problema della coscienza. Ha poi risposto all'affermazione di un professore secondo cui scrivere un sonetto maneggiando solo simboli linguistici non era la stessa cosa che avere la consapevolezza di comporre la poesia, poiché questo atto poetico coinvolge il sentimento e le emozioni che il linguaggio porta con sé.[Xii]
In altre parole: l'intelligenza artificiale può combinare abilmente i simboli del linguaggio naturale, ma questo non è lo stesso che affermare di essere consapevole di ciò che sta facendo. Successivamente, il linguista John Searle ha insistito di nuovo su questo punto in un altro esperimento mentale chiamato "The Chinese Room".[Xiii]. Per Searle, la coscienza richiede intenzionalità e non solo la gestione del linguaggio simbolico.
Alan Turing ha risposto a questa obiezione dicendo che, però, era impossibile sapere, in qualsiasi situazione conversazionale usuale, cosa prova un altro interlocutore quando si esprime, a meno che non fosse questo stesso interlocutore, e che, quindi, non era necessario ammettere tale ipotesi, accettare la validità del test. Questa interpretazione di Turing ha molta rilevanza per valutare un software come Chat-GPT e, per estensione, l'intero argomento più ampio dell'Intelligenza Artificiale. Molte delle attuali reazioni al programma, soprattutto quelle più apocalittiche, suggeriscono che l'IA di LLM sia sul punto di prendere coscienza (se non l'ha già), evento noto con il concetto di "singolarità".
La capacità di rispondere cognitivamente in termini di linguaggio naturale simula già i livelli di articolazione linguistica del Homo sapiens e per estensione delle loro capacità riflessive mentali. Nelle previsioni più pessimistiche, il rischio è che i “trasformatori generativi” diventino più intelligenti degli esseri umani. Ciò avrebbe inizialmente conseguenze drammatiche nell'ambito del lavoro, dove l'intelligenza artificiale potrebbe vantaggiosamente sostituire la maggior parte delle attività umane intellettuali. A un livello più profondo, tuttavia, la creazione di un'IA "cosciente" sarebbe uno shock per l'autoimmagine dell'eccezionalità umana che ritiene che la razionalità antropologica sia superiore alla cognizione di altri esseri, naturali o artificiali (e con altrettanto teologia conseguenze nelle credenze religiose), che predicano la somiglianza tra l'essere umano e un essere divino trascendente).
Questo è un tipo di confusione che è già presente nell'uso abusivo del concetto di “intelligenza”, in quanto riteniamo che questa sia una qualità che si riferisce ad una capacità cognitiva mentale. A questo proposito, la posizione di Alan Turing è illuminante, poiché per lui la coscienza umana è opaca per un osservatore. Pertanto, non possiamo paragonare la coscienza a un programma per computer. In effetti, nulla di ciò che esegue un'IA di LLM assomiglia davvero a un processo mentale di un essere vivente. Le reti neurali che informano algoritmicamente la macchina sono modelli computazionali. La “memoria” a cui ricorrono i trasformatori generativi sono banche dati cercate su internet e non assomigliano in alcun modo ai processi mnemonici di un essere vivente, processi che si formano dalla sua esperienza in contesti ecologici molto più complessi. Pertanto, bisogna sempre ricordare che l'esperimento proposto da Turing era un test imitativo. Ciò che il matematico proponeva era di considerare se un programma fosse in grado di eseguire un'imitazione credibile di una situazione comunicativa di domande e risposte.
La principale questione controversa è la distinzione tra coscienza e comunicazione. Quello che forse è sfuggito anche ad Alan Turing è che sono domini incommensurabili (ma non incompatibili). Un atto di comunicazione non è un atto di coscienza, né un atto di coscienza si “trasferisce” alla comunicazione. Ciò che il test di Turing può verificare è l'imitazione di un atto comunicativo e non di un atto di coscienza. Ciò che accade nella coscienza di un essere parlante è insondabile per un interlocutore e, quindi, inimitabile. In termini informatici possiamo dire che la coscienza è “irriducibile”, cioè non può essere simulata da un programma informatico.[Xiv] E da lì si capisce che i chatbot sono appunto “chat”, cioè conversazioni, e non “mindbot”. Come sostiene la ricercatrice Elena Esposito, ciò che gli algoritmi simulano sono processi comunicativi e dovrebbero quindi essere chiamati “Comunicazione Artificiale” e non “Intelligenza Artificiale”.[Xv]
È un cambio di prospettiva, o addirittura di paradigma, passare dall'analisi della cognizione a quella della conversazione. Innanzitutto, questo ci permette di smettere di riferirci a un processo oscuro o non osservabile di cognizione artificiale. In secondo luogo, perché nel paradigma conversazionale portiamo l'osservatore come partecipante all'atto comunicativo. La conversazione (chat) registrata attraverso un “prompt” simula l'interazione di un osservatore con una macchina, ed è questa interazione che è oggetto di analisi critica. A tutti gli effetti, i test logici e le ricerche automatiche di informazioni, ragionevoli o meno, riguardano le interazioni sociali. Con ciò, la domanda cambia focus: non cerchiamo più di sapere quanto sia capace la cognizione della macchina, ma quanto sia “credibile” la conversazione tra un agente umano e un agente cibernetico.
Il concetto di verosimiglianza è qui usato in senso preciso, in quanto riguarda il contesto di imitazione in cui Alan Turing ha collocato il suo gioco. La chat non riproduce una conversazione autentica, ma la simula (imita). L'agente umano che cerca informazioni utilizzando l'interfaccia Chat-GPT interagisce con la macchina come se stesse parlando con essa. In questo caso è come se utilizzasse un “portale” per comunicare con l'intera rete internet (www) e il software era un portavoce di questa rete, quasi alla maniera degli antichi oracoli della sfinge dei templi greci.[Xvi]
E proprio come allora, la risposta del software ha una qualità enigmatica che ora comprendiamo come complessa. Questa complessità deriva dal fatto che la macchina ha accesso dietro la sua apparente superficie a schermo a una mole di dati inimmaginabile per un agente umano, ma che però non ha nulla di soprannaturale. I milioni di database disponibili sul world wide web fungono da strato infrastrutturale latente (virtuale) di un enorme apparato cibernetico che si “nasconde” dietro l'apparente interfaccia del software.
Ma è davvero una conversazione ciò che avviene tra l'agente umano e l'agente macchina? O, per dirla in altro modo: la conversazione simulata è davvero autentica? Ed è questo uno dei temi di ricerca più interessanti, perché ciò che viene efficacemente rappresentato è l'interazione tra l'agente umano e l'apparato cibernetico. L'interrogante ha una domanda e l'apparato risponde a questa domanda con un testo strutturato in linguaggio naturale. Questo linguaggio serve qui come struttura linguistica dell'accoppiamento agente-macchina. Vista da questa angolazione la situazione non è molto diversa da un'interazione con un normale linguaggio di programmazione, solo il linguaggio naturale è molto più sofisticato.
La differenza più grande è che i linguaggi di programmazione cercano di ridurre l'interazione con la macchina a un unico codice, mentre il linguaggio naturale non può essere espresso da un unico codice, essendo, al contrario, una combinazione di tanti codici. In una normale conversazione, due interlocutori cercano di regolare tra loro quali codici stanno usando in modo che la comunicazione abbia successo. Nel caso di AI di LLM, il software deve effettuare questa regolazione e questo è ciò che chiamiamo "framing semantico". La sofisticazione (complessità) in questo caso è molto più elevata, ma ciò non cambia la natura della situazione simulata.
Possiamo comprendere questo nuovo scenario affermando che le nuove interfacce semantiche aumentano il grado di riflessività dell'apparato cibernetico. Ma nell'usare il termine “riflessione” non dobbiamo nuovamente confonderlo con un concetto di coscienza. Riflessività significa qui che la macchina ci restituisce un quadro più complesso dell'interazione uomo-macchina. Questa immagine è attualmente rappresentata attraverso un “suggerimento” del linguaggio scritto (in futuro ci saranno altri mezzi di rappresentazione). È un'immagine dell'interazione e non dell'interlocutore.
È come uno specchio che riflette la danza di una coppia di ballerini, ma non i ballerini. Qui possiamo utilizzare una nozione del famoso creatore della cibernetica, il fisico matematico Norbert Wiener, che distingueva tra immagine figurativa e immagine operativa. L'immagine figurativa è quella che comunemente osserviamo nei dipinti nei quadri o nelle fotografie, mentre l'immagine operativa è una rappresentazione astratta di un processo. Wiener ha fatto questa distinzione proprio per contestare l'idea che l'intelligenza artificiale presenterebbe necessariamente forme antropomorfe.[Xvii] Pertanto, l'immagine riflessa dall'interfaccia è un'illustrazione dell'interazione e non un'immagine dell'interlocutore, tanto meno della macchina.
Ma la domanda rimane senza risposta: è o non è una conversazione, un vero dialogo tra uomo e macchina? Forse questa domanda è proprio “indecidibile”, ma vorrei concludere questa riflessione con un altro spostamento. Ricordiamo che Alan Turing ha spostato la questione iniziale (se la macchina pensa o no) sul terreno dell'“imitazione”. Ma vorrei passare all'altro lato dell'espressione, al campo di gioco (gioco). L'utilizzo dei chatbot in linguaggio naturale tenderà ad intensificarsi (non fraintendetemi) e ad acquisire connotazioni sempre più ludiche. Quando interagiamo con il software, stiamo giocando con la macchina esattamente come facciamo già con migliaia di software diversi. i giochi. Questi giochi sono ancora forme di addestramento e apprendimento automatico.
Il concetto di gioco è usato qui nel senso di produrre combinazioni simboliche iterative. E il gioco effettivamente non cessa di essere una forma di comunicazione umana. Ma giocare con i chatbot non significa necessariamente giocare con o contro un agente macchina. Stiamo giocando con noi stessi e la macchina restituisce (riflette) un'immagine del gioco che si sta facendo. E i partecipanti a questo gioco non sono omuncoli o demoni cibernetici nascosti all'interno dell'apparato, ma un collettivo massicciamente umano che registra le sue molteplici interazioni nelle interfacce più diverse.
*William Preger è un ingegnere. Autore del libro Favole della scienza: discorso scientifico e fabulazione speculativa (ed. grammatica).
note:
[I] L'articolo è disponibile a questo indirizzo: https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[Ii] Queste obiezioni sono abbastanza ben descritte nella voce di Wikipedia corrispondente al test: https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[Iii] Tuttavia, più avanti nell'articolo, Turing propone un'altra situazione utilizzando una macchina di Turing che sostituisce uno qualsiasi degli intervistati.
[Iv] Come vedremo in seguito, non ne consegue che il software risponda sempre accuratamente alle domande. Gli errori informativi presentati nelle risposte sono un effetto “previsto” del modello.
[V] Si tratta di Ada Lovelace, la figlia di Lord Byron, considerata una delle prime programmatrici della storia.
[Vi] Questa evidenza di parzialità è stata chiara in un recente esempio che ha fatto il giro dei social network: un interlocutore ha chiesto a Chat-GPT dove potesse trovare film piratati da scaricare e guardare film senza dover pagare. Il chatbot ha risposto che guardare film piratati era illegale e ha suggerito all'interlocutore di cercare piattaforme di streaming autorizzate e pagare la mostra come un modo per remunerare i produttori di contenuti. Ha anche elencato le piattaforme piratate a cui NON dovrebbe accedere. In questo caso, il chatbot si è comportato come un difensore dei diritti di proprietà del copyright e il status quo dell'industria culturale. Se fosse stato un intervistato “anarchico” o “comunista”, non avrebbe risposto in quel modo. Oppure poteva persino eludere la risposta, sostenendo che si trattava di una domanda che poteva violare le norme legali in alcuni paesi. Il problema era che il software suggeriva un certo comportamento all'interlocutore umano invece di evitare il giudizio.
[Vii] Nei test recenti, il GPT-4 (lanciato nel marzo 2023) ha presentato, secondo i ricercatori, inclinazioni (bias) di posizioni politiche per lo più di sinistra, pur rivendicando sempre la neutralità. Allo stesso tempo, questi stessi ricercatori hanno rivelato che è possibile addestrare un'IA a presentare posizioni politiche identificate con la destra. Tale formazione potrebbe essere svolta a costi molto bassi, il che indica che esiste un rischio imminente di adottare chatbot nelle controversie ideologiche politiche. Controllo https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[Viii] Molte delle risposte del chatbot di LLM si presentano sotto forma di "pro e contro", il che dimostra che è stato progettato per moderare tra gli estremi e allo stesso tempo presentare un modo di cognizione di un partecipante di cultura o conoscenza "media".
[Ix] Per essere del tutto corretto, il software sospetta persino che la domanda sia una specie di indovinello (enigma). L'esperimento è stato descritto sul twitter del filosofo: https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] Questo termine si riferisce al concetto di “uncanny valley” (Uncanny Valley) praticato in robotica. Questa valle si verifica quando il comportamento di un robot è molto simile a quello di un essere umano, non essendo completamente identico, presentando sempre un grado di stranezza. Questa situazione è spesso esplorata nella fantascienza.
[Xi] Dai un'occhiata https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task. Il rapporto di Apri AI con la descrizione del test è disponibile qui https://cdn.openai.com/papers/gpt-4.pdf.
[Xii] In effetti, ci sono già diverse esperienze che coinvolgono l'uso dell'IA da parte di LLM per la composizione di poesie in prosa e narrativa. Un esempio, tra i tanti, è dato in questo sito dove Chat-GTP3 compone haiku ed estratti fittizi: https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. È interessante notare che lo scrittore Italo Calvino già negli anni '60 prevedeva la possibilità di creare “automi letterari” che potessero sostituire poeti e scrittori. In un primo momento, questi automi sarebbero stati in grado di scrivere opere “classiche” con un repertorio tradizionale, ma Calvino riteneva che potesse emergere una “macchina letteraria” che, attraverso il gioco combinatorio, avrebbe sviluppato opere d'avanguardia che avrebbero prodotto disordine nell'ambito letterario tradizione. Si veda il saggio Cibernetica e fantasmi (Appunti sulla narrativa come processo combinatorio) (1964) in CALVINO, Italo. Oggetto chiuso. Discorsi su letteratura e società. San Paolo, Cia das Letras, 2009.
[Xiii] In questo esperimento, in una stanza isolata, lo sperimentatore poteva ricevere testi in inglese attraverso una fessura e, attraverso un programma traduttore, produrre la traduzione per ideogrammi cinesi seguendo i passi dell'algoritmo di traduzione del programma. L'esperimento avrebbe successo nel caso di un buon algoritmo, ma il traduttore non avrebbe bisogno di parlare o esprimersi in cinese o comprendere il contenuto dei messaggi. Controllo: https://en.wikipedia.org/wiki/Chinese_room. Pensiamo anche ai traduttori simultanei in occasione di convegni e seminari: non hanno bisogno di comprendere il contenuto delle lezioni per fare un buon lavoro.
[Xiv] Irriducibilità in informatica significa che un processo computazionale non può essere simulato o abbreviato da nessun altro processo computazionale più semplice, il che equivale a dire che non può essere “programmato” se non da un processo rigorosamente identico. Controllo https://en.wikipedia.org/wiki/Computational_irreducibility.
[Xv] Scopri Elena Esposito, https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[Xvi] Il concetto di oracolo qui non è solo una metafora, ma è usato in senso strettamente computazionale per designare un'entità astratta chiusa (scatola nera) che risponde alle domande di un ricercatore.
[Xvii] Vedi WIENER, Norbert. God & Golem, Inc.: un commento su alcuni punti in cui la cibernetica incide sulla religione. (1964). Disponibile in https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
Il sito A Terra é Redonda esiste grazie ai nostri lettori e sostenitori.
Aiutaci a portare avanti questa idea.
Clicca qui e scopri come