da ELEONORA ALBANO*
La diffusione indiscriminata dei chatbot potrebbe minare le tradizioni educative che si basano sul pensiero critico
Gli attacchi del capitalismo al pensiero critico hanno ripercussioni dirette sul futuro dell'università. Si sono verificati, almeno, a partire dalla finanziarizzazione del tripode insegnamento-ricerca-estensione, che le Big Tech hanno recentemente usurpato, affermandosi come “mecenati”.
Questo articolo si concentra sulla forma di patrocinio che rende disponibili su Internet i cosiddetti robot conversazionali o "chatbot".
La tecnoscienza attribuisce intelligenza a questi robot, sostenendo che sono in grado di preparare corsi a qualsiasi livello e di accelerare la ricerca, automatizzando le revisioni bibliografiche e riducendo i tempi di raccolta ed elaborazione dei dati.
In questo modo si dimostra che la rilevanza di queste accuse dipende interamente dalla formazione critica degli utenti del chatbot.
È essenziale sapere che queste persone stanno semplicemente rielaborando "ragionamenti" ad alta frequenza su Internet. È anche necessario comprendere che ciò avviene attraverso una simulazione semplicistica della macchina di Turing – che predice il simbolo successivo in una sequenza continua ed esaustivamente interconnessa – che di fatto non crea nulla.
Pertanto, la sua divulgazione acritica e indiscriminata potrebbe minare le tradizioni educative, la cui efficacia si basa su secoli di esercizio del pensiero critico.
Questo articolo discute gli strumenti offerti da Big Tech a studenti ed educatori, concentrandosi sull’attribuzione di intelligenza ai più popolari tra loro, vale a dire i Large Language Models (di seguito, GML, come negli LLM in inglese – modelli linguistici di grandi dimensioni, il cui esempio più noto è ChatGPT). A tal fine, riprende e amplia le argomentazioni contro tali accuse. pubblicato sul sito web la terra è rotonda a dicembre 2023.
I passaggi da compiere sono sei.
In primo luogo, alla luce delle analisi delle scienze sociali, analizzerò le incessanti trasformazioni del capitalismo a partire dalla finanziarizzazione. Alcuni autori contemporanei, come ad esempio Tsoukalis,[I] sostengono che il termine neoliberismo sta perdendo il suo significato, data la moltiplicazione degli attuali modi di ottenere profitto.
Il mio focus sarà però comportamentale, cercherò cioè di comprendere il disagio, l'angoscia e l'insicurezza provocati da questo incessante cambiamento del sistema produttivo.
Passerò poi ad esaminare le conseguenze dannose di questa situazione per l'esercizio della critica, evidenziando alcune minacce che già incombono su di essa.
Continuo a dimostrare come l'appropriazione indiscriminata dei contenuti di Internet da parte delle Big Tech abbia aperto la strada a loro per affermarsi come mecenati dell'istruzione, promettendo di dotare insegnanti, studenti e ricercatori di una serie di strumenti.
Successivamente analizzerò la più importante di queste, vale a dire la tecnologia linguistica degli assistenti personali (come Alexa di Amazon o Copilot di Microsoft). In primo luogo, mostro che simulare il tono cortese e discreto di una normale segretaria incita ogni sorta di fantasia sulle capacità cognitive – e persino socio-affettive – delle macchine per scrivere/leggere (o dei parlanti/ascoltatori).[Ii]). Ora mostrerò come tali fantasie influenzano e destabilizzano la vita quotidiana delle persone e delle istituzioni coinvolte.
La prima fantasia è quella della sensibilità della macchina, cioè la convinzione della sua capacità di provare sensazioni ed emozioni, nonché di diventarne consapevole.
Un'altra fantasia resuscita l'antico mito degli oracoli di pietra, considerati nell'antichità animati, senzienti e intelligenti. Nella sua versione attuale, si sostiene che l'emulazione del ragionamento umano da parte della macchina raggiunga un'omologia perfetta. Dimostrerò la falsità di questa presunzione spiegando passo dopo passo l'architettura comportamentista, basata sul condizionamento operante, dei GML alla base dei chatbot.
Quanto segue è una dimostrazione che i “nuovi” significati creati dai robot linguistici non sono in realtà nuovi, poiché si basano esclusivamente su analogie riscontrabili, attraverso sofisticate funzioni statistiche, nel gigantesco corpus costituito da Internet.
La critica, poiché richiede l'esercizio costante del dubbio, non rientra in questo limite. Il fatto che la velocità e l'efficienza dei motori di ricerca consentano alla macchina di fornire risposte accettabili, molto buone o addirittura eccellenti, non le consente però di porre buone domande. Pertanto, le domande restano di esclusiva responsabilità dell'utente.
Infine, sottolineo alcune insidie di questi strumenti che possono disorientare gli utenti che desiderano utilizzarli per velocizzare e meccanizzare compiti accademici come la preparazione delle lezioni, la revisione dei testi e l'organizzazione dei dati di ricerca.
Concludo, quindi, che si tratta di risorse molto utili, ma solo per coloro che sanno sottoporle a un rigoroso esame critico.
Le vertiginose trasformazioni del capitalismo
A partire dalla finanziarizzazione, il capitalismo ha creato nuovi modi per ottenere profitto che vanno ben oltre lo sfruttamento dei lavoratori. Con l'avvento e la diffusione di Internet, i consumatori hanno iniziato a lavorare gratuitamente per i proprietari delle piattaforme, poiché, quando le utilizzano, creano automaticamente un profilo delle loro relazioni sociali e delle loro abitudini di consumo, da vendere, senza il loro consenso, agli inserzionisti pubblicitari interessati. Come ha sottolineato Shoshana Zuboff,[Iii] Questo monitoraggio continuo viola la privacy degli utenti ed è, di fatto, al servizio di un potente sistema di sorveglianza.
Oggigiorno, questo scambio di dati non si limita ai clic degli utenti di Internet. Ci sono aziende che, non avendo le risorse per creare e gestire spazi su Internet, archiviano i loro database nei cloud controllati dalle Big Tech. Questo cambiamento radicale, che ha distrutto i mercati trasferendoli nel cosiddetto “cloud computing”, è giustamente definito “tecnofeudalesimo” da Yanis Varoufakis.[Iv]
Il tecnofeudalesimo sfrutta consumatori e capitalisti sfruttando un esercito di lavoratori precari e esternalizzati che classificano ed etichettano i dati in una struttura gerarchica resa possibile solo da macchine gigantesche.
Si tratta di una forza lavoro altamente qualificata e specializzata. Alcuni sono scienziati esatti che collaborano alla produzione della struttura algoritmica della rete. Altri sono scienziati naturalisti e umanisti che esaminano attentamente i contenuti pubblicati e producono una griglia di classificazione complessa e gerarchica per orientare non solo i motori di ricerca, ma anche i grandi modelli linguistici, le cui applicazioni, in continua espansione, seducono e controllano sempre di più gli utenti.
La pensatrice femminista Nancy Fraser[V] ha coniato il termine "capitalismo cannibale" per designare questa forma di fornitura di servizi, che ha coinvolto un numero sempre crescente di individui e istituzioni. Congruentemente, il giornalista e analista politico Raul Zibechi[Vi] ha proposto il termine "capitalismo mafioso" per il caso in cui questa gola vorace abbia legami con la corruzione, il narcotraffico e la criminalità organizzata in generale.
Riflettiamo ora sugli effetti dell'abuso di questo potere anonimo sulle nostre menti e sui nostri corpi. Corpi stanchi dell’uso incessante di schermi, tastiere e mouse rivolgono la loro mente a connessioni virtuali completamente prive di quegli stimoli vocali, gestuali e tattili che danno coesione e coerenza alla convivenza fisica. Spinti da questa routine, finiscono per naturalizzare l'inevitabile privazione del contatto socio-affettivo.
Tra coloro che vivono di queste attività, permane la disillusione per la precarietà del mercato del lavoro e la preoccupazione per il numero di ore necessarie per guadagnare un reddito di base. Il risultato è il moltiplicarsi dei casi di stress cronico – per i quali la psichiatria, senza riconoscere la complessità del fenomeno, propone il termine “burnout”, trattandoli farmacologicamente.
In questo scenario, la cosiddetta “società della conoscenza” sarebbe meglio dire il contrario, cioè “società dell’ignoranza”. Invece di promuovere l'illuminismo promesso con le sue pretese illuministiche, spesso inonda il pubblico di conoscenze specialistiche che produce, diffonde e dissipa a seconda della moda. L'esplosione del vocabolario che ne deriva contribuisce ad aumentare ulteriormente la confusione.
Altre minacce alla salute mentale della popolazione risiedono nell'incessante propaganda fuorviante sui vantaggi della ricchezza, del lusso e dell'ostentazione. Ultimamente, anche persone con redditi molto bassi hanno rischiato il poco che avevano nella mania delle scommesse online. L'immersione nei meccanismi dirompenti e ripetitivi dei social network li priva del ragionamento più elementare e della più semplice empatia verso gli altri. A poco a poco, la brutalità prende il sopravvento sulle menti e sui cuori con una forza inarrestabile.
Il declino della critica
L'immagine sopra non è certamente la causa, ma la conseguenza del progressivo intorpidimento della critica. La causa è più remota: risiede in decenni di attacchi, aperti o nascosti, da parte di versioni successive del capitalismo alle istituzioni che custodiscono il pensiero critico.
In circa cinque decenni, la finanziarizzazione imposta dal neoliberismo ha indebolito l'istruzione pubblica in tutto il mondo.[Vii] Le scuole di tutti i livelli hanno dovuto cercare partnership e/o sponsorizzazioni per evitare di imporre tasse universitarie, o almeno per mantenere vivi i propri valori. Quelli che riuscirono a preservare l'offerta formativa gratuita moltiplicarono il numero di corsi di approfondimento e specializzazione a pagamento e ampliarono la gamma di attività extracurriculari ugualmente retribuite.
I governi sono complici del fatto che gli insegnanti sono pagati molto male, costringendoli ad accettare più di un lavoro per sopravvivere. Ciò compromette non solo la tua forma fisica, ma anche la tua dedizione all'allenamento continuo.
D'altro canto, le scuole private vendono alle famiglie belle promesse, sia di professionalizzazione e inserimento nel mondo del lavoro, sia di formazione enciclopedica e/o multidisciplinare che prepara a un mondo in continuo cambiamento. In generale, l'obiettivo dell'apprendimento non è riflettere sulla realtà, ma agire su di essa.
Ultimo baluardo del pensiero critico, l'università pubblica attenua la sua carenza di finanziamenti aprendo la strada alla privatizzazione. Studi post-laurea e specializzazione si fondono sempre più e la ricerca di base cede il passo alla ricerca applicata su misura.
Naturalizzare questa situazione significa negare che la libertà di pensiero debba essere indipendente da qualsiasi sponsorizzazione privata. In una democrazia è necessario preservare l'autonomia dei ricercatori. Pertanto, il lavoro sulle questioni sollevate dall'evoluzione di ciascun campo della conoscenza deve essere finanziato da fonti pubbliche.
La privatizzazione marginale ha reso le scuole, anche quelle pubbliche, vulnerabili ai criteri di efficienza del mondo degli affari. Ciò li porta spesso ad assumere società di gestione patrimoniale per controllare i loro beni fisici e simbolici al fine di “ottimizzare” il loro utilizzo, le loro prestazioni e il loro valore. Tra i beni gestiti ci sono i dati di tutti gli attori coinvolti. E così l'istruzione sprofonda, inconsapevole, in una delle pratiche più aggressive del capitalismo attuale. Il presupposto è che qualsiasi bene fisico o informativo sia vendibile e possa quindi essere utilizzato per generare profitto.
L'antico mito del robot intelligente
Molto prima degli automi che intrattenevano la famiglia reale e l'aristocrazia europea durante l'Illuminismo, esistevano già leggende su macchine intelligenti, capaci di obbedire ai loro padroni. Nel odisseaOmero racconta che il dio della metallurgia e dell'artigianato, Efesto, e i suoi attendenti dorati utilizzavano i mantici per svolgere compiti meccanici ripetitivi. Menziona anche che i Fenici avevano navi che obbedivano agli ordini dei loro capitani e si muovevano alla velocità del pensiero per evitare i pericoli della navigazione.
Persone, animali ed esseri mitologici artificiali rimasero popolari durante l'antichità, il Medioevo e l'età moderna. Tali creature fatte di vetro, argilla o metallo erano generalmente considerate schiave o servi, dedite a soddisfare i bisogni più diversi, compreso quello sessuale.
Non si trattava di mera immaginazione: gli Elleni possedevano una tecnologia meccanica avanzata, che consentiva la costruzione di automi azionati da molle, corde e/o leve. Quest'arte si è conservata in parte nell'Europa medievale e si è diffusa in tutto il mondo, raggiungendo prima l'Islam e poi spostandosi verso Oriente.
Anche le culture orientali concepivano degli automi guardiani, incaricati di palazzi o reliquiari, come quello del Buddha.
Tali meccanismi erano potenti strumenti di controllo sociale. Il loro obiettivo era suscitare fascino e paura allo stesso tempo. Allo stesso tempo, le bambole cortigiane, fornendo supporto fisico alle fantasie masturbatorie, alimentavano la credenza in una presunta “anima” delle macchine.
Tali fantasie furono rese popolari anche dalla letteratura. Ad esempio, in i viaggi di Gulliver, Jonathan Swift descrive l'Engine, una macchina che costituiva "un progetto di miglioramento della conoscenza speculativa attraverso operazioni pratiche e meccaniche". Affittandolo a prezzi modici, “qualsiasi persona ignorante, con un minimo di istruzione e senza un mentore”, non poteva far altro che mobilitare il suo braccio “per scrivere libri di filosofia, poesia, politica, diritto, matematica e teologia”.
L'effetto Eliza banalizzato
La scoperta che gli esseri umani trasferiscono facilmente l'affetto alle macchine è stata fatta da Joseph Weizenbaum[Viii], un ebreo tedesco la cui famiglia emigrò in America all'inizio dell'ascesa del nazismo. Il trauma della persecuzione e le difficoltà di adattamento al nuovo ambiente non inibirono il suo eccezionale talento per la matematica e l'informatica. Nonostante la mancanza di sostegno da parte della famiglia, ebbe una brillante carriera accademica, che lo portò a ricoprire una cattedra al MIT.
È noto come uno dei padri dell'intelligenza artificiale, sebbene lui rifiutasse questo soprannome, poiché riteneva che le macchine fossero in grado solo di calcolare e non di ragionare.
Dopo averlo aiutato a superare i traumi del passato, la psicoanalisi ebbe un'influenza decisiva sulla sua carriera. Allo stesso tempo, la sua adesione al socialismo lo portò a esplorare la possibilità di democratizzare la psicoterapia attraverso mezzi digitali. A tal fine, studiò le correnti disponibili e avviò un audace esperimento con la più facile da emulare computazionalmente, vale a dire: la corrente rogeriana, chiamata così in onore del suo inventore, lo psicologo americano Carl Rogers.
Si tratta di una psicoterapia non direttiva, che Carl Rogers definì "centrata sulla persona". Consiste essenzialmente nell'inserire l'affermazione del paziente in frasi come "mi hai detto che...", seguite da altri vaghi ma incoraggianti luoghi comuni, come: "E come possiamo affrontare questa situazione?" Si tratta, in sostanza, di una scommessa sul potere terapeutico del lasciar uscire le cose.
Nonostante fosse stato concepito da Joseph Weizenbaum come strumento di ricerca sulla fattibilità di un robot conversazionale, Eliza riscosse ben presto un sorprendente successo di pubblico, che finì per condizionare la progettazione dello studio. Il motivo è che i partecipanti hanno affermato che le loro conversazioni con la macchina erano private e si sono rifiutati di condividerne il contenuto con il ricercatore.
Ovviamente Joseph Weizenbaum era convinto che Eliza non potesse essere né vivace né intelligente. Capì quindi che l'attaccamento dei partecipanti al terapeuta digitale era una forma di transfert, in senso psicoanalitico.
Si scopre che negli anni '1960 e '70 la lobby di coloro che erano interessati all'informatizzazione e all'automazione della società era già forte negli Stati Uniti e stimolava il coinvolgimento emotivo degli utenti con le macchine. Joseph Weizenbaum si oppose a questa campagna scrivendo libri e articoli in cui esaminava la differenza tra ragionamento umano e calcolo simbolico.
Ma ben presto raccolse i frutti amari di un violento rifiuto, guidato dai suoi stessi colleghi del MIT, in particolare da John McCarthy, oggi ricordato come il padre dell'Intelligenza Artificiale. Il termine, infatti, fu coniato da lui stesso come espediente di marketing per attrarre finanziamenti dal Dipartimento della Difesa degli Stati Uniti per un simposio da lui organizzato nel Dartmouth College nel 1956. Ovviamente, i militari erano incantati dalla tacita promessa della sorveglianza digitale.
Il disagio era così grande che Joseph Weizenbaum preferì tornare in Germania e continuare a lavorare con i suoi interlocutori, tutti giovani, critici ed entusiasti.
Tuttavia, a quel tempo, la potenza economica americana si stava rivolgendo sempre più a Internet come luogo per controllare e manipolare i comportamenti. Pertanto, sfruttò tutti gli spazi disponibili per diffondere l'idea che i computer fossero capaci di pensare. Decisivi per il successo di questa propaganda furono le sconfitte che i robot giocatori successivi inflissero ai rinomati campioni mondiali di scacchi.
L'avvento dei GML è stata quindi la goccia che ha fatto traboccare il vaso perché l'effetto Eliza invadesse Internet, incoraggiando gli utenti ad affezionarsi ai loro computer personali. Le sue prestazioni conversazionali sono così buone che inducono anche il profano a identificare il suo output con il linguaggio naturale. Per la maggior parte delle persone è difficile credere che si tratti semplicemente di un calcolo logico-simbolico che non ha nulla a che fare con la struttura e la funzione del linguaggio umano.
Vediamo di seguito come funziona questo inganno.
La meccanica comportamentista dei grandi modelli linguistici
L'enorme capacità di concatenazione delle parole dimostrata dai Large Language Models ha tre componenti: (i) l'appropriazione dell'intero contenuto di Internet da parte delle Big Tech; (ii) l’avvento di un tipo di rete neurale ricorrente in grado di calcolare associazioni multiple tra parole in tempo reale – la cosiddetta trasformatori, cioè trasformatori; e (iii) l’incessante sforzo organizzativo di legioni di lavoratori precari ma altamente qualificati provenienti da vari settori della conoscenza.
Si noti che le lingue umane naturali contengono importanti discontinuità sintattiche, ad esempio nelle frasi relative. Una frase come "La rana che mangiò l'insetto morì" riguarda la morte della rana, non dell'insetto. Ciò si verifica anche nella morfologia, in verbi come "enraizar", che si formano aggiungendo un prefisso e un suffisso alla radice.
Il funzionamento dei Large Language Models è tuttavia puramente lineare, ovvero consiste sempre nella previsione della parola successiva. Come si affrontano allora queste discontinuità? La risposta è semplice: attraverso un calcolo sofisticato delle probabilità. Il trasformatore ottiene in tempo reale le probabilità di co-occorrenza tra coppie di parole dall'intero database Internet, sceglie la soluzione migliore e procede.
Vale quindi la pena chiedersi come operazioni così semplici possano comporre sequenze che abbiano senso per il lettore.
Solo che la semplicità è solo apparente. Le probabilità di co-occorrenza non vengono calcolate solo per il vocabolario. Il corpus è annotato a diversi livelli di analisi, che includono informazioni sintattiche, semantiche e persino pragmatiche. Una funzione di ottimizzazione seleziona l'insieme di coppie con la maggiore probabilità di integrare in modo coerente tutti questi aspetti.
Gli annotatori linguistici etichettano le proprietà strutturali del testo: regole di congiunzione e disgiunzione – cioè la sintassi –; significati di base e associativi – cioè semantica –; e riferimento al testo stesso e/o al contesto, come nel caso dei pronomi personali e degli avverbi di luogo e di tempo – in altre parole, pragmatica.
Gli annotatori di altre discipline umanistiche e scienze sociali aggiungono più livelli di contenuto e tag stilistici. Allo stesso modo, gli annotatori nelle scienze naturali ed esatte aggiungono contenuti taggati dai loro campi di competenza. Alla fine, gli informatici esperti di trasformatori introducono nel feedforward della rete la gerarchia risultante dei livelli di analisi.
È essenziale notare che il funzionamento dei trasformatori è paragonabile alla forma più radicale del comportamentismo: il condizionamento operante.[Ix]. Le combinazioni con la più alta probabilità di successo vengono rinforzate e diventano più probabili ogni volta che vengono selezionate, il che rafforza le altre connessioni coinvolte e influenza la selezione della coppia successiva. Questa procedura genera nuovi esempi di coppie della stessa classe, contribuendo ad aumentare la loro frequenza nella rete.
Non c'è dubbio che questo sia un metodo eccellente per la simulazione computazionale del linguaggio naturale. Tuttavia, confondere l'output del trasformatore con affermazioni naturali equivale ad attribuire agli esseri umani una mente che funziona attraverso una successione di associazioni continuamente quantificate e ricalcolate.
Tra l'altro, negli anni '1930 e '40, Burrhus F. Skinner, il padre del condizionamento operante, rispose alle accuse di fascismo dei suoi colleghi affermando che il suo metodo di controllo del comportamento aveva l'unico obiettivo di formare cittadini migliori. La discussione è arrivata al New York Times, dove, infatti, è disponibile online la versione di un reportage del 1972 del giornalista Robert Reinhold[X] di un simposio tenutosi a Yale, in cui le idee skinneriane furono condannate dalla maggior parte della comunità accademica di psicologia.
Skinner fallì nei suoi progetti educativi, ma fu salvato dalle Big Tech per avvicinare gli esseri umani alle macchine. Purtroppo, oggi, l'uso indiscriminato dell'algoritmo che implementa il condizionamento operante sta già influenzando il comportamento degli utenti. Le persone imitano sempre più i chatbot, abusando dei cliché. Allo stesso modo, accettano acriticamente i cliché che ricevono in risposta alle domande che vengono loro poste.
In breve, i trasformatori non producono nuova conoscenza, poiché non possono fare altro che emulare, con un pastiche, la forma superficiale del ragionamento semplice. Pertanto, funzionano come motori di ricerca solo quando l'obiettivo è quello di raccogliere informazioni da fonti Internet affidabili su un determinato argomento. Come sapete, alcuni rari siti sono moderati e/o curati da esperti.
D'altro canto, oggigiorno le Big Tech sono interessate solo ad assumere chi prende appunti, non moderatori. Tutto ciò che esce da un trasformatore viene reimmesso nel corpo di ingresso. Di recente, i pochi esseri umani che filtravano e scartavano le risposte inaccurate o false dei chatbot sono stati licenziati da X e Meta. Microsoft mantiene ancora alcuni filtri, ma non rivela i dettagli del loro funzionamento. Man mano che la moderazione diventa sempre più debole e opaca, gli errori fattuali si accumulano e il web viene inondato di inesattezze, bugie e contraddizioni.
Inoltre, le domande e i commenti degli utenti, per quanto ingenui, settari o offensivi possano sembrare, vengono automaticamente incorporati nel database, rendendolo una fonte inesauribile di pregiudizi potenzialmente pericolosi. Il vero cede il passo al falso o coesiste con esso, data la mancanza di indizi che li distinguano.
In questo modo, il tono amichevole e didattico dei chatbot seduce e coinvolge l'utente, e gradualmente indebolisce la sua capacità di riconoscere i fattori coinvolti nella domanda stessa e di valutare o dubitare della risposta. È facile abituarsi a un meccanismo che fornisce risposte immediate e apparentemente dirette, perché sono facili da ripetere.
Questa facilità, tuttavia, ha un lato sconsiderato. Joseph Weizembaum sarebbe sicuramente stato depresso se fosse stato tra noi nel 2023, quando un padre di famiglia belga protestò contro il collasso ambientale suicidandosi con il supporto di una versione di Eliza implementata da Eleuther AI basata su Chat GPT. Secondo la moglie, lui aveva utilizzato il chatbot per curare la depressione.
Un equilibrio pericoloso: il trasferimento della responsabilità agli utenti
Torniamo ora alla questione della qualità della vita degli insegnanti oberati di lavoro, che in realtà sono la maggioranza, anche nell'istruzione superiore.
All'università, i chatbot stanno invadendo l'amministrazione, con conseguenti tagli ai servizi pubblici in presenza. Sono in corso anche esperimenti per personalizzare i robot per uso accademico. Anche in questo caso, dove i contenuti sono soggetti a filtri, la moderazione non è soddisfacente, a causa dell'architettura feedforward dei trasformatori.
Pertanto, i servizi di ricerca, compilazione e organizzazione di testi messi a disposizione dalle Big Tech ai lavoratori dell'istruzione di base e superiore non fanno altro che aumentare la loro confusione e il loro disagio.
Gli opuscoli compilati con queste risorse tendono a contaminare la didattica con ovvietà e disinformazione, poiché non incoraggiano la riflessione, ma solo la riproduzione acritica. Il plagio, già così diffuso su Internet, assume ora una nuova forma: il pastiche cieco, indiscriminato, privo di criteri di selezione.
In un'epoca in cui i libri stampati sono sull'orlo della scomparsa, i chatbot minacciano di porre fine a una tradizione educativa le cui radici risalgono all'antichità.
Quale futuro avranno le antiche fondamenta del pensiero critico? Lo sapremo solo identificando e analizzando attentamente gli effetti – soprattutto quelli meno trasparenti – delle tecnologie linguistiche su tutti i settori della società che hanno un impatto sull’istruzione formale e informale. Per chi studia questo oscuro orizzonte, restano ancora una miriade di interrogativi da chiarire.
*Eleonora Albano, professore in pensione dell'Istituto di Studi Linguistici dell'Unicamp, è psicologo, linguista, saggista; ha coordinato il primo progetto brasiliano sulla tecnologia vocale.
note:
[Ii] Come ho mostrato nel primo articolo citato, è possibile dare voci personalizzate agli assistenti
[Iii] Shoshana Zuboff. Altro grande tema: il capitalismo della sorveglianza e le prospettive di una civiltà dell'informazione. Giornale di tecnologia dell'informazione, 30, 75-89, 2015.
[Iv] Yanis Varoufakis. Tecnofeudalesimo: cosa rende il capitalismo così speciale? Londra: Vintage Books, 2023.
[V] Nancy Fraser.Capitalismo cannibale. San Paolo: Autonomia letteraria, 2024.
[Vii] Ho analizzato questa situazione in articolo pubblicato nel sito web la terra è rotonda.
[Viii] Joseph Weizembaum. Potenza del computer e ragione umana: dal giudizio al calcolo. New York: WF Freeman & Co, 1976.
[Ix] Skinner, BF (1938). Il comportamento degli organismi: un'analisi sperimentale. New York: Appleton-Century-Crofts.
la terra è rotonda c'è grazie ai nostri lettori e sostenitori.
Aiutaci a portare avanti questa idea.
CONTRIBUIRE