da LEANDRO OLIVEIRA DA SILVA*
La società deve essere consapevole delle criticità legate alla privacy, ai pregiudizi, alla discriminazione e alle disuguaglianze che l’intelligenza artificiale può esacerbare
“Lo spirito umano deve prevalere sulla tecnologia” (Albert Einstein)
L’interazione uomo-macchina avanza sempre di più, il che rende più semplice la vita di tutti i giorni. Un esempio di ciò è la praticità ottenuta con l’Intelligenza Artificiale (AI), che consente una maggiore agilità nell’accesso alla conoscenza unita ad una minore burocrazia. L’intelligenza artificiale è una tecnologia che ha applicazioni che vanno dai compiti più semplici, come la ricerca di un concetto elaborato in classe, a quelli più complessi, come la pianificazione strategica aziendale.
Tuttavia, questa rivoluzione tecnologica porta con sé alcuni problemi etici e sociali che hanno un impatto negativo sulla società. Con tutto questo potere, è necessario avere la responsabilità di saper utilizzare questa tecnologia in modo positivo e sensato. Se agli algoritmi viene delegata la responsabilità di interagire con gli esseri umani, prendere decisioni e svolgere compiti, come possiamo garantire che ciò venga svolto eticamente?
Ogni tecnologia che emerge a vantaggio della società porta con sé rischi e problemi se utilizzata in modo errato, come nel caso dei social network, della biotecnologia, delle armi e dell’energia nucleare. L’Intelligenza Artificiale è un insieme di tecnologie che creano sistemi responsabili dello svolgimento di compiti che, fino ad allora, erano svolti dagli esseri umani. Le implicazioni etiche dell’utilizzo dell’Intelligenza Artificiale sono profonde e complesse, considerando i danni che possono essere causati nella configurazione della società odierna. Tra le principali questioni legate all’etica, ci sono diversi problemi legati alla privacy, alla diversità, alla trasparenza, alla sicurezza, ecc.
Per funzionare correttamente, l’Intelligenza Artificiale necessita di un addestramento che può essere svolto utilizzando una varietà di tecniche e strumenti, a seconda del compito che l’Intelligenza Artificiale deve svolgere. Ad esempio, nei modelli linguistici (che è una delle applicazioni più diffuse dell’Intelligenza Artificiale) la formazione viene effettuata attraverso la raccolta di dati. Questa raccolta avviene attraverso testi estratti da varie fonti, come libri, siti web, social network, articoli, ecc.
Numerose applicazioni di intelligenza artificiale richiedono un enorme volume di dati che può portare a una raccolta eccessiva di dati sulle persone, come informazioni sulla posizione, cronologia delle ricerche, dati familiari o persino dati biometrici. La raccolta dei dati solleva molte domande rilevanti sulla privacy, a causa del modo in cui i dati vengono archiviati, utilizzati e protetti. Ciò diventa un problema critico, poiché un’eventuale fuga di dati sensibili potrebbe comportare crimini come il furto di identità e la frode.
Un’altra questione critica associata all’uso dell’intelligenza artificiale è legata ai pregiudizi e alla discriminazione. Il bias è la parzialità o la distorsione delle informazioni presentate dal sistema, che porta a risultati ingiusti o imprecisi. La raccolta di dati per la formazione può riprodurre pregiudizi storici provenienti dalle varie fonti consultate. Per illustrare, immaginiamo che un’azienda decida di utilizzare l’intelligenza artificiale per assumere nuovi dipendenti e che i dati utilizzati per formare il sistema mostrino un pregiudizio di genere (uomini che occupano posizioni di leadership).
Da ciò, l’intelligenza artificiale può imparare a favorire i candidati uomini nella selezione di posizioni simili. La discriminazione è presente nei risultati che riproducono pregiudizi riguardanti il genere, l'orientamento sessuale, la religione, la razza, l'origine o altre particolarità, trattando persone e gruppi sociali in modo diseguale.
Queste questioni critiche sono legate a un lungo processo storico, che coinvolge fattori economici, sociali e politici, in cui le nazioni più ricche sono più veloci nello sviluppo dei progressi tecnologici rispetto alle nazioni più povere. Pertanto, l’uso dell’intelligenza artificiale può influenzare l’economia globale e continuare a riprodurre le disuguaglianze tra le nazioni, poiché i paesi che dispongono di maggiori risorse e infrastrutture avanzate nella ricerca e nello sviluppo sono avvantaggiati nella creazione di tecnologie all’avanguardia. Il risultato sarà un divario tecnologico tra le nazioni più sviluppate e quelle meno sviluppate, che influenzerà il reddito della popolazione e la capacità di affrontare i problemi nazionali.
Detto questo, la promozione dell’educazione applicata allo sviluppo delle competenze tecnologiche deve essere incoraggiata dallo Stato, soprattutto nei Paesi meno favoriti. Ciò ha il potenziale per ridurre il divario tecnologico tra i paesi, sviluppando allo stesso tempo la consapevolezza delle persone su come viene realizzata l’intelligenza artificiale e su come vengono utilizzati i dati personali. Ciò è importante per spezzare il ciclo di riproduzione delle disuguaglianze e della discriminazione. Mentre progrediamo nell’interazione uomo-computer, è imperativo garantire che il progresso tecnologico sia accompagnato da un progresso etico ed educativo.
La società deve essere consapevole delle questioni critiche legate alla privacy, ai pregiudizi, alla discriminazione e alle disuguaglianze che l’intelligenza artificiale può esacerbare. Investendo nella promozione dell’educazione finalizzata allo sviluppo delle competenze tecnologiche, soprattutto nei Paesi meno favoriti, possiamo creare un percorso più equo e consapevole. In questo modo possiamo garantire che lo spirito umano non solo prevalga sulla tecnologia, ma lo indirizzi anche verso un futuro più giusto, inclusivo ed etico.
Leandro Oliveira da Silva sta studiando per un master in informatica presso l'Università Federale di San Paolo (Unifesp).
la terra è rotonda esiste grazie ai nostri lettori e sostenitori.
Aiutaci a portare avanti questa idea.
CONTRIBUIRE