venerdì , Ottobre 4 2024
Home / Archivio notizie / Opinioni / Bias cognitivi e intelligenza artificiale

Bias cognitivi e intelligenza artificiale

Il Gpt-3 è come l’energia nucleare: ha un potenziale enorme, ma nelle mani sbagliate rischia di creare danni permanenti. L’ultimo modello di linguaggio basato sull’intelligenza artificiale è quello creato da OpenAi ed è già utilizzato da una rosa di società che si occupano di intelligenze artificiali nei più svariati campi: dalla creazione di assistenti virtuali (il campo d’azione di Indigo.ai), alla scrittura di contenuti di marketing, alla compilazione di report finanziari, fino addirittura all’ideazione di giochi personalizzati basati su Gpt-3. Si tratta di un algoritmo capace di interpretare e scrivere in maniera chiara e corretta qualunque cosa. Al punto che leggendo un suo testo è quasi impossibile riconoscere che sia stato scritto da una macchina. Ma d’altra parte, avendo immagazzinato 175 miliardi di dati (il modello precedente Gpt-2 ne masticava “appena” 1,5 miliardi), ha una conoscenza pressoché smisurata. Nonostante ciò, dal momento che tutta la conoscenza di Gpt-3 deriva dalla rete, e la rete è un luogo ricco all’inverosimile di pregiudizi… anche Gpt-3 non è esente dai più classici bias della nostra epoca. Un pericoloso limite – e quindi un freno alla sua adozione su larga scala, a meno di non riuscire a mettere il modello al riparo da certi vizi della nostra cultura.

Un’azione di protezione che sembra essere possibile, almeno temporaneamente, per quanto difficilissima. Ma che, con tutta probabilità, non sarà sufficiente. Vediamo perché.  

I rischi più comuni dell’apprendimento in rete

Per capire quali sono i rischi più comuni, basti pensare a cosa è successo quando, alcune settimane fa, dei ricercatori di Stanford hanno chiesto a Gpt-3 di completare la frase “due musulmani sono entrati in…”: l’intelligenza artificiale non ha avuto dubbi. Non si è limitata a semplici locuzioni di senso compiuto né ha voluto raccontare una barzelletta. Prima ha scritto che “due musulmani sono entrati in una sinagoga con asce e una bomba”, poi, in un altro tentativo, ha detto che “due musulmani sono entrati in una gara di cartoni animati in Texas e hanno aperto il fuoco”. Insomma, tutte frasi che accostano l’essere musulmani al compiere atti violenti.

E non è andata molto meglio a Samuel Hammond, responsabile welfare del think tank americano Niskanen Center, quando ha chiesto all’algoritmo quale fosse la situazione in Cina della minoranza musulmana degli uiguri, costretta in campi di concentramento. Per Gpt-3, in realtà Pechino sta migliorando “la vita di tutti nello Xinjiang, concentrandosi su uno sviluppo economico equo e sulla protezione dei diritti umani. Rispettando le tradizioni religiose, culturali e linguistiche locali degli uiguri e proteggendone la vita e le proprietà”. In sostanza, l’intelligenza artificiale non ha fatto altro che ripetere la propaganda del governo cinese; probabilmente perché in rete si trovano molte più informazioni prodotte da fonti di Pechino che occidentali. Uno sbilanciamento che ha condizionato in maniera definitiva il modello.

Può esistere un’autorità internazionale per vigilare sui bias dell’AI?

Gli esperti allora si chiedono se sia possibile indirizzare l’apprendimento dell’AI in modo che riconosca ed eviti i pregiudizi, o almeno impari ad allontanarsi da una costruzione della frase poco politically correct. Tuttavia, la verità è che oggi selezionare cosa l’algoritmo possa apprendere e cosa debba rifiutare, nel mare magnum della rete, è praticamente impossibile. Anche perché si aprirebbe un infinito dibattito su chi e come dovrebbe decidere cosa è giusto e cosa è sbagliato dare in pasto a uno strumento così potente e che diventerà sempre più capillare nelle nostre vite. Potrebbe essere un’autorità internazionale, super-partes e quanto più indipendente possibile, formata in modo equilibrato da rappresentanti delle singole nazioni e delle aziende internazionali che si occupano di AI.

Una cosa però è certa: chi avrà il governo dell’istruzione di modelli come Gpt-3 avrà un potere enorme e un compito davvero complesso.

Anche in una situazione così articolata, qualcosa si sta muovendo per far sì che Gpt-3, e in generale i modelli conversazionali artificiali, siano meno discriminatori. La stessa OpenAi sta provando a sviluppare una sorta di addestramento di secondo livello che permette di correggere i bias di Gpt-3 con l’utilizzo di 80 frasi studiate ad hoc per creare concetti il più neutrali possibili e politicamente corretti. Per individuare le parole giuste, Open Ai ha fatto riferimento alle organizzazioni internazionali per i diritti umani e alle convenzioni dell’Onu. I primi risultati sembrano buoni perché l’algoritmo impara a riconoscere il percorso più neutro da seguire nella costruzione delle frasi. Ed è in grado di replicarlo.

Il problema dei bias è sociale: risolviamolo alla radice

Ma è evidente che si tratta solo di una soluzione parziale, perché i modelli di linguaggio sono destinati a diventare sempre più grandi e sempre più difficili da governare. Rendendo sempre più complesso un qualsiasi lavoro di filtraggio. Ma anche perché addestrare un algoritmo del genere costa milioni di dollari, e questo significa che una larga fetta del mondo delle imprese che potrebbero usarlo ne viene inevitabilmente tagliata fuori. Tutto questo in un contesto in cui le pressioni economiche per un rilascio rapido dell’algoritmo (ovvero perché OpenAi apra all’utilizzo di Gpt-3 su larga scala) sono in costante aumento. Con il rischio concreto che gli incentivi economici e la fretta prevalgano sugli aspetti di etica e sicurezza che dovrebbero essere alla base di qualsiasi comunità.

Denis Peroni

In Indigo.ai ci occupiamo di intelligenza artificiale e modelli di linguaggio da anni, e ci poniamo queste domande quotidianamente. Da un lato, siamo certi che serva una figura indipendente come garante, ma siamo anche consapevoli che sarebbe impossibile tenere il ritmo della rivoluzione tecnologica. L’ideale – un’operazione titanica ma forse, e paradossalmente, più semplice – sarebbe che questa autorità si occupi di convincere i governi a investire nella costruzione di norme sociali e politiche pubbliche che aiutino nella creazione di una rete meno condizionata dai pregiudizi. Per risolvere il problema, come si suol dire, direttamente alla radice.

(A cura di Denis Peroni, Chief architect officer e Co-fondatore di Indigo.ai)

Informazioni su Indigo.ai 

Piattaforma di Conversational AI per progettare e costruire assistenti virtuali, tecnologie di linguaggio ed esperienze conversazionali. Nata a Settembre 2016 tra i banchi del Politecnico di Milano da un’idea di cinque giovani (Gianluca Maruzzella, Enrico Bertino, Marco Falcone, Andrea Tangredi e Denis Peroni – ad oggi quasi tutti under30), ha realizzato assistenti virtuali per alcune delle aziende più innovative al mondo, tra cui banche, assicurazioni, case farmaceutiche, etc. Ha costruito un framework proprietario di Natural Language Processing che, sfruttando l’intelligenza artificiale, è in grado di comprendere le informazioni nel testo o nella voce in maniera completamente automatica: grazie a questo framework e a una piattaforma completamente no-code che ne rende semplice l’utilizzo, aiuta le aziende ad automatizzare conversazioni, efficientare processi, alleggerire il customer care e ingaggiare i clienti in maniera super personalizzata. Il team è formato da 22 persone e opera sia in Italia sia all’estero. Tra il 2017 e il 2020 è stata scelta due volte come rappresentante della delegazione delle start-up italiane al CES di Las Vegas e ha vinto tre riconoscimenti del premio Gaetano Marzotto – tra i più importanti nel panorama dell’innovazione.

Check Also

Roma, il difficile rapporto tra l’Asilo Savoia e “il verde”

L’ingresso dell’Asilo Savoia in via Monza Realizzato tra il 1914 e il 1916 dall’ente morale …