Articoli Caribo

Il futuro delle AI e la questione della verità

Condividi questo articolo

Il terreno di scontro, oggi, nel mondo dell’alta tecnologia applicata sono le AI, le cosiddette intelligenze artificiali. Terreno di scontro, non di meno, visto l’attuale clima di bollori e di fermenti intorno al tema.

Parallelamente alla corsa allo sviluppo tecnologico, però, è emersa in queste ultime settimane una nuova frontiera, tutta da esplorare, che al suo centro pone il problema della verità. Quale verità? Ogni verità. In generale si può parlare di verità delle informazioni e di verità dei dati e delle analisi. Una questione, se si vuole, di natura più antropologica e filosofica.

Preoccupazioni per l’uso delle AI sono emerse un po’ ovunque, il nostro Paese ha persino bloccato temporaneamente l’accesso all’ormai noto ChatGPT, sebbene per motivazioni molto meno auliche, essendo il blocco temporaneo dovuto a problemi di conformità con il trattamento dei dati personali e della privacy da parte di OpenAI.

Come funziona, dunque, il chatbot intelligente? Semplice: l’utente pone una domanda o fornisce un’istruzione, la macchina risponde o esegue il comando. La finestra di dialogo è, per l’appunto, basata su un approccio testuale. L’interfaccia è studiata per funzionare grazie all’addestramento della stessa da parte dell’uomo. Milioni e milioni di terabyte di informazioni, sotto forma di librerie di contenuti testuali vengono letteralmente “date in pasto” a ChatGPT. La sigla, complessa, sta per Chat Generative Pretrained Transformer, ossia un modello di linguaggio. Questo significa che il chatbot “simula” con l’utente una conversazione, all’interno della quale l’alternarsi di scambio di informazione produce, da parte della macchina, risposte “verosimili”. Ed è qui che iniziano a stringersi tutti i nodi intorno al pettine. Come la stessa OpenAI avvisa, in un piccolo box di testo prima di iniziare a chattare con il bot, ChatGPT potrebbe fornire risposte “errate” o “incorrette”.

Il problema che si sta ponendo in questi mesi riguardo l’uso delle AI è proprio questo: come misurare il grado di veridicità delle informazioni fornite dalla macchina all’utente? Questione non da poco, e chi la vuol tacciare per quisquiglia è in errore; certo, non bisogna però nemmeno fasciarsi la testa ancor prima di essersela rotta. Come in ogni buon scenario futuristico, si potrebbe prendere in prestito il grandioso mondo narrativo di Isaac Asimov, “padre della robotica” e di un filone di narrativa fantascientifica. Ostacolare l’avanzata tecnologica in nome di un ritorno a “frugivore origini dell’uomo” non solo ci appare impensabile, se non ingenuo, ma è anche (e soprattutto) dannoso, finanche impossibile.

Ebbene, saranno proprio le macchine a impedircelo. Un “cervello” elettronico in grado di indicare la via maestra all’uomo non è più tanto una finzione narrativa, ma diventerà – con buone chance – molto presto realtà. Opporvisi, semplicemente, non è conveniente per l’uomo come specie, ormai dipendente delle macchine.

Stabilire, dunque, un meccanismo o una ridondanza di sicurezza che permetta alle macchine di vagliare, in autonomia o in semi-autonomia, la veridicità delle informazioni fornite all’uomo come output di operazione, non solo è “eticamente” corretto, ma è anche “politicamente” necessario. Lo sviluppo di AI sempre più evolute dovrebbe avere, come punto ideale di arrivo, una fantascientifica utopia: liberare l’uomo dalle macchine.

Andrea Picchi

Tags: Anno I, Numero 2
Legge europea sull’open source
Giappone primavera da favola

Ti potrebbero interessare…