“L’uomo è giudicato dal mondo per le sue parole e per le sue azioni. Le intenzioni le conosce solo Dio” (Aleksander Puškin). L’Autore fu abile come pochi a descrivere la difficoltà interrelazionale tra gli uomini. L’uomo è sempre protagonista, ma attualmente deve confrontarsi con l’intelligenza artificiale, che tanto intelligente non è, ovvero la cosiddetta (c.d.) A.I.
Il 28 febbraio di quest’anno è stato sottoscritto a Roma tra la Pontificia Accademia per la Vita, Microsoft, IBM, FAO e il Governo Italiano il protocollo per una commissione permanente circa l’etica e l’A.I. La notizia ha avuto qualche eco sulla stampa, ma comunque è rimasta confinata tra gli addetti ai lavori. Il CEO di Microsoft (a capo di 5.000 ingegneri), nell’ambito di alcuni impegni in Europa, si è messo in contatto con la Pontificia Accademia, al fine di rapportarsi su un tema a lui a cuore, da cui è scaturita la nascita della commissione.
Il 12 aprile del 2021 papa Francesco aveva comunque istituito la RenAIssance Foundation per promuovere e supportare ogni ricerca circa le correlazioni tra etica e A.I.
L’intelligenza artificiale è un unicum che va approfondito e rientrano, a ragion veduta, tanto i temi etici quanto le conoscenze scientifiche. L’aumento della disoccupazione di cui si sente parlare (competenze di base) laddove l’A.I. sostituisce i lavori ripetitivi d’ufficio, va affrontata con abilità ed ingegno per riportare l’uomo al centro del sistema produttivo.
Sei sono i punti su cui si fonda l’accordo A.I. di febbraio scorso: Trasparenza, Inclusività, Responsabilità, Imparzialità, Affidabilità, Sicurezza e informazioni.
Trasparenza: l’A.I. deve essere intellegibile e accessibile a tutti, nessun “trucco” da parte di chi la governa; vanno banditi contenuti subdoli.
Inclusività: nessuna ghettizzazione verso nessuno, al contrario l’attività della c.d. A.I. è rivolta a valorizzare le differenze, promuovere le potenzialità di chiunque e rendere partecipe il singolo nella costruzione dello sviluppo collettivo, per disegnare un mondo più giusto e gratificare chi se lo merita.
Responsabilità: è indispensabile che tutti (singolo o istituzione) si assumano la responsabilità dell’operato e si facciano carico di ogni sbaglio della c.d.A.I. È necessario sempre risalire al responsabile. L’obiettivo è costruire il clima di fiducia tra cittadini e istituzioni attraverso la normazione della A.I. I mezzi a disposizione vanno utilizzati ottimizzandoli nei progetti messi in cantiere, senza spreco di risorse.
Imparzialità: trasparenza nel controllo dell’A.I. Lo scopo è dirigersi verso l’imparzialità, principalmente se sono in gioco interessi rilevanti. Superare l’enorme contraddittorietà istituzioni e/o privati che rendono difficile raggiungere il traguardo. Gli indirizzi normativi delle istituzioni dovranno comunque osservare l’imparzialità e l’onestà intellettuale.
Affidabilità: l’A.I. deve essere “al di sopra di ogni sospetto” per potervi fare affidamento sempre; comunque, se i risultati di uno studio o di un esperimento non sono completi, non possono essere divulgati, oppure servirsene per fare predizioni su qualunque argomento.
Sicurezza e informazioni personali: due facce della stessa medaglia. La sicurezza è la misura adottata dall’amministratore dell’A.I. per difendere l’accesso di estranei alle reti, che vanno a incidere sulla raccolta di dati riservati e al giusto impiego successivamente.
Il tema etico è fondamentale nel trattamento dei nostri dati quando si realizza, si attiva e ci si avvale dell’A.I. per scopi istituzionali (ad esempio; per il green pass).È inconcepibile che selezionando un qualsiasi argomento online (dall’acquisto del frigorifero, alla squadra di calcio) i motori di ricerca si inseriscono nelle nostre ricerche e li trovi ovunque.
L’altro aspetto è truffaldino ovvero l’utilizzo “nascosto” dei dati che sono sotto gli occhi di tutti, per sfociare alla fine nell’illecito. L’A.I. è stata usata talvolta per “governare” il voto politico, far da arbitro in nuove assunzioni di lavoro, in banca per concedere prestiti. La centralità dell’uomo viene esautorata, con discriminazioni ingiustificate nei posti di lavoro e sul sostegno alle imprese, che non ricadevano nelle condizioni impostate all’A.I. dal programmatore. Il danno è enorme.
Competenze specifiche a parte, dopo questa fase “accademica” tra gli addetti ai lavori la c.d. A.I., deve essere normata dai Governi. Indispensabile coinvolgerei tecnici informatici, quanto le società finanziarie, le imprese e i cittadini. Il giusto contegno che ne dovrà scaturire sarà a beneficio di tutti. Gli esempi sono innumerevoli. Nell’emissione del titolo di viaggio la carta di credito su smartphone spesso non viene letta, a tutto vantaggio delle tessere elettroniche dell’autolinea stessa. Uno tra tanti piccoli esempi di malcostume. Ovviamente i Tecnici dell’A.I. in generale andranno responsabilizzati e se nel caso sanzionati, riguardo la progettazione di lavori (anche semplici programmi) che possano danneggiare perfino involontariamente qualsiasi settore, soprattutto nell’ambito della discriminazione di ogni naturava tenuta alta la guardia. La raccolta dei dati deve avere fondatezza normativa ed è impensabile che l’Homo Œconomicus e l’interesse esclusivo dei suoi scopi privati possa essere alla base dell’A.I. La detenzione in poche mani di grandi fortune deriva anche da questo monopolio e gli effetti deleteri si osservano. Difendiamo per il capitalismo, ma la centralità dell’uomo deve essere al primo posto. L’impoverimento culturale cronico in Italia deve muoversi con attenzione verso l’A.I.
L’A.I. è semplice strumento di lavoro all’interno di quanto l’uomo ha praticato per millenni e che va sotto il nome di cultura, non ha nulla a che vedere con essa. Le crisi occupazionali di questi giorni (licenziamenti)delle piattaforme web (social media e non solo) di cui si sentono strane diagnosi ingegneristiche, molto banalmente sono dovute al buon senso della Generazione Z (nati dal 1997) che hanno capito. La conferma per tutti si avrà tra 2-3 anni.
Nuovo tema foriero di sviluppi morali è l’affacciarsi sulla scena, dal novembre scorso, di Chat Generative Pre-Trained Transformer “ChatGPT”, arrivata alla sua versione 4.0 di cui avremo modo d’approfondire.
Puškin è sempre attuale.
Domenico Galati