Intelligenza artificiale: il rapporto della Casa Bianca sulle prospettive etiche e giuridiche

Pubblicato il 21 ottobre sul Quotidiano Giuridico.

Il rapporto della Casa Bianca in materia di Intelligenza Artificiale (d’ora in avanti “IA”) è stato pubblicato il 12 ottobre scorso. Esso riguarda le possibili strategie da adottare onde governare lo sviluppo di tali tecnologie dalle infinite potenziali applicazioni e con preoccupanti effetti collaterali, come le probabili significative perdite sia di posti di lavoro sia del controllo umano sui sistemi automatizzati.

Il rapporto è focalizzato su sette diversi punti:

1. Applicazioni dell’IA come bene pubblico

Secondo il rapporto della Casa Bianca,la capacità di apprendimento delle macchine è vista con grande ottimismo perché potrebbe migliorare le vite delle persone, specie in ambito della tutela della salute, dell’ambiente e dei trasporti, soprattutto a seguito degli investimenti nella ricerca di base e applicata. A questo proposito si osserva come governo e agenzie governative siano in grado di svolgere i loro compiti in modo più rapido, responsabile ed efficiente.

2. Regolamentare l’IA

Nel rapporto si osserva come l’IA possa già essere implementata su macchinari di largo uso, come auto e aerei, che a loro volta sono soggetti a normative volte a proteggere il pubblico e i consumatori da pericoli e garantire equità nella competizione economica. In generale, la regolamentazione dei sistemi automatizzati con l’intelligenza artificiale deve concentrarsi sull’informativa dei rischi in essa contenuti. Nel caso in cui la risposta regolatoria incrementasse i costi di verifica della conformità ai parametri normativi, o rallentasse l’implementazione dello sviluppo di innovazioni, gli enti regolatori dovrebbero considerare come abbassare i costi e le barriere all’innovazione senza impattare sulla sicurezza e l’equità del mercato. Quali esempi in questo senso si possono indicare nelle esperienze dei veicoli automatizzati (come le automobili senza guidatore ovvero i droni). Seppure lo sviluppo di queste tecnologie consentirà di salvare vite e ridurre gli errori di guida, incrementando la mobilità personale, è necessario procedere alla creazione di spazi per la sperimentazione e orientarsi verso una cooperazione tra industria e i diversi operatori per stendere sviluppare una normativa basata sull’esperienza dei risultati ottenuti.

3. Ricerca e forza lavoro.

Il rapporto pone in evidenza il ruolo governativo dell’IA nello sviluppo di una forza lavoro qualificata e diversificata. A questo proposito il rapporto annuncia il finanziamento di un piano strategico federale che indifichi le aree su cui investire. In questo ambito emergono tra le righe del rapporto le preoccupazioni sullo sviluppo dell’AI e si propone quale soluzione la promozione di una “cittadinanza alfabetizzata” sulla materia che sia in grado di usare, comunicare e interpretare i dati partecipando al dibatito pubblico. Ulteriormente, viene proposto di investire ulteriori fondi per il miglioramento dei programmi educativi delle materie basilari per lo sviluppo dell’AI, cioè le “STEM” (scienza, tecnologia, ingegneria e matematica) già dagli asili fino alle scuole superiori al fine di apprendere l’informatica e avere le competenze necessarie in un mondo tecnologico.

4. L’impatto economico dell’intelligenza artificiale.

Il rapporto distingue tra effetti economici sul breve periodo e sul lungo periodo. Sotto il primo profilo il governo è orientato ad automatizzare le funzioni che non sono state ancora automatizzate al fine di incrementare la produttività e creare ricchezza. Tuttavia, ciò può impattare sul mondo del lavoro con perdita di posti di lavoro aumentando il divario tra i lavoratori specializzati e quelli senza particolari specializzazioni, con un forte impatto sulla diseguaglianza sociale a carico soprattutto dei lavoratori a basso reddito. Sul lungo periodo è compito delle politiche pubbliche ridurre tali rischi, assicurando l’accesso a questi lavoratori a posizioni lavorative complementari, e non in competizione, con i processi di automazione.

5. Equità, sicurezza e governance

I dubbi dei tecnici, analisti politici e eticisti sullo sviluppo dell’IA sono chiari ai redattori del rapporto governativo americano. Il punto focalizzato nel rapporto riguarda la relazione tra l’uso di sistemi automatizzati di intelligenza artificiale nei processi decisionali inerenti persone in sostituzione dei procedimenti burocratici guidati da funzionari, specie sotto i profili di giustizia, equità e responsabilità. Particolare attenzione è dedicata al governo dei c.d. “Big Data”, e quindi sulla privacy. Secondo il rapporto una chiave per trovare un punto di equilibrio tra le esigenze contrapposte è rappresentata dalla trasparenza del processo decisionale. Questo concetto va inteso non solo in merito al processo algoritmico di gestione dei dati, ma anche relativamente alla spiegazione dei passaggi logici nella formazione del processo decisionale automatizzato. Ciò riguarda lo sviluppo degli studi nella capacità di compresione e previsione del comportamento dei sistemi di intelligenza artificiale avanzata.

Il controllo automatizzato del mondo fisico comporta preoccupazioni per la sicurezza, specie per i sistemi esposti alla complessità dell’interazione umana. Ci si riferisce alla costruzione di sistemi in grado di trasferirsi in modo sicuro dal “mondo chiuso” del laboratorio al “mondo aperto” dell’ambiente esterno nel quale possono accadere cose imprevedibili. L’adattamento dei sistemi di intelligenza artificiale a situazioni impreviste è difficile ma necessario per la sicurezza del funzionamento, per esempio, di aerei, centrali elettriche, trasporti.

In questo senso, è necessario lo studio e la preparazione su questioni etiche da parte del personale coinvolto nell’elaborazione di programmi e progetti di intelligenza artificiale al fine di coordinare la preparazione tecnica con la ricerca di soluzioni eticamente appropriate al fine di prevenire risultati inaccettabili. A tal fine è necessario la cooperazione e il confronto con tutti gli altri portatori di interessi in questa materia.

6. Globalizzazione e sicurezza

L’intelligenza artificiale pone questioni rilevanti nell’ambito delle relazioni internazionali e della sicurezza, In particolare, è necessaria una grande attenzione sui temi della cybersecurity, elemento che sarà sempre maggiormente coinvolto nell’adozione di misure sia di offesa, sia di difesa, soprattutto nell’ambito della corsa agli armamenti. Ciò comporta sia una maggiore precisione nell’uso di armi nelle operazioni militari, tuttavia abbandonare il controllo umano diretto dall’uso delle armi nelle operazioni militari comporta dubbi etici e legali. Pertanto, è necessario che l’introduzione nei piani americani di difesa di armamenti automatici o semi-automatici sia sempre effettuato nel rispetto del diritto umanitario internazionale, sia monitorato costantemente nella sua diffusione e sia effettuato in cooperazione con gli Alleati al fine di sviluppare standard comuni in relazione allo sviluppo e all’uso di tali armamenti.

7. Verso il futuro.

Le conclusioni del governo degli Stati Uniti sull’impiego dell’intelligenza artificiale sono volte ad un impegno di maggiore studio, comprensione e trasparenza ai fini della loro governabilità. L’approccio multidisciplinare e cooperativo presentato nel rapporto sembra accogliere alcune criticità formulate da alcuni tra i più autorevoli scienziati, tra cui Stephen Hawking, attraverso la pubblica sottoscrizione di una nota lettera aperta focalizzata proprio sulle criticità sovraesposte.