Rivista della Regolazione dei MercatiCC BY-NC-SA Commercial Licence E-ISSN 2284-2934
G. Giappichelli Editore

Divergenti? Le strategie di Unione europea e Stati Uniti in materia di intelligenza artificiale (di Edoardo Chiti, Barbara Marchetti)


L’articolo presenta una comparazione tra la strategia dell’Unione europea e quella statunitense in materia di intelligenza artificiale. Quali sono le finalità degli interventi posti in essere e prefigurati da ciascuno dei due ordinamenti? Quali gli strumenti utilizzati per realizzare tali finalità? E quale l’impatto sui due sistemi giuridici? L’analisi per­mette di mettere a fuoco le differenze che esistono tra l’approccio europeo e quello statunitense: Unione europea e Stati Uniti perseguono obiettivi nel complesso differenti e usano strumenti almeno in parte diversi tra loro, che incidono in modi di­seguali sul sistema giuridico. Questa conclusione aiuta a mettere in prospettiva l’ope­rato di ciascuno dei due ordinamenti e a impostare gli ulteriori passaggi di un’in­dagine comparata.

Diverging Paths? The EU and US Approaches to Artificial Intelligence

This article proposes a comparison between the EU and US regulatory approaches to artificial intelligence. It opens with a discussion of the main purposes of the EU and US strategies, followed by an examination of the instruments through which such objectives should be achieved and a reflection on their impact on the EU and US legal system. The final Section presents the overall conclusions and suggests that the EU and US strategies diverge in several regards, a point which also allows to frame further research on the EU regulatory approach to artificial intelligence.

Key Words: Artificial Intelligence – Digital Future – Public Regulation – EU Administrative La – Comparative Administrative Law

SOMMARIO:

1. Le domande - 2. Le finalità degli interventi - 2.2. Dall’altra parte dell’Atlantico: costruire la leadership statunitense - 3. Gli strumenti - 3.2. Gli Stati Uniti tra regolazione pubblica e tentativi di self-regulation - 4. L’impatto sul sistema giuridico - 4.2. L’esperienza statunitense: verso una regolazione minima - 5. Sentieri che si biforcano - NOTE


1. Le domande

L’Unione europea viene sviluppando, soprattutto su iniziativa della Commissione, una propria «strategia» in materia di intelligenza artificiale. Si tratta di una strategia che utilizza e sfrutta una pluralità di strumenti qualitativamente diversi ma funzionalmente complementari: combina, infatti, interventi che implicano stanziamenti di spesa, esemplificati dai finanziamenti erogati nel­l’am­bito del programma Horizon 2020; interventi normativi, che si traducono nella messa a punto di discipline giuridiche, come il regolamento sulla cybersecurity adottato nel 2019; interventi espressamente qualificati come «etici». I contorni ge­nerali della strategia europea sono stati gradualmente definiti dalla Commis­sione in alcuni documenti programmatici. Questi includono le comunicazio­ni che hanno presentato, tra l’aprile e il dicembre del 2018, una «iniziativa» eu­ro­pea sull’intelligenza artificiale [1] e un «piano coordinato» sull’in­tel­ligen­za ar­tificiale [2], il quale, a sua volta, dà seguito all’invito del Consiglio europeo del mese di giugno dello stesso anno e si basa su una «dichiarazione di cooperazio­ne» firmata da tutti i paesi membri [3]. A questi documenti si aggiungono quel­li adottati nel febbraio 2020, il principale dei quali è il libro bianco che ha av­viato una consultazione della società civile, del mercato e della comunità accademica in merito a una serie di proposte volte a dare concretezza alla strategia europea [4].

Anche gli Stati Uniti dedicano una crescente attenzione all’intelligenza artificiale. Massicci investimenti finanziari, già decisi dall’amministrazione Obama e ribaditi dall’amministrazione Trump, confermano l’assoluta rilevanza delle sfide dell’intelligenza artificiale per il governo americano, che le considera una priorità nazionale. La recente strategia per la ricerca e lo sviluppo dei sistemi di intelligenza artificiale messa in campo con l’executive order di Trump del febbraio 2019 si è accompagnata alla previsione di nuove istituzioni consultive e di raccordo capaci di informare, anche grazie alla partnership con i soggetti privati e all’accademia, un processo di complessivo rafforzamento della leadership statunitense nelle tecnologie di intelligenza artificiale e di potenziamento dell’industria americana presente in tale settore. In questa logica di forte spinta all’innovazione, il Congresso sta muovendo, dal canto suo, i primi passi verso l’adozione di normative tese a fissare limiti all’impiego del­l’in­tel­ligenza artificiale e aggiustamenti della regolazione preesistente per adattarla al­le nuove esigenze: si pensi, ad esempio, al John S. McCain National Defense Authorization Act for Fiscal Year 2019, con il quale è stata disposta la crea­zione della National Security Commission on Artificial Intelligence; e al disegno di legge per un Bill on Artificial Intelligence Act, che dispone l’allocazione di 2,2 bilioni di dollari per accelerare ricerca e sviluppo nel settore del­l’intel­li­genza artificiale, prevedendo anche la creazione di tre nuovi organismi.

Non è sorprendente che questa duplice evoluzione, in Europa e negli Stati Uniti, stia catturando l’attenzione della scienza giuridica, interessata non solo a ricostruire i modi di azione dei due ordinamenti rispetto a un fenomeno di grande impatto sociale, politico ed economico, ma anche a contribuire alla progettazione dell’emergente «diritto dell’innovazione». Sin qui, però, gli studi sulla vicenda europea e su quella statunitense hanno proceduto in parallelo, senza impegnarsi in un confronto tra i processi in corso [5]. Questo scritto intende muovere qualche primo passo sul terreno della comparazione. Quali sono le finalità degli interventi dell’Unione europea e degli Stati Uniti in materia di intelligenza artificiale? Quali gli strumenti utilizzati da ciascuno dei due ordinamenti per realizzare tali finalità? E quali i contenuti dei loro interventi? L’obiettivo è mettere a fuoco le somiglianze e le differenze che esistono tra la vicenda europea e quella statunitense, in modo da comprendere meglio le scelte compiute dai due ordinamenti e avviare una riflessione sulle loro implicazioni.

La struttura riflette le tre domande appena formulate. Nel paragrafo seguente, si ricostruiranno le finalità degli interventi dell’Unione europea e degli Stati Uniti in materia di intelligenza artificiale (§ 2). Quindi, si esamineranno gli strumenti utilizzati dai due ordinamenti (§ 3) e l’impatto dei loro interventi sul complessivo sistema giuridico (§ 4). Il paragrafo conclusivo tenterà una comparazione tra i due approcci, quello europeo e quello statunitense, e suggerirà alcune ulteriori linee di sviluppo di una indagine comparata (§ 5).


2. Le finalità degli interventi

2.1 Nutrire e domare la tigre? Le risposte dell’Unione all’avvento del­l’in­telligenza artificiale

Nonostante i tentativi della Commissione di sviluppare un progetto unitario, capace di collegare funzionalmente una pluralità di strumenti distinti, la strategia dell’Unione in materia di intelligenza artificiale resta, per molti versi, un piccolo vaso di Pandora, un insieme di interventi ancora in cerca di un ordine preciso. Se è poco utile, in questo contesto, cercare nei documenti ufficiali indicazioni chiare sulle finalità della strategia europea, è comunque possibile ricostruire, seppure a costo di qualche forzatura, la logica complessiva degli interventi.

Il primo aspetto da notare, in questa prospettiva, è il modo in cui viene formulato il problema dell’intelligenza artificiale dalla Commissione e dai suoi vari comitati. Sebbene il termine non sia mai utilizzato, l’avvento dell’intelligenza artificiale è tematizzato come un processo e un evento che presenta i tratti caratteristici di una vera e propria «crisi» [6]. È, anzitutto, un evento straordinario, perché porta con sé la promessa di una trasformazione rapida e profonda dell’economia – dalla crescita alla struttura del mercato del lavoro, all’aumento delle diseguaglianze – e della società – dal senso di identità individuale e collettivo al modo in cui gli esseri umani pensano, agiscono e si relazionano tra loro e con il mondo esterno. Per quanto il suo impatto sia riconoscibile nei suoi contorni generali, inoltre, è un evento le cui implicazioni restano in buona parte imprevedibili. È un evento, ancora, che non si è attrezzati ad affrontare, perché mancano gli strumenti istituzionali e politici necessari.

Questa peculiare tematizzazione dell’avvento dell’intelligenza artificiale co­me crisi è tutt’altro che banale. Essa pare influenzata dalle ricostruzioni secon­do le quali l’Unione è precipitata, a partire dalla crisi bancaria dell’autunno del 2008, in una crisi multidimensionale, allo stesso tempo finanziaria, economica, politica e costituzionale [7]: la Commissione e i suoi comitati tecnici, in altri termini, sembrano aver fatto proprie le prospettive teoriche sull’attuale fase del progetto di integrazione e individuato una nuova dimensione della crisi europea, che si aggiunge a quelle già esistenti ed è destinata a interagire con queste in modi non ancora del tutto prevedibili. Ciò che più conta, in ogni caso, è che questa rappresentazione del problema contribuisce a definire le finalità degli interventi posti in essere dalle istituzioni politiche e amministrative del­l’Unione. Caratterizza tali interventi, infatti, come risposte a un fenomeno che richiede di essere fronteggiato e governato. E spinge in quattro direzioni principali, che definiscono, insieme, il disegno funzionale complessivo degli interventi dell’Unione in materia di intelligenza artificiale, la trama di fondo che emerge al di là della lettera dei documenti ufficiali.

Si tratta di una trama assai meno ovvia di quel che si potrebbe immaginare. La prima finalità, la più prevedibile, è quella di «regolazione sociale». L’in­ter­vento dell’Unione serve, prima di ogni altra cosa, a realizzare alcune esigenze sociali che un mercato dominato dall’intelligenza artificiale e lasciato a se stes­so non garantirebbe: ad esempio, la tutela dei dati personali, la tutela del consumatore, ma anche la tutela ambientale, insieme alla grande questione del­l’energia necessaria per alimentare l’uso dell’intelligenza artificiale [8]. Con le misure di regolazione sociale, l’Unione si muove su un terreno consolidato, dato che è almeno dalla fine degli anni Ottanta del secolo scorso che il legislatore europeo interviene a garantire molti aspetti della qualità della vita dei cittadini dell’Unione, affiancato da un insieme sempre più ricco e complesso di amministrazioni europee responsabili dell’attuazione di normative relative a problemi quali la sicurezza e la qualità dei medicinali, dei cosmetici e dei prodotti agroalimentari. Se l’avvento dell’intelligenza artificiale reca nuovi rischi alla qualità della vita dei cittadini, la regolazione sociale dell’Unione deve farsene carico e orientare il funzionamento del mercato con una nuova serie di misure.

L’intervento dell’Unione, però, non si esaurisce nella regolazione sociale, ma serve anche a sostenere lo sviluppo dell’intelligenza artificiale [9]. Questo tipo di intervento rientra nella politica industriale europea, che rappresenta almeno dal 1992 una componente stabile dell’agenda politica dell’Unione. Allo stesso tempo, il suo espresso orientamento all’innovazione arricchisce e modifica le finalità della politica industriale, là dove contribuisce a definire la nuova strategia a lungo termine dell’Unione sulla crescita sostenibile, incentrata su un modello di crescita sostenibile e trainato dall’innovazione, insieme alla più ampia «agenda strategica» per il quinquennio 2019-2024 adottata dal Con­siglio europeo nel giugno 2019. L’obiettivo dello sviluppo dell’intelligenza artificiale e dell’innovazione, peraltro, produce un piccolo paradosso: l’Unione interpreta l’avvento dell’intelligenza artificiale come un fattore di crisi che occorre governare; ma decide, nello stesso tempo, di sostenere e di alimentare tale fattore.

La terza finalità degli interventi europei è una finalità di welfare. L’Unione intende impegnarsi sul terreno della «formazione» di tutti – riassunta nel motto «nessuno resti escluso» – e della «protezione sociale» dei lavoratori impegnati nelle occupazioni che probabilmente subiranno le maggiori trasformazioni [10]. Si entra, così, nello spazio delle novità, degli sviluppi che implicano una vera e propria trasformazione delle politiche dell’Unione. Per quanto l’intervento in funzione di welfare resti del tutto limitato, la riflessione che le istituzioni politiche europee hanno avviato sulle finalità della regolazione dell’intelligenza artificiale prefigura un impegno inedito e per molti versi sorprendente dell’Unione sul terreno delle politiche sociali. Il benessere, inteso non tanto come qualità della vita dei cittadini europei, ma come vera e propria liberazione dal bisogno, entra tra gli obiettivi che le istituzioni politiche dell’Unione individuano come necessari per rispondere alla crisi prodotta dall’avvento dell’intelligenza artificiale.

La quarta e ultima finalità rappresenta una novità ancora maggiore, perché introduce un’innovazione non solo rispetto al tradizionale assetto funzionale dell’Unione, ma anche rispetto all’esperienza delle social-democrazie europee. L’intervento dell’Unione, nel disegno che si intravede nei diversi documenti delle istituzioni politiche europee, deve avere anche una finalità «etica» [11]. Il presupposto di questo tipo di intervento, che si potrebbe dire di «regolazione etica», è che l’intelligenza artificiale, in quanto fattore di crisi, ponga inevitabil­mente problemi etici: ad esempio, a chi occorre attribuire la responsabilità etica delle azioni di tecnologie guidate dall’intelligenza artificiale? Gli esseri uma­ni condividono con le macchine questa responsabilità? E quale spazio di autonomia va riservato alle macchine? Occorre seguire un approccio antropocentrico, incentrato, cioè, sui valori umani, oppure serve una prospettiva diverso?

Questo quadro mostra come la trama complessiva degli interventi dell’U­nione poggi su un equilibrio precario ma ambizioso. Le risposte delle istituzioni europee tentano, da un lato, di sostenere lo sviluppo dell’intelligenza artifi­ciale, dall’altro, di gestire il suo impatto proteggendo alcune dimensioni fonda­mentali della struttura della società europea. Questo orientamento di fondo riflette, evidentemente, una prospettiva di realismo politico comprensibile e giu­stificabile. Esso solleva, però, varie questioni, tutte importanti. Ciascuna del­le quattro finalità, anzitutto, è problematica in sé: ad esempio, perché il soste­gno all’innovazione è rivolto principalmente al mercato e solo marginalmente alle istituzioni pubbliche, politiche e amministrative [12]? Quale ruolo svolge la riduzione delle diseguaglianze tra gli obiettivi di welfare che l’Unione dichiara di voler realizzare? La finalità di regolazione etica è compatibile con l’afferma­zione per la quale l’Unione è un ordinamento liberale? Se sì, a quali condizioni ed entro quali limiti? In secondo luogo, queste quattro finalità coesistono armonicamente? Sono davvero in equilibrio tra loro o tendono a entrare in conflitto? In questo caso, come si risolvono le tensioni che si vengono a creare? Infine, in quale modo queste finalità sono in grado di modificare la complessiva agenda politica europea? Come trasformano, cioè, il volto dell’Unione quale ordinamento politico?


2.2. Dall’altra parte dell’Atlantico: costruire la leadership statunitense

Che una regolazione dell’intelligenza artificiale sia avvertita come necessaria e urgente anche negli Stati Uniti è indubbio. Le parole di Elon Musk, che con Neuralink progetta minuscoli elettrodi collegati al cervello umano e capaci di inviare segnali a microchip per la cura dei disturbi neurologici e il potenziamento delle capacità cognitive, sono eloquenti: «I think we should be very careful about AI. If I had to guess at what our biggest existential threat is, it’s probably that […] I am increasingly inclined to think there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish» [13].

Se una regolazione è ritenuta necessaria, non è ancora chiaro, però, quale contenuto debba avere, quali limiti debba introdurre, chi debbano essere i regolatori e quali siano le finalità da perseguire [14].

Per cominciare, la stessa definizione di intelligenza artificiale non è condivisa. Essa rinvia all’idea di intelligenza umana, intesa come somma di abilità (di apprendere, di astrarre, di ragionare, di usare il linguaggio, di avere consapevolezza), ma se ne ammettono diverse declinazioni. Nel libro di Stuart Russell e Peter Norvig, Artificial intelligence. A Modern Approach, ad esempio, sono contemplate otto differenti definizioni di intelligenza artificiale, organizzate in quattro categorie (thinking humanly, acting humanly, thinking rationally and acting rationally) [15]. Ciascuna categoria si presta a sua volta a diverse interpretazioni [16] e ognuna è sufficientemente ampia da includere sia la robotica che i machine-learning algorithms, oggetti che potrebbero creare problemi e richiedere soluzioni differenti: i robot, per esempio, hanno una dimensione fisica che altre applicazioni dell’intelligenza artificiale non hanno e per la quale possono porsi problemi specifici di responsabilità e capacità giuridica [17].

Inoltre, la riflessione giuridica ha messo in luce da tempo le difficoltà di una regolazione dell’intelligenza artificiale in ragione dei rischi legati alle sue applicazioni. Rispetto ad altri sviluppi tecnologici, i sistemi di intelligenza artificiale presentano tratti inediti, che si legano all’autonomia e all’imprevedibilità del loro funzionamento. Essi, infatti, non sono condizionati da nozioni presupposte, dal senso comune e dalle regole cui si riferiscono gli umani. L’autonomia della macchina e la capacità di apprendere dall’esperienza rendono complicato sia il controllo locale (di chi li programma) che quello generale (da parte di chiunque). I sistemi di intelligenza artificiale, poi, sono in rapida e continua evoluzione, e questo rende necessario un aggiornamento egualmente spedito delle regole che li riguardano, imponendo strumenti regolatori opportunamente duttili e flessibili. Ancora, ricerca e sviluppo sono delocalizzati, perché i partecipanti ad un progetto possono essere in diversi paesi del mondo, senza relazioni contrattuali che li leghino e consentano di ricostruire la catena delle responsabilità, ciò che può rendere insufficiente una regolazione su base nazionale [18]. Infine, il contesto globale estremamente competitivo in cui la ricerca e lo sviluppo di sistemi di intelligenza artificiale si collocano non è irrilevante nella messa a punto di una strategia regolatoria efficace. Se la regolazione statunitense scegliesse, ad esempio, un approccio precauzionale, ne conseguirebbe una penalizzazione o inibizione dello sviluppo dell’intelligenza artificiale, come indicato dal cosiddetto Collingridge Dilemma, con un conseguente svantaggio competitivo degli Stati Uniti rispetto a paesi, quali la Cina, in cui una filosofia precauzionale fosse assente [19]. Basti pensare, sul fronte della sicurezza e della difesa, all’impiego delle Lethal Automated Weapons (LAWs), per le quali è evidente l’esigenza di pensare ad una regolazione ultra-statale.

Le difficoltà sottese alla elaborazione di una regolazione in materia di intelligenza artificiale sono apertamente riconosciute anche dal Congresso e dal potere esecutivo. Ciò non esclude, però, che sia possibile individuare almeno un macro-obiettivo condiviso dalle istituzioni politiche statunitensi, una trama funzionale tendenzialmente comune ai loro vari interventi in materia di intelligenza artificiale. Ad accomunare le varie dichiarazioni e programmi federali, i principali disegni di legge del Congresso [20] e la strategia nazionale annunciata dall’amministrazione Trump nell’Executive Order 13859 dell’11 febbraio 2019, intitolato Maintaining American Leadership in Artificial Intelligence, è la preoccupazione costante per la leadership statunitense nell’intelligenza artificiale. È questa prospettiva essenzialmente tecnica e geopolitica, orientata allo sviluppo dell’intelligenza artificiale e al suo sfruttamento economico, politico e militare a vantaggio degli Stati Uniti nello scacchiere internazionale, a rappresentare il centro funzionale degli interventi statunitensi in materia di intelligenza artificiale.

L’approccio è particolarmente chiaro nell’Executive Order 13859, che individua quattro obiettivi principali, tutti coerenti con la finalità ultima della leadership statunitense. Si tratta della promozione della ricerca e dello sviluppo del­l’intelligenza artificiale; della promozione della fiducia della popolazione negli sviluppi e nelle applicazioni dell’intelligenza artificiale; della formazione di una forza lavoro capace di fare uso dell’intelligenza artificiale nel proprio lavoro; e della protezione delle conquiste tecnologiche statunitensi da possibili attacchi di competitors o di paesi stranieri. Anche il Congresso, seppure in modo assai più timido, procede nella stessa direzione. Le iniziative del Congresso, infatti, rivelano il tentativo di trovare un bilanciamento tra la necessità di favorire lo sviluppo dei sistemi di intelligenza artificiale e l’esigenza di controllare i possibili rischi che la loro applicazione comporta, quali le discriminazioni legate al­l’impiego di algoritmi, le violazioni della privacy del consumatore e la sicurezza dei dati e delle informazioni. In generale, tuttavia, l’approccio seguito non può dirsi di tipo precauzionale. Il Congresso, piuttosto, si mostra cauto nel proprio operato, preoccupato, in negativo, di evitare l’adozione di normative che potrebbero ostacolare l’innovazione, in positivo, di procedere alla costruzione di un quadro di regole che favoriscano lo sviluppo dell’intelligenza artificiale.

Questa trama funzionale, peraltro, pone vari problemi, il principale dei quali è il limitato interesse rispetto alle possibili minacce derivanti dall’impiego del­l’intelligenza artificiale per i diritti fondamentali dei cittadini, benché la scienza giuridica abbia richiamato da tempo l’attenzione sui rischi «esistenziali» legati alle nuove tecnologie [21]. Il solo riferimento è contenuto nel punto dell’Executive Order sopra richiamato in cui si prevede, accanto alla riduzione delle possibili barriere all’uso dell’intelligenza artificiale, l’esigenza di proteggere «civil liberties, privacy and values». In un bilanciamento tra rischi e vantaggi dei sistemi di intelligenza artificiale, l’azione di governo propende decisamente per un loro forte sviluppo, per un contenimento dei possibili limiti al loro impiego, per investimenti massicci e per l’assenza di un approccio precauzionale, che potrebbe pregiudicare, secondo il Collingridge Dilemma, lo sviluppo e la ricerca e, dunque, la leadership statunitense nel contesto globale. Segnali di maggiore attenzione alla salvaguardia delle libertà individuali sono presenti, semmai, nelle iniziative del Congresso e dei legislatori statali che si stanno adoperando per approvare discipline volte a limitare e contenere l’impatto discriminatorio dei sistemi di intelligenza artificiale e il deficit di accountability che ne connotano il funzionamento.


3. Gli strumenti

3.1. La vicenda europea: un trittico di strumenti e i loro problemi 

La strategia dell’Unione relativa all’intelligenza artificiale, come si è anticipato in apertura, utilizza strumenti assai diversi tra loro.

Un primo tipo di strumenti è rappresentato dai finanziamenti, utilizzati soprattutto per sostenere lo sviluppo dell’intelligenza artificiale, ma rilevanti anche per le finalità di welfare. Sin qui, i finanziamenti sono stati erogati principalmente nell’ambito del programma quadro di ricerca e innovazione Horizon 2020, nel quale la Commissione ha portato gli investimenti nell’intelligenza artificiale a 1,5 miliardi di euro per il triennio 2018-2020, mentre i programmi nazionali hanno beneficiato del sostegno dei fondi strutturali e di investimento europei in funzione dello sviluppo delle competenze. Nel prossimo futuro, i fondi pubblici saranno disponibili, tra l’altro, grazie a un nuovo programma per la ricerca e lo sviluppo proposto dalla Commissione per il periodo 2021-2027 e dovranno essere utilizzati in modo da incentivare gli investimenti privati, che restano, al momento, troppo limitati [22].

Ai finanziamenti si aggiungono, poi, gli strumenti normativi, utilizzati principalmente in funzione degli obiettivi di regolazione sociale. Tali interventi spaziano dall’adozione di legislazioni europee – come il Regolamento generale sulla protezione dei dati (RGPD) entrato in vigore nel maggio 2018 e il già menzionato regolamento sulla cybersecurity adottato nel 2019 [23] – ad azioni di rule-making amministrativo, come quelle prefigurate in vari rapporti prodotti da organismi che assistono la Commissione [24].

Un ultimo tipo è quello degli strumenti espressamente qualificati come «etici». Tali strumenti, che la Commissione distingue nettamente da quelli giuridici, consistono in «orientamenti» o guidelines e sono volti a realizzare le finalità di «regolazione etica» di cui si è detto [25]. L’elaborazione degli orientamenti etici è stata affidata a un organo collegiale denominato Gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, istituito dalla stessa Commissione nel giugno 2018 e composto da una cinquantina di esperti provenienti dalla comunità accademica, dalla società civile e dall’industria [26]. Il Gruppo è a sua volta affiancato da un forum aperto chiamato «Alleanza europea per l’IA», che conta, al momento, circa 2700 membri e fornisce indicazioni e proposte.

Questo trittico di strumenti – finanziari, normativi ed etici – pone numerosi problemi, rilevanti su più piani: richiedono di essere affrontati se si vuole gestire l’avvento dell’intelligenza artificiale con strumenti adeguati; ma hanno implicazioni più generali, che superano i confini della strategia dell’intelligenza artificiale. Le questioni più importanti sono due e riguardano, rispettivamente, gli strumenti normativi ed etici.

La prima è quella del giusto equilibrio che occorre stabilire, quando si ricorre a strumenti normativi, tra l’esigenza di utilizzare il diritto per stabilizzare i comportamenti dei privati e quella di promuovere l’innovazione. Il problema si pone perché le due esigenze non hanno una relazione necessariamente armoniosa, ma tendono anzi a entrare in conflitto: ad esempio, per limitarsi alla tensione più evidente, il tentativo di sfruttare la capacità ordinante del diritto e di costruire un quadro di principi e di regole chiari e stabili, che rendano regolari i comportamenti dei privati, può andare a scapito dell’innovazione, irrigidendone i processi e limitandone i risultati. Qual è, allora, il punto di equilibrio che è preferibile individuare tra l’esigenza di stabilizzazione delle condotte dei privati attraverso il diritto e quella di promozione dell’innovazione?

Di questo problema, ovvio ma tutt’altro che semplice, la Commissione europea non offre una vera e propria soluzione. Piuttosto, si limita a proporne una possibile impostazione. Nel farlo, però, offre alcune indicazioni interessanti, che vale la pena mettere a fuoco. La posizione della Commissione può essere riassunta nella formula secondo la quale occorre garantire un quadro giuridico allo stesso tempo stabile e orientato all’innovazione. Il discorso si snoda nei seguenti passaggi. Anzitutto, la certezza del diritto è un’esigenza imprescindibile di qualunque ordinamento politico contemporaneo, perché dà stabilità ai comportamenti dei consociati. In secondo luogo, il diritto può operare, in principio, tanto come ostacolo all’innovazione quanto come meccanismo utile alla sua promozione. In terzo luogo, nell’ordinamento europeo, esiste, se­condo la Commissione, un vero e proprio principio giuridico, per quanto implicito, di innovazione: tale principio «can be deduced from the Treaties by systemic and teleological interpretation» (ad esempio, l’art. 3/3 del Trattato sul­l’Unione europea dispone che l’Unione «promuove il progresso scientifico e tecnologico»); e impone di «optimising the legal framework for innovation», ovvero di costruire una regolazione funzionale all’innovazione [27]. Infine, la Commissione propone che in alcuni casi particolari, quelli di applicazioni del­l’intelligenza artificiale considerate «ad alto rischio», debbano essere soggette a un nuovo quadro normativo, incentrati su molti obblighi specifici, relativi, tra l’altro, ai cosiddetti dati di addestramento dei sistemi di intelligenza artificiale e alla tenuta dei dati e dei registri [28].

Ciascun passaggio di questo ragionamento è problematico in sé: ad esempio, quanto è davvero convincente l’affermazione secondo la quale quello del­l’innovazione è un principio giuridico desumibile dai trattati? Ciò che qui interessa osservare, in ogni caso, è il campo di questioni che la complessiva posizione della Commissione apre: quali sono esattamente gli strumenti di regolazione capaci tanto di garantire la stabilità del quadro giuridico quanto di operare in funzione dell’innovazione? Possiamo limitarci a considerare le alternative consolidate, quali, ad esempio, la co-regolazione e gli strumenti previsti dalla Better Regulation Agenda [29]? Oppure la ricerca di una regolazione favorevole all’innovazione apre la strada a una serie di strumenti interamente nuovi? In questo secondo caso, quale valutazione si può dare degli strumenti prospettati dalla Commissione per gestire le applicazioni dell’intelligenza artificiale considerate «ad alto rischio»? E quale ruolo svolge, nell’insieme degli strumenti normativi, la «fiducia», termine che la Commissione e i suoi comitati usano con crescente frequenza [30]? Si tratta, come si vede, di questioni che non solo debbono essere affrontate e risolte se si vuole governare l’avvento dell’intelligenza artificiale, ma che sono anche destinate a ridefinire il campo della regolazione, intesa sia come insieme di strumenti sia come disciplina scientifica. La strategia sull’intelligenza artificiale, in altri termini, solleva problemi le cui implicazioni vanno al di là del proprio oggetto specifico.

La seconda questione riguarda la natura degli strumenti etici. Come si è detto, la Commissione e i suoi comitati – in particolare, il Gruppo indipendente di esperti ad alto livello – qualificano tali strumenti come orientamenti o ethical guidelines. La natura di questi strumenti, però, resta largamente indefinita, ad­dirittura confusa.

Non è chiaro, anzitutto, quale specifico significato la Commissione e i suoi comitati attribuiscano all’etica, nozione polisensa che può assumere più significati distinti, ancorché inevitabilmente connessi. Ad esempio, per limitarsi alle opzioni più ovvie, si tratta dell’«etica sociale», intesa come insieme dei valori e dei principi che compongono il codice comportamentale di un gruppo e che valgono a definirlo come comunità? O si tratta di un’«etica individuale», incentrata su convinzioni morali razionalmente costruite e capaci di vincolare il singolo indipendentemente dalla morale della comunità nella quale il singolo vive e opera? Nel caso in cui gli organismi europei si riferiscano, come parrebbe più ovvio, all’etica sociale, l’intento è quello di individuare una morale «positiva», già esistente, o di porre le basi per una morale da costruire per permettere al gruppo sociale rappresentato dai cittadini europei di resistere alla «crisi» prodotta dall’intelligenza artificiale? Per quanto pongano problemi complessi, tali questioni non possono essere eluse nel processo di costruzione di una politica pubblica che intenda utilizzare strumenti espressamente qualificati come etici: in assenza di tale riflessione, il ricorso a questi strumenti della strategia europea rischia di diventare semplicemente un non-sense.

Non è chiaro, inoltre, quale relazione si stia tracciando tra l’etica e il diritto. Secondo la Commissione e i suoi comitati, gli strumenti etici e quelli giuridici sono funzionalmente complementari, perché servono a realizzare finalità diverse all’interno di una strategia unitaria di adattamento all’intelligenza artificiale; e tuttavia, i due ordini di strumenti restano tra loro qualitativamente distinti, perché solo le linee guida etiche hanno contenuto apertamente morale. Ma questa posizione, per quanto apparentemente lineare, pone varie questioni che le autorità europee lasciano senza risposta. Se gli strumenti giuridici e quelli etici sono qualitativamente distinti ma funzionalmente collegati, operano gli uni in parallelo agli altri o interagiscono in qualche modo? In questo secondo caso, quali regole governano la loro interazione? Ad esempio, gli orientamenti etici devono plasmare il diritto? Oppure i principi giuridici resistono al­l’eti­ca o addirittura possono imporsi su di essa [31]? E ancora: siamo davvero si­curi che siano due strumenti nettamente distinti? Non si può affermare, più sem­plicemente, che gli strumenti etici sono in realtà norme giuridiche non vincolanti che hanno un contenuto apertamente morale, nel senso che suggerisco­no di tenere alcuni comportamenti considerati eticamente corretti al­l’in­terno di una morale di riferimento? In questo caso, si sarebbe in presenza di una situazione abbastanza classica di «imposizione della morale attraverso il diritto», che pone vari problemi: tra questi, è accettabile l’idea secondo la quale la circostanza che i principi siano percepiti come corretti dalla maggioranza di una comunità sia condizione sufficiente a giustificare la limitazione della libertà degli individui?

Come si vede, la strategia europea sull’intelligenza artificiale pone un problema complesso, che va risolto se si vuole che i suoi strumenti siano efficaci e raggiungano i propri scopi. Ma fa anche qualcosa di più: mette al centro della riflessione sulle trasformazioni dell’ordinamento europeo un problema classico della filosofia del diritto, quello del rapporto tra etica e diritto. Anche da questo punto di vista, la strategia sull’intelligenza artificiale mette in movimento una riflessione che va oltre l’intelligenza artificiale e riguarda il futuro del­l’Unione, di cui possiamo solo intravedere, per il momento, i contorni generali.

 


3.2. Gli Stati Uniti tra regolazione pubblica e tentativi di self-regulation

Nel contesto statunitense, gli strumenti utilizzati sono essenzialmente di due tipi, finanziari e regolatori. I primi rappresentano una componente fondamentale dell’azione pubblica orientata alla promozione dell’intelligenza artificiale e del mantenimento della leadership americana: gli investimenti sono aumentati, a partire dal 2015, del 40%; e il Selected Committee on AI del National Science and Technology Council sta aggiornando il piano per lo sviluppo e la ricerca dell’intelligenza artificiale anche alla luce dell’apporto offerto dagli attori privati e dagli utenti. Sono gli interventi regolatori, però, a presentare i profili di maggior interesse. La regolazione dell’intelligenza artificiale, infatti, combina una pluralità di interventi diversi. Lasciando da parte la ex post regulation, quella prodotta, cioè, dalle decisioni delle corti, che provvedono a regolare, sotto il profilo principalmente della responsabilità, le applicazioni dannose dell’intelligenza artificiale secondo un approccio case by case, i principali strumenti di ex ante regulation sono di due tipi: quelli qualificabili come interventi di regolazione pubblica, del Congresso e del potere esecutivo, e le iniziative di self-regulation, che hanno visto un crescente coinvolgimento dei giganti tech statunitensi, da Amazon a Google, da Microsoft ad Apple [32]. La loro sintetica illustrazione consente di mettere a fuoco l’articolazione della regolazione e i problemi che ciascun tipo di strumenti pone.

Quanto alla regolazione pubblica, essa consiste, anzitutto, nella elaborazione di proposte legislative da parte del Congresso. Si è già osservato come le iniziative di questa istituzione, per quanto espressione di una crescente preoccupazione per gli effetti negativi che le applicazioni dell’intelligenza artificiale possono avere sulla società, dalle possibili discriminazione alla violazione di diritti fondamentali, alle implicazioni in termini di accountability, non diano luogo a un approccio di tipo precauzionale, ma riflettano, piuttosto, un approccio orientato a non pregiudicare l’innovazione [33]. Si può aggiungere, ora, che l’azione del Congresso sconta, rispetto al rapido evolversi dei sistemi di intelligenza artificiale, la lentezza, la macchinosità e la rigidità dei processi legislativi: un limite che apre inevitabilmente la strada a legislazioni amministrative, che istituiscono nuovi apparati o stabiliscono normative di principio, entro le quali troverà collocazione la regolazione amministrativa delle agenzie federali.

Tra le proposte già tradotte in legge, non molto numerose, va segnalato, anche per le sue implicazioni organizzative, il John S. McCain National defense Authorization Act for Fiscal Year 2019, con il quale è stata disposta la crea­zione della National Security Commission on Artificial Intelligence che ha importanti funzioni di consulenza per il Dipartimento della Difesa con riferimento ai possibili effetti legati all’intelligenza artificiale per la sicurezza nazionale. La composizione di tale organo consultivo è degna di nota per il coinvolgimento di soggetti privati (tra i quindici Commissioners siedono responsabili della ricerca di tech companies quali Google e Amazon, oltre a numerosi esponenti dell’accademia) ed è esemplificativa della partnership pubblico-privato ritenuta essenziale nella strategia regolatoria americana. Essa ha già iniziato i propri lavori e presenterà al Congresso e alla Casa Bianca il suo report finale nel corso del 2020 [34].

I disegni di legge di maggiore impatto, invece, includono l’Algorithmic Accountability Act, dell’aprile 2019, teso ad imporre alle società delle analisi di impatto degli algoritmi e degli specifici obblighi di explainability e transparency, con conseguenti oneri di revisione e ritiro dei propri prodotti difettosi (perché inaccurati, discriminatori, scorretti). Rilevano poi, per la loro portata generale, l’AI in Government Act, che affida alle agenzie federali il compito di esplorare in ogni settore di azione pubblica l’impatto dell’intelligenza artificiale e crea un Centro di eccellenza teso a coordinare l’azione delle diverse amministrazioni federali; e l’Artificial Intelligence Act, il quale, oltre a disporre l’allocazione di 2,2 bilioni di dollari per accelerare ricerca e sviluppo nel settore del­l’in­tel­ligenza artificiale, prevede la creazione di tre nuovi organismi con competenze ad hoc: il National Coordination Office, responsabile del coordinamento dell’at­tività legislativa del Congresso in materia di intelligenza artificiale; il National Advisory Committee e lo Interagency Committee on AI, per il coordinamento delle attività di ricerca e formazione delle agenzie federali. Nel 2019 è stato presentato in Senato anche il Commercial Facial Recognition Privacy Act, che intende vietare l’impiego di sistemi di riconoscimento facciale ad organismi o soggetti diversi dall’amministrazione federale, traendo esplicita ispirazione dal­l’RGPD europeo. La presentazione di questa proposta ostile alla commerciabilità generalizzata dei sistemi di riconoscimento facciale ha prodotto una reazione da parte dei soggetti coinvolti nella loro produzione: Jeff Bezos, in particolare, ha preannunciato un’iniziativa delle maggiori tech corporations per l’elaborazione di una propria regulation per i sistemi di riconoscimento facciale da condividere con il Congresso [35].

La regolazione pubblica, in ogni caso, non si esaurisce nelle attività del Congresso. Anche l’amministrazione Trump, con l’executive order del febbraio 2019, già ricordato, ha dato impulso ad un piano strategico per la ricerca e lo sviluppo dell’intelligenza artificiale. Si tratta del National AI Research and Development Strategic Plan 2019, del giugno 2019, che poggia su varie direttrici, inclusi la comprensione delle implicazioni giuridiche, etiche, sociali del­l’in­tel­ligenza artificiale, la valutazione dell’intelligenza artificiale attraverso benchmarks e standards, la promozione della partnership pubblico/privata.

Queste azioni previste dal piano strategico richiedono uno sforzo di coordinamento delle iniziative complessive delle agenzie e dei dipartimenti federali, chiamati ad incorporare al proprio interno gli obiettivi così fissati. Almeno per il momento, però, non è prevista la creazione di una nuova agenzia federale per l’intelligenza artificiale, che pure era stata auspicata dalla scienza giuridica co­me soluzione organizzativa ideale per poter mettere in campo una regolazione flessibile, competente, e neutrale rispetto al potere politico [36]. Occorre attendersi, dunque, soprattutto interventi di portata settoriale, volti ad adattare la missione delle agenzie agli sviluppi dell’intelligenza artificiale. In questa pro­spettiva, ad esempio, le agenzie hanno proposto rules per facilitare l’in­tegra­zione dei veicoli a guida autonoma sulle highways: in particolare la National Highway Traffic Safety Administration (NHTSA) ha avviato nel maggio del 2019, su richiesta della General Motors, una procedura di notice and comment per l’adozione di rules per la rimozione delle regulatory barriers relative alla circolazione della auto a guida autonoma (là dove la disciplina impone il controllo manuale o comunque le abilità di un umano). Nel settore sanitario, ancora, è stato adottato dalla Federal Drug Administration (FDA) un libro bian­co (Potential Regulatory Framework) su software as medical Device (SaMD) che consente di prefigurare il successivo quadro regolatorio, anche attraverso la costruzione di un progetto pilota che stabilisce (già dal 2017) l’attribuzione alla FDA di poteri di pre-certificazione dei prodotti (medical device) che usano sistemi di intelligenza artificiale.

Quanto alla self-regulation, le iniziative che vanno in questa direzione sono il frutto dell’attenzione posta alla partnership pubblico-privato e riflettono un approccio già emerso in tema di cybersecurity, quando il Congresso aveva approvato leggi quale il Cybersecurity Information Sharing Act del 2015 (S. 754) [37].

Un importante tentativo di self-regulation, sebbene il termine non compaia nei documenti siglati dai soggetti che vi partecipano, è rappresentato dalla Partnership on AI for the Benefit of People and Society, stabilita il 28 settembre 2016 dalle maggiori tech companies americane, quali Amazon, Google, Deepmind, Facebook, IBM, Microsoft, e poi ampliatasi con Apple e altre organizzazioni della società civile, dell’accademia e del mondo produttivo. Essa si fonda su vari principi che dovrebbero guidare l’azione dei soggetti che vi hanno aderito, che contemplano tra l’altro l’impegno a non violare la privacy e i diritti degli utenti e della società civile, a rispettare gli interessi di tutte le parti interessate dagli effetti dei sistemi di intelligenza artificiale, a preservare la sicurezza degli individui.

Proprio questo esempio, però, mostra i possibili punti di debolezza delle iniziative di self-regulation. Perché questi principi e finalità siano effettivamente rispettati, infatti, occorrono alcune condizioni: ricercatori e sviluppatori dei sistemi di intelligenza artificiale dovrebbero essere adeguatamente motivati nel rispettarli, andrebbe istituito un organismo indipendente di monitoraggio del sistema, andrebbe assicurata la trasparenza interna ed esterna, andrebbero previsti meccanismi di enforcement credibili [38]. Ma la storia di questa partnership induce a non essere fiduciosi sulla meritevolezza di questa iniziativa e sulla sua capacità di garantire una regolazione effettiva. Si segnalano almeno tre episodi di violazione dei principi cui non è seguita alcuna concreta operazione di correzione o revisione. Una fuga di notizie, anzitutto, ha rivelato nel marzo 2018 che Google stava cooperando con il Pentagono per la fornitura di tecnologia di intelligenza artificiale per droni, causando proteste tra i propri ricercatori e nella più ampia comunità degli scienziati di intelligenza artificiale, molti dei quali si erano impegnati personalmente a contrastare lo sviluppo di armi automatiche letali (Lethal Autonomous Weapons LAWs). Nel luglio del 2018, in secondo luogo, una investigazione condotta da uno dei membri della partnership (ACLU) ha rivelato che un programma di riconoscimento facciale venduto da Amazon ha operato numerosi falsi riconoscimenti all’interno del Congresso, con una percentuale di errore particolarmente elevata con riguardo ai membri di colore, dimostrando la portata discriminatoria di un sistema di intelligenza artificiale destinato ad essere impiegato da numerosi dipartimenti di polizia in tutti gli Stati Uniti [39]. Ancora nel luglio 2018, documenti interni di IBM hanno dimostrato che il proprio Watson Health Service raccomandava trattamenti oncologici erronei [40]. Va poi considerato lo scandalo Cambridge Analytica con il coinvolgimento di Facebook. Rispetto a tali vicende, la partnership non ha saputo dare alcuna risposta efficace. E del resto, non è stata dotata di alcun meccanismo strutturale atto a sanzionare le condotte contrastanti con i principi che la connotano.


4. L’impatto sul sistema giuridico

4.1. Sul versante europeo: una spinta verso la trasformazione o la con­servazione?

L’analisi svolta nei paragrafi precedenti rispetto alle finalità e agli strumenti degli interventi dell’Unione europea e degli Stati Uniti in materia di intelligenza artificiale può essere sviluppata, ora, attraverso l’esame dell’impatto che l’a­zione di ciascuno dei due ordinamenti produce sul proprio sistema giuridico.

Quanto all’Unione europea, si registrano due tendenze principali, tra loro contraddittorie. La prima sembra spingere nella direzione di una trasformazione del sistema giuridico, l’altra confermarne i tratti consolidati.

Gli esempi della prima tendenza, quella a porre in essere misure che affiancano a contenuti tradizionali altri fortemente innovativi, sono numerosi. Si considerino gli interventi con finalità di regolazione sociale. Alcuni di questi interventi, che si realizzano essenzialmente con strumenti normativi, sono pienamente coerenti con la tradizione consolidata della regolazione sociale in Europa: è il caso, ad esempio, della disciplina della sicurezza dei prodotti e dei servizi che usano l’intelligenza artificiale, che viene sviluppandosi intorno a schemi tipici del diritto amministrativo europeo, quali la previsione di standard di sicurezza, la messa a punto di procedure di autorizzazione all’immissione in commercio e lo svolgimento di controlli da parte di amministrazioni specializzate; è il caso, ancora, della disciplina della responsabilità civile, ad esempio per i danni causati da prodotti difettosi. Accanto a tali interventi di stampo tradizionale, però, ve ne sono altri che hanno contenuti innovativi e rappresentano degli sviluppi potenzialmente originali: tra questi, ad esempio, quelli che prefigurano la formazione di nuovi principi giuridici, come il principio della trasparenza e della comprensibilità degli algoritmi [41]; gli interventi che potrebbero ridefinire alcuni diritti fondamentali, come il diritto alla dignità previsto dall’art. 1 della Carta dei diritti fondamentali dell’Unione europea [42]; gli interventi che prospettano nuove discipline, come la messa a punto di regimi di accountability dei soggetti privati e l’individuazione di obblighi particolari nel caso di applicazioni dell’intelligenza artificiale «ad alto rischio».

Questi sviluppi più originali sono già oggetto di diversi studi analitici, che ne esaminano nel dettaglio i singoli aspetti. Alle analisi specifiche, però, occorre affiancare una ricostruzione d’insieme, volta a spiegare se gli sviluppi riguardino ambiti distinti del sistema giuridico o se non tendano, piuttosto, a fare sistema tra loro. Si può senz’altro affermare che il tentativo di gestire la «crisi» prodotta dall’intelligenza artificiale attraverso interventi di regolazione sociale produca varie innovazioni giuridiche. Ma occorre capire se tutto ciò produca un diritto almeno in parte nuovo: se il sistema giuridico, cioè, sia in trasformazione non solo in conseguenza delle molteplici sollecitazioni dell’ultimo decen­nio, come la crisi economica e finanziaria, la crisi migratoria e il riposizionamento dell’Unione nel contesto dello spazio giuridico globalizzato, ma anche per effetto della strategia sull’intelligenza artificiale; e se l’eventuale trasformazione del sistema giuridico sia effettivamente in grado di governare i problemi creati dall’avvento della intelligenza artificiale.

La seconda tendenza principale riguarda i contenuti degli interventi con finalità di regolazione etica e ha un andamento inverso a quella precedente. Gli interventi etici, infatti, definiscono uno spazio di intervento che sembra avere contenuti fortemente innovativi. Ma non è affatto chiaro che la promessa di novità sia effettivamente mantenuta. Come si è già osservato, seppure solo in for­ma di ipotesi, gli strumenti qualificati come etici dalla Commissione e dai suoi organismi serventi potrebbero essere ricostruiti quali norme giuridiche non vincolanti che hanno un contenuto apertamente morale, nel senso che sug­geriscono di tenere comportamenti considerati eticamente corretti al­l’in­ter­no di una morale di riferimento [43]. Si può aggiungere, ora, che l’esame dei con­tenuti di questi strumenti fa sorgere il dubbio che i loro contenuti siano sem­pre davvero morali. Ci si può chiedere, in altri termini, se gli strumenti defi­ni­ti etici si facciano sempre realmente carico dell’insieme dei valori e dei princi­pi intorno ai quali viene costruito il codice comportamentale del gruppo socia­le sul quale l’Unione si fonda o dovrebbe fondarsi. O se alcuni contenuti, in­vece, non rispondano a questioni diverse, come quelle relative ai diritti e ai doveri dei soggetti dell’or­di­na­mento e ai modi di funzionamento dei processi decisionali.

Nel documento Orientamenti etici per un’IA affidabile, elaborato nel 2019 dal Gruppo indipendente di esperti ad alto livello [44], ad esempio, i principi definiti come «imperativi etici», che includono il rispetto dell’autonomia umana, la prevenzione dei danni, l’equità e la esplicabilità, presentano un contenuto che è anche solo intuitivamente riconoscibile come etico. Ma quando si passa al piano delle pratiche operative – che includono, tra l’altro, i requisiti, i metodi tecnici e non tecnici, i modi della valutazione – il carattere morale dei contenuti risulta assai meno evidente: se in alcuni casi gli interventi sono direttamente legati a questioni etiche (è il caso, ad esempio, dei requisiti che servono a prevenire la discriminazione), in altri sono legati soprattutto ai modi di funzionamento del sistema sociale (come avviene per i requisiti che servono a garantire la partecipazione e la trasparenza e a permettere l’accountability dei soggetti privati). L’intervento dell’Unione, insomma, dichiara di avere una finalità propriamente etica. Gli strumenti utilizzati a questo scopo, però, sembrano, in fin dei conti, giuridici. E i contenuti dell’intervento sono solo in parte propria­mente etici. Di qui la domanda: l’Unione sta forse presentando come nuovo qualcosa che è, invece, riconducibile alla tradizione? Oppure sta versando vino nuovo in otri vecchi? In questo secondo caso, come dovrebbe correggere la propria azione?


4.2. L’esperienza statunitense: verso una regolazione minima

Sul versante statunitense, la tendenza che si prefigura discende da quanto detto nell’analisi degli strumenti regolatori [45].

Nel complessivo gioco di forze rientra, anzitutto, il Congresso. Come si è detto, l’attività di questa istituzione sconta la complessità dei processi legislativi, troppo lenti e rigidi per tenere il passo dell’innovazione nei sistemi di intelligenza artificiale. Ciò ha spinto il Congresso a mettere a punto legislazioni con un forte contenuto amministrativo, sia perché istituiscono nuovi organismi specializzati, sia perché stabiliscono normative di principio la cui attuazione dipende dal rule-making amministrativo delle agenzie federali. Occorre riconoscere, però, che l’azione del Congresso non è stata, sin qui, particolarmente inno­vativa. Sul piano sostanziale, il Congresso ha sia proceduto al­l’adat­tamento ai sistemi di intelligenza artificiale di normative già sperimentate, sia tentato di introdurre principi e regole inedite, come il principio di explainability riferito agli algoritmi machine-learning, ma non ha prodotto, per il momento, trasformazioni radicali del diritto esistente. Quanto al quadro organizzativo, il Congresso ha istituito nuovi organismi, ma non ha ancora compiuto una scelta chiara su quale sia il soggetto responsabile dello sviluppo e della ricerca sul­l’intelligenza artificiale.

L’azione del potere esecutivo, invece, richiede uno sforzo di coordinamento delle varie iniziative delle amministrazioni federali, che debbono dare attuazione agli obiettivi definiti nella strategia delineata con l’executive order del febbraio 2019 e il successivo National AI Research and Development Strategic Plan 2019. In assenza di una nuova agenzia federale per l’intelligenza artificiale, tuttavia, vi è il rischio che gli interventi siano soprattutto settoriali, come mostrano le proposte presentate dalle agenzie competenti nel settore dei trasporti e della sanità, già richiamate.

Su un piano più generale, poi, la fiducia che l’amministrazione Trump ripone nelle potenzialità dell’intelligenza artificiale spinge a limitare l’intervento regolativo. Il medesimo approccio aveva animato anche la precedente amministrazione Obama, per la quale l’intelligenza artificiale era sinonimo di innovazione e sviluppo, aveva grandi potenzialità benefiche per il pubblico e appariva in grado di far fronte ad alcune delle «world’s greatest challenges and inefficiencies» [46]. La fiducia nei sistemi di intelligenza artificiale e nei relativi sviluppi commerciali si traduceva allora e si traduce ancora in un’azione regolatoria minima, tesa a favorire «a thousand flowers to bloom» più che a limitare gli sviluppi e la ricerca per via delle potenziali applicazioni dannose [47]: come è stato rilevato, dunque, si può ritenere che il modo di intendere l’intelligenza artificiale del governo statunitense sia «one that relies heavily on the liberal notion of the free market» [48]. Alla medesima logica risponde anche il recente Memorandum formulato dal White House Office of Science and Technologies Policy (OSTP), rivolto alle agenzie e ai dipartimenti del governo federale [49]: esso mira a fissare, infatti, vari principi che l’amministrazione deve rispettare quando intende adottare rules volte a regolare l’impiego o lo sviluppo dell’in­telligenza artificiale da parte del settore privato. In particolare, le agenzie federali «must avoid regulatory or non-regulatory actions that needlessly hamper AI innovation and growth. Where permitted by law, when deciding whether and how to regulate in an area that may affect AI applications, agencies should assess the effect of the potential regulation on AI innovation and growth». Le agenzie federali, ancora, debbono evitare «a precautionary approach that holds AI systems to such an impossibly high standard that society cannot enjoy their benefits. Where AI entails risk, agencies should consider the potential benefits and costs of employing AI, when compared to the systems AI has been designed to complement or replace».

Il gioco di forze che si crea tra questo hands-off approach della regolazione pubblica, da un lato, e le difficoltà del processo legislativo, dall’altro, sembrerebbe aprire un ampio spazio alla self-regulation. L’esperimento condotto attraverso la Partnership on Artificial Intelligence sopra richiamata, tuttavia, appare totalmente inadeguato: al di là dei generalissimi principi posti a fondamento della Partnership, tanto condivisibili quanto vaghi, l’iniziativa ha mostrato la propria ineffettività, mancando sia di strumenti efficaci di enforcement, sia di antidoti capaci di contrastare le palesi violazioni da parte dei suoi membri dei principi cardine posti alla base della partnership.

Nel complesso, il processo regolatorio statunitense sembra orientato verso un approccio leggero, volto in sostanza alla ricerca e allo sviluppo dell’in­tel­ligenza artificiale, anche a scapito dell’introduzione di limiti e logiche precauzionali che rischierebbero di produrre un’inibizione nello sviluppo dei sistemi di intelligenza artificiale e di creare una posizione di svantaggio competitivo degli Stati Uniti rispetto a paesi che abbracciano una regolazione meno rights-oriented e più spregiudicata. Si tratta di un orientamento senz’altro coerente con l’esigenza di garantire la leadership statunitense, ma che rischia di favorire l’affermazione della non-regulation cinese come benchmark di riferimento nello spazio giuridico globalizzato.


5. Sentieri che si biforcano

Nelle pagine precedenti, si è proposta una sintetica rappresentazione dei modi in cui le istituzioni politico-amministrative dell’Unione europea e degli Stati Uniti vengono elaborando una propria strategia in materia di intelligenza artificiale. Per ricostruire i modi di azione dei due ordinamenti, sono state considerate dapprima le finalità dei loro interventi, quindi gli strumenti utilizzati per il loro raggiungimento, infine i contenuti delle misure poste in essere. Questa prospettiva a volo d’uccello, interessata a ottenere una visione d’insieme piuttosto che a mettere a fuoco particolari e dettagli, ha permesso di individuare i tratti essenziali delle due strategie, europea e statunitense, facendone emergere il disegno complessivo. Occorre, ora, chiudere il cerchio di questa indagine, chiedendosi quali siano le somiglianze e le differenze tra i due processi in corso.

L’analisi svolta, in primo luogo, mostra alcune importanti divergenze tra le finalità della strategia dell’Unione europea e di quella statunitense. Per cominciare, sono diverse le premesse sulle quali le due strategie si fondano. Nella prospettiva europea, sviluppata soprattutto dalla Commissione e dai suoi comitati serventi, l’avvento dell’intelligenza artificiale è tematizzato come una «crisi», vale a dire come un evento destinato a produrre una trasformazione profonda dell’economia e della società, le cui implicazioni restano almeno in parte imprevedibili e che non può essere gestito attraverso gli strumenti istituzionali esistenti. Questa crisi, naturalmente, porta con sé anche un’occasione positiva di trasformazione e di sviluppo. Ma si aggiunge alle altre crisi nelle quali è da almeno un decennio avviluppata l’Unione europea e si presenta, prima di ogni altra cosa, come un insieme di problemi da risolvere. Nella prospettiva statunitense, invece, prevale una forte fiducia nelle potenzialità del­l’intelligenza artificiale, presentata dalle istituzioni federali come un formidabile strumento di sviluppo economico e sociale, potenzialmente capace di gestire molti problemi globali.

Questa diversità degli orientamenti di fondo si riflette sulle finalità delle due strategie. Quella europea punta a un equilibrio ambizioso tra due diverse esigenze, quella di promuovere lo sviluppo dell’intelligenza artificiale e quella di governare il suo impatto facendosi carico di alcune dimensioni essenziali della struttura della società europea. Dall’altra parte dell’Oceano, invece, il macro-obiettivo sotteso ai vari interventi delle istituzioni politiche statunitensi è in sostanza rappresentato dallo sviluppo dell’intelligenza artificiale a vantaggio della leadership degli Stati Uniti nello spazio politico, economico e militare internazionale. Una simile divergenza tra le finalità delle azioni europea e statunitense si spiega in relazione alle complessive tradizioni politiche dei due ordinamenti: mentre la leadership degli Stati Uniti rappresenta storicamente un elemento fondamentale dell’agenda politica americana, il problema della rilevanza geopolitica dell’Unione su scala globale è divenuto rilevante solo nel­l’ul­timo decennio nella discussione politica europea, nella quale continua a essere, comunque, relativamente marginale, laddove restano centrali le finalità di re­golazione sociale, relative alla qualità della vita dei singoli che vivono e operano nello spazio socio-economico del mercato interno. Se la divergenza tra le macro-finalità riflette una differenza di fondo tra le politiche storicamente consolidate dei due ordinamenti, peraltro, non è detto che le strategie messe a punto da questi ultimi si limitino a restare nell’alveo della tradizione. Nel caso dell’Unione, infatti, gli obiettivi individuati dalla Commissione introducono alcune innovazioni importanti rispetto al passato, perché aprono l’agenda politica europea a due finalità, quelle di welfare e quelle che si sono chiamate di regolazione etica, sin qui del tutto laterali nel processo di integrazione europea.

Poiché le finalità sono differenti, ancora, sono differenti i problemi che si pongono nei due ordinamenti. La trama funzionale dell’azione dell’Unione solleva varie questioni, che spaziano dalla individuazione degli obiettivi specifici di welfare alla compatibilità della regolazione etica con il tradizionale impianto liberale della costituzione europea, alla effettiva capacità delle istituzioni europee di far coesistere armonicamente le varie dimensioni nelle quali si snoda il macro-obiettivo di cui si è detto. La strategia statunitense, invece, pone soprattutto il problema del limitato interesse del potere esecutivo, rispetto ai rischi che l’im­piego dell’intelligenza artificiale produce sui diritti fondamentali dei cittadini: un problema che è solo attenuato dai segnali di maggiore attenzione alla salvaguardia delle libertà individuali che vengono dalle iniziative del Congresso.

Un secondo ordine di considerazioni comparate riguarda gli strumenti utilizzati dai due ordinamenti, Unione europea e Stati Uniti, per realizzare le finalità delle proprie strategie. Anche in questo caso, l’analisi svolta fa emergere importanti differenze tra i due processi in corso. Entrambe le strategie fanno ricorso a una pluralità di strumenti e utilizzano sia i finanziamenti, utili soprattutto a sostenere lo sviluppo dell’intelligenza artificiale, sia gli strumenti normativi, che spaziano dall’adozione di legislazioni al rule-making amministrativo. Ciascuno dei due ordinamenti, però, usa questi strumenti a modo proprio: ad esempio, le normative statunitensi hanno un marcato carattere amministrativo, perché istituiscono nuovi apparati o pongono discipline che dovranno essere attuate attraverso la regolazione amministrativa delle agenzie federali, mentre le normative dell’Unione incidono meno sulla struttura del sistema amministrativo europeo e, in ogni caso, non implicano direttamente un rafforzamento del­l’amministrazione sovranazionale. Inoltre, e soprattutto, la strategia europea e quella statunitense divergono là dove puntano su due strumenti qualitativamente diversi: accanto ai finanziamenti e agli strumenti di regolazione pubblica, infatti, l’Unione mostra di voler utilizzare anche strumenti etici, qualificati come orientamenti o guidelines, mentre l’approccio statunitense, sia per l’im­portanza che Congresso e potere esecutivo attribuiscono alla partnership pub­blico-privato, sia per i limiti della regolazione pubblica, lascia un ampio spazio al mercato e alla self-regulation. Si tratta di una reale e importante differenza tra il processo europeo e quello statunitense: tanto gli orientamenti eti­ci quanto la self-regulation si presentano come strumenti per ovviare ai limiti del­la regolazione pubblica: ma offrono due soluzioni radicalmente diverse, una, quella degli orientamenti etici, volta ad affrontare questioni che sembrano sfuggire alla capacità ordinante del diritto, l’altra, quella della self-regulation, orientata a sfruttare le potenzialità di uno strumento giuridico peculiare come la regolazione della sfera privata. Di qui anche la specificità dei problemi che si pongono nei due ordinamenti, esemplificati dalla discussione sugli inconvenienti della self-regulation nell’esperienza statunitense.

Se i sentieri sembrano biforcarsi, peraltro, occorre essere consapevoli del fatto che le vie battute da Unione europea e Stati Uniti potrebbero tornare a incrociarsi nel prossimo futuro. La self-regulation, infatti, è tutt’altro che estranea alla tradizione giuridica dell’ordinamento europeo e potrebbe essere utilizzata anche rispetto all’intelligenza artificiale, anche sfruttando l’esperienza di co-regolazione svolta, per quanto in modo embrionale, da alcuni organismi che affiancano la Commissione e che prevedono una costante interazione con i soggetti privati. Allo stesso modo, la dimensione etica non è estranea alla strategia statunitense, come mostra, ad esempio, la risoluzione adottata dal Con­gresso nel 2019 volta a promuovere l’approvazione di linee guida etiche per assicurare uno sviluppo responsabile, sicuro, democratico, pubblico, accountable dei sistemi di intelligenza artificiale [50]. A ciò si aggiunge che l’uso di strumenti etici da parte dell’Unione potrebbe rivelarsi assai meno originale di quanto non appaia a prima vista: come si è detto, non solo si può dubitare che gli orientamenti etici siano qualitativamente distinti dagli strumenti giuridici, ma si può anche osservare come i loro contenuti siano solo in parte propriamente etici.

L’esame svolto in questo scritto, in terzo luogo, mette in luce la differenza che esiste tra le due strategie quanto all’impatto sul sistema giuridico. Le istituzioni europee riconoscono apertamente la rilevanza degli strumenti giuridici e l’arric­chimento del sistema giuridico che potrebbe discendere dal loro uso. Anche il ricorso a strumenti etici influenza i caratteri del sistema giuridico, giacché, come si è ricordato anche nel capoverso precedente, gli strumenti qualificati come etici non sono nettamente distinguibili da quelli giuridici per forma o contenuti, nonostante le dichiarazioni di principio della Commissione e dei suoi comitati. Negli Stati Uniti, invece, il gioco di forze che si realizza tra difficoltà del processo legislativo, hands-off approach della regolazione pubblica e limiti della self-regulation determina, in definitiva, un approccio orientato alla regolazione minima, in funzio­ne quasi esclusivamente dello sviluppo del­l’intelligenza artificiale.

Questa differenza di fondo tra i due approcci – uno, quello europeo, aperto alle innovazioni giuridiche, l’altro, quello statunitense, volto a limitare e contenere la regolazione dell’intelligenza artificiale – si riflette, poi, sui problemi che strategie europea e statunitense incontrano. Nell’ordinamento europeo, diventa urgente misurare le innovazioni che si vengono introducendo, ricostruirne la portata rispetto agli assetti consolidati del sistema giuridico dell’Unione e valutare se le nuove discipline siano o meno funzionali rispetto agli obiettivi che la regolazione europea vuole realizzare. Negli Stati Uniti, invece, la questione principale è quella delle conseguenze e delle implicazioni di un approccio regolatorio minimo, tanto sul versante domestico quanto su quello più ampio dello spazio giuridico e politico globalizzato.

Le strategie che Unione europea e Stati Uniti stanno mettendo a punto in materia di intelligenza artificiale, insomma, sembrano divergenti sotto vari punti di vista: pur presentando somiglianze su specifici aspetti, perseguono obiettivi nel complesso differenti, che riflettono tradizioni politiche differenti, usano strumenti almeno in parte diversi tra loro e incidono in modi diseguali sul sistema giuridico. Questa conclusione è utile per mettere in prospettiva l’operato di ciascuno dei due ordinamenti: dal punto di vista degli studi sulla integrazione europea, ad esempio, rileva le specificità dell’approccio dell’Unione e permette di impostare una discussione critica sulla utilità della sua strategia. Aiuta, inoltre, a inquadrare la riflessione sulle relazioni che esistono, nello spazio giuridico e politico globalizzato, tra gli ordinamenti che più degli altri stanno intervenendo nella materia dell’intelligenza artificiale. Allo stesso tempo, la conclusione rappresenta solo un punto di approdo provvisorio e del tutto preliminare di una riflessione comparata che resta aperta in numerose direzioni. Essa solleva, infatti, ulteriori quesiti, di cui ulteriori indagini comparate dovranno farsi carico con lenti più precise di quelle qui utilizzate. Quanto possono dirsi già definite e consolidate, ad esempio, le strategie sin qui elaborate da Unione europea e Stati Uniti? E quanto non sono, invece, fluide, ancora in corso di costruzione? I due approcci esistono in parallelo, come presupposto da questo scritto, o interagiscono e dialogano, anche solo indirettamente? In questo secondo caso, quali sono i canali attraverso i quali si svolge il dialogo? Rilevano, ad esempio, i sistemi regolatori globali? E quale influenza esercita un modello sull’altro? È un’influenza destinata a limitare la divergenza e ad avvicinare almeno un poco le due strade?


NOTE

[1] COM(2018) 237.

[2] COM(2018) 795.

[3] Si vedano, rispettivamente, le conclusioni del Consiglio europeo del 28 giugno 2018, disponibili alla pagina https://www.consilium.europa.eu/media/35947/28-euco-final-conclusions-it.pdf, e la dichiarazione dal titolo Cooperation on Artificial Intelligence, Bruxelles, 10 aprile 2018.

[4] COM(2020) 65. Il libro bianco è accompagnato dalla relazione della Commissione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità, COM(2020) 64, dalla comunicazione intitolata Una strategia europea per i dati, COM(2020) 66, e dal documento Shaping Europe’s Digital Future, disponibile alla pagina https://ec.
europa.eu/
info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_4.pdf.

[5] Si segnala, tra i pochi contributi, quello di C. Cath-S. Watcher-B. Mittelstadt, M. Taddeo-L. Floridi, Artificial Intelligence and the “Good Society”: the US, EU and UK approach, in Science and Engineering Ethics, 2018, 2, p. 505 ss.

[6] Si veda, per una formulazione relativamente chiara di questo punto di vista, il documento Artificial Intelligence. A European Perspective, pubblicato dal Joint Research Centre della Commissione europea nel 2018 e disponibile alla pagina https://publications.jrc.ec.europa.eu/repository/bitstream/
JRC113826/ai-flagship-report-online.pdf.

[7] La letteratura sulla crisi multidimensionale sull’Europa è ormai molto abbondante. Si vedano, a titolo esemplificativo, E. Chiti-A.J. Menéndez -P.G. Teixeira (a cura di), The European Rescue of the European Union? The Existential Crisis of the European Political Project, E. Chiti-A.J. Menéndez-P.G. Teixeira (a cura di), Arena Report No 3/12 e Recon Report No 19, 2012; J.H.H. Weiler, Europe in Crisis – On ‘Political Messianism, ‘Legitimacyand the ‘Rule of Law, in Singapore Journal of Legal Studies, 2012, p. 248 ss.; G. Majone, The Deeper Euro-Crisis or: The Collapse of the EU Political Culture of Total Optimism, EUI Working Paper LAW 2015/10.

[8] Le finalità di regolazione sociale emergono in varie normative europee, tra cui il regolamento generale sulla protezione dei dati (RGPD), e negli aggiornamenti e nelle nuove interpretazioni che la Commissione sta promuovendo delle discipline esistenti, esemplificati dai documenti in corso di elaborazione in materia di sicurezza dei prodotti e responsabilità. Per una discussione del RGPD come strumento per governare l’innovazione, si rinvia a G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del diritto, 2019, p. 199 ss.; e i contributi raccolti in F. Pizzetti (a cura di), Intelligenza ar­ti­ficiale, protezione dei dati personali e regolazione, Torino, Giappichelli, 2018. Sulla specifica questione del consumo energetico, si veda in particolare il documento Artificial Intelligence. A European Perspective, cit. n. 6, p. 95 ss.

[9] Le indicazioni più chiare sono contenute in due comunicazioni della Commissione già richiamate: quella che presenta una «iniziativa» europea sull’intelligenza artificiale, COM(2018) 237, p. 6 ss.; e il libro bianco pubblicato nel febbraio 2020, COM(2020) 65, p. 5 ss., ove si presentano le proposte funzionali alla costruzione di un «ecosistema di eccellenza».

[10] Si veda, di nuovo, la comunicazione della Commissione COM(2018) 237, pp. 12-15.

[11] Questa prospettiva è sviluppata, tra l’altro, nella comunicazione della Commissione COM (2019), p. 168.

[12] Per una discussione complessiva della rilevanza dell’innovazione nei sistemi amministrativi, F. Costantino, Rischi e opportunità del ricorso delle amministrazioni alle predizioni dei big data, in Diritto pubblico, 2019, p. 43 ss.

[13] Come è noto Elon Musk è CEO di Tesla, Spacex, e Neuralink. La sua dichiarazione è riportata da M.U. Scherer, Regulating Artificial Intelligence systems.: Risks, Challenges, Competencies and Strategies, in Harv. J. Law & Tec., 2016, 29, p. 353 ss.

[14] N. Petit, Law and Regulation of AI and Robots: Conceptual Framework and Normative Implications, working paper, disponibile alla pagina https://papers.ssrn.com/sol3/papers.cfm?
abstract
_id=2931339; J. Danaher, Is Effective Regulation of AI Possible? Eight Potential Regulatory Problems, disponibile alla pagina https://perma.cc/2gbn-Fvmm.

[15] S.J. Russell-P. Norvig, Artificial Intelligence, A Modern Approach, 3 ed., Edinburgh Gate, Pearson, 2016, ora anche nella traduzione italiana, Intelligenza artificiale. Un approccio moderno, a cura di F. Amigoni, Edinburgh Gate, Pearson, 2010.

[16] La stessa indeterminatezza si ritrova in definizioni più generali come quella di macchina che agisce come Rational Agent o nella definizione circolare fatta propria da Scherer secondo cui «AI refers to machines that are capable of performing tasks that, if performed by a human, would be said to require intelligence».

[17] Sui problemi giuridici specifici collegati all’impiego della robotica v., tra i molti, J. Balkin, The Path of Robotics Law, in Cal. L. Rev. Circuit, 2015, 6, p. 46 ss.

[18] O.J. Erdélyi e J. Goldsmith, Regulating Artificial Intelligence: Proposal for a Global Solution, Aies Conference, disponibile alla pagina https://www.aies-conference.com/2018/contents/
papers/main/Aies_2018_paper_13.pdf.

[19] G.C. Allen-M.C. Horowitz-E.B. Kania-P. Scharre, Strategic Competition in an Era of Artificial Intelligence, Center for a New American Security, 2018, disponibile alla pagina https://www.in
dexinvestor.com/resources/Research-Materials/NatSec/Strategic_Competition_in_Era_of_AI.pdf.

[20] È il caso ad esempio della legge che ha istituito la National Security Commission on Artificial Intelligence (National Defense Authorization Act for Fiscal Year 2019), la quale prevede che la Commissione, nell’esercizio dei suoi compiti, consideri «The competitiveness of the United States in artificial intelligence, machine learning, and other associated technologies, including matters relating to national security, economic security, public-private partnerships, and investments».

[21] C. Coglianese-D. Lehr, Regulating by Robot: Administrative decision making in the Machine-Learning Era, in Georgetown Law Journal, 2017, 105, p. 1147 ss.; S.C. Morse, Government-to-robot Enforcement, in corso di pubblicazione in Univ. Illinois L. Rev., disponibile alla pagina https://ssrn.com/abstract=3143716; C. Coglianese-D. Lehr, Transparency and Algorith­mic Governance, disponibile alla pagina https://scholarship.law.upenn.edu/cgi/viewcontent.
cgi?article=3125&context=faculty_scholarship.

[22] COM(2018) 237, p. 4. Il punto è ripreso dal già richiamato libro bianco pubblicato nel febbraio 2020, COM(2020) 65, p. 8.

[23] Si vedano, rispettivamente, il regolamento (UE) n. 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva (CE) n. 46/1995, in GUUE L 119/2016, e il regolamento (UE) n. 881/2019 relativo all’ENISA, l’Agenzia dell’Unione europea per la cibersicurezza, e alla certificazione della cibersicurezza per le tecnologie dell’informazione e della comunicazione, e che abroga il regolamento (UE) n. 526/2013, in GUUE L 15/2019.

[24] In termini generali, la rilevanza degli strumenti giuridici nella strategia europea è posta in evidenza da P. Nemitz, Constitutional Democracy and Technology in the Age of Artificial Intelligence, disponibile alla pagina https://royalsocietypublishing.org/doi/full/10.1098/
rsta.2018.0089.

[25] Supra, § 2.2.

[26] Il Gruppo ha pubblicato i suoi Orientamenti etici per un’IA affidabile nell’aprile 2019, al termine di un processo nel quale ha avuto luogo una complessa consultazione di organizzazioni, istituti di ricerca, associazioni, imprese e singoli su una prima versione del documento, oltre che una serie di riunioni con i rappresentanti dei governi degli Stati membri. Il documento è disponibile alla pagina https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.

[27] Si veda, in particolare, il documento prodotto dallo European Political Strategy Centre (EPSC), il think tank della Commissione europea, dal titolo Towards an Innovation Principle Endorsed by Better Regulation, pubblicato nella serie EPSC Strategic Notes, n. 14, giugno 2016; i passaggi riportati nel testo sono, rispettivamente, a p. 2 e a p. 3.

[28] Libro bianco sull’intelligenza artificiale, cit. n. 4, p. 19 ss.

[29] Artificial Intelligence. A European Perspective, cit. n. 6, p. 68.

[30] Si veda, ad esempio, la già citata comunicazione della Commissione COM(2019), p. 168, intitolata Creare fiducia nell’intelligenza artificiale antropocentrica.

[31] Come sembrerebbero suggerire alcuni documenti: si vedano, in particolare gli Orientamenti etici per un’IA affidabile prodotti dal Gruppo di esperti ad alto livello sull’intelligenza artificiale, cit. n. 26, p. 8, punto n. 25, dove si afferma che «tutti i diritti e gli obblighi giuridici che si ap­plicano ai processi e alle attività di sviluppo, distribuzione e utilizzo dell’IA restano inderogabili e devono essere debitamente rispettati».

[32] Sul tema della self-regulation, sebbene con riferimento in particolare ai mercati finanziari, e alla sua rilevanza nelle strategie regolatorie, si veda M. Ramajoli, Self regulation, soft regulation and hard regulation nei mercati finanziari, in questa Rivista, 2018, p. 2.

[33] Supra, § 2.2.

[34] Lo stesso National AI Research and Development Plan del giugno 2019 la indica come componente chiave nella costruzione di un’efficace azione regolatoria pubblica.

[35] Misure di portata più settoriale sono state adottate dai parlamenti o dalle amministrazioni statali, che hanno approvato discipline volte non solo a disciplinare l’uso delle automobili a guida autonoma ma anche a regolare l’impiego di altri sistemi di intelligenza artificiale: in California, ad esempio, il San Francisco Board of Supervisors ha approvato una regolazione che vieta l’uso della tecnologia di riconoscimento facciale da parte della polizia e di altri dipartimenti con funzioni di law enforcement e nella stessa direzione stanno andando la città di Oakland, in California, Somerville, in Massachusetts, e lo Stato di New York. Altre iniziative legislative statali introducono limitazioni all’uso di Smart Home Speakers a tutela della privacy (California), limiti all’accesso di dati elettronici da parte della polizia (Utah), o garanzie a favore di candidati in concorsi pubblici di sapere quali elementi saranno valutati ai fini della loro assunzione dal sistema di intelligenza artificiale (Illinois – Artificial Intelligence Video Interview Act).

[36] M.U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies and Strategies, cit., p. 393: per l’Autore, «The starting point for regulating AI should be a statute that establishes the general principles for AI regulation. The legislation would establish an agency responsible for certifying AI programs as safe and sets the limits of the Agency’s power to in intervene in AI research and development […]. The purpose of AIDA would be to ensure that AI is safe, secure, susceptible of human control and aligned with human interests, both by deterring the creation of AI that lack those features and by encouraging the development of beneficial AI that include those features». Simile la proposta di A. Tutt, An FDA for Algorithms, in Adm. L. Rev., 2017, 1, p. 83 ss., che considera la Federal Drug Administration il mo­dello di agency cui il legislatore dovrebbe ispirarsi per la istituzione di un’agenzia competente in materia di algoritmi.

[37] Sul rapporto tra self-regulation e regolazione pubblica, resta utile l’inquadramento di D. Sinclair, Self-regulation versus Command and Control? Beyond False Dichotomies, in Law and Policy, 1997, 4, p. 529 ss.

[38] G. Leenders, The Regulation of Artificial Intelligence. A Case Study of the Partnership on AI, disponibile alla pagina https://becominghuman.ai/the-regulation-of-artificial-intelligence-a-case-
study-of-the-partnership-on-ai-c1c22526c19f
.

[39] J. Snow, Amazon’s Facial Recognition Falsely Matched 28 Members of Congress with Mugshots, ACLU, 2018, disponibile alla pagina https://www.aclu.org/blog/privacy-technology/survaillance-
technologies/amazons-face-recognition-falsely-matched-28.

[40] C. Ross-I. Swetlitz, IBM’s Watson Recommended “unsafe and Incorrect” Cancer Treatments, STAT, 2018, disponibile alla pagina https://www/statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments.

[41] Artificial Intelligence. A European Perspective, cit. n. 6, p. 63.

[42] La rilevanza della dignità degli esseri umani negli interventi dell’Unione in materia di intelligenza artificiale è discussa, ad esempio, nel documento prodotto dallo European Group on Ethics in Science and New Technologies, Artificial Intelligence, Robotics and ‘Autonomous’ Systems, marzo 2018, disponibile alla pagina http://ec.europa.eu/research/ege/pdf/ege_
ai_statement_2018.pdf. Si veda anche il documento del Gruppo indipendente di esperti ad alto livello, Orientamenti etici per un’IA affidabile, cit. n. 26. Si veda anche la parallela riflessione sul divieto di discriminazione avviata dal Consiglio d’Europa, che trova un primo approdo nello studio di F.Z. Borgesius (a cura di), Discrimination, Artificial Intelligence, and Algorithmic Decision-Making, Council of Europe, Strasbourg, 2018.

[43] Supra, § 3.1.

[44] Supra, n. 26.

[45] Supra, § 2.3.

[46] Si veda il documento Executive Office of the President National Science and Technology Council Committee, 2016, disponibile alla pagina https://obamawhitehouse.archives.gov/sites/
default/files/whitehouse_files/microsites/ostp/Nstc/preparing_for_the_future_of_ai.pdf
.

[47] K. Finley, Obama wants to help the government to develop AI, citato da C. Cath-S. Watcher-B. Mittelstadt-M. Taddeo-L. Floridi, Artificial Intelligence and “Good Society”: the US, EU and UK Approach, cit., p. 505.

[48] C. Cath-S. Watcher-B. Mittelstadt-M. Taddeo-L. Floridi, Artificial Intelligence and “Good Society”: the US, EU and UK Approach, cit., p. 505.

[49] Il memorandum è disponibile alla pagina: https://www.whitehouse.gov/wp-content/uploads/
2020/01/Draft-Omb
-Memo-on-Regulation-of-AI-1-7-19.pdf.

[50] H.RES.153, Supporting the development of guidelines for ethical development of artificial intelligence.

Fascicolo 1 - 2020