Rivista della Regolazione dei MercatiE-ISSN 2284-2934
G. Giappichelli Editore

Divergenti? Le strategie di Unione europea e Stati Uniti in materia di intelligenza artificiale (di Edoardo Chiti, Barbara Marchetti)


L’articolo presenta una comparazione tra la strategia dell’Unione europea e quella statunitense in materia di intelligenza artificiale. Quali sono le finalità degli interventi posti in essere e prefigurati da ciascuno dei due ordinamenti? Quali gli strumenti utilizzati per realizzare tali finalità? E quale l’impatto sui due sistemi giuridici? L’analisi per­mette di mettere a fuoco le differenze che esistono tra l’approccio europeo e quello statunitense: Unione europea e Stati Uniti perseguono obiettivi nel complesso differenti e usano strumenti almeno in parte diversi tra loro, che incidono in modi di­seguali sul sistema giuridico. Questa conclusione aiuta a mettere in prospettiva l’ope­rato di ciascuno dei due ordinamenti e a impostare gli ulteriori passaggi di un’in­dagine comparata.

Diverging Paths? The EU and US Approaches to Artificial Intelligence

This article proposes a comparison between the EU and US regulatory approaches to artificial intelligence. It opens with a discussion of the main purposes of the EU and US strategies, followed by an examination of the instruments through which such objectives should be achieved and a reflection on their impact on the EU and US legal system. The final Section presents the overall conclusions and suggests that the EU and US strategies diverge in several regards, a point which also allows to frame further research on the EU regulatory approach to artificial intelligence.

Key Words: Artificial Intelligence – Digital Future – Public Regulation – EU Administrative La – Comparative Administrative Law

SOMMARIO:

1. Le domande - 2. Le finalità degli interventi - 2.2. Dall’altra parte dell’Atlantico: costruire la leadership statunitense - 3. Gli strumenti - 3.2. Gli Stati Uniti tra regolazione pubblica e tentativi di self-regulation - 4. L’impatto sul sistema giuridico - 4.2. L’esperienza statunitense: verso una regolazione minima - 5. Sentieri che si biforcano - NOTE


1. Le domande

L’Unione europea viene sviluppando, soprattutto su iniziativa della Commissione, una propria «strategia» in materia di intelligenza artificiale. Si tratta di una strategia che utilizza e sfrutta una pluralità di strumenti qualitativamente diversi ma funzionalmente complementari: combina, infatti, interventi che implicano stanziamenti di spesa, esemplificati dai finanziamenti erogati nel­l’am­bito del programma Horizon 2020; interventi normativi, che si traducono nella messa a punto di discipline giuridiche, come il regolamento sulla cybersecurity adottato nel 2019; interventi espressamente qualificati come «etici». I contorni ge­nerali della strategia europea sono stati gradualmente definiti dalla Commis­sione in alcuni documenti programmatici. Questi includono le comunicazio­ni che hanno presentato, tra l’aprile e il dicembre del 2018, una «iniziativa» eu­ro­pea sull’intelligenza artificiale [1] e un «piano coordinato» sull’in­tel­ligen­za ar­tificiale [2], il quale, a sua volta, dà seguito all’invito del Consiglio europeo del mese di giugno dello stesso anno e si basa su una «dichiarazione di cooperazio­ne» firmata da tutti i paesi membri [3]. A questi documenti si aggiungono quel­li adottati nel febbraio 2020, il principale dei quali è il libro bianco che ha av­viato una consultazione della società civile, del mercato e della comunità accademica in merito a una serie di proposte volte a dare concretezza alla strategia europea [4]. Anche gli Stati Uniti dedicano una crescente attenzione all’intelligenza artificiale. Massicci investimenti finanziari, già decisi dall’amministrazione Obama e ribaditi dall’amministrazione Trump, confermano l’assoluta rilevanza delle sfide dell’intelligenza artificiale per il governo americano, che le considera una priorità nazionale. La recente strategia per la ricerca e lo sviluppo dei sistemi di intelligenza artificiale messa in campo con l’executive order di Trump del febbraio 2019 si è accompagnata alla previsione di nuove istituzioni consultive e di raccordo capaci di informare, anche grazie alla partnership con i soggetti privati e all’accademia, un processo di complessivo rafforzamento della leadership statunitense nelle tecnologie di intelligenza [continua ..]


2. Le finalità degli interventi

2.1 Nutrire e domare la tigre? Le risposte dell’Unione all’avvento del­l’in­telligenza artificiale Nonostante i tentativi della Commissione di sviluppare un progetto unitario, capace di collegare funzionalmente una pluralità di strumenti distinti, la strategia dell’Unione in materia di intelligenza artificiale resta, per molti versi, un piccolo vaso di Pandora, un insieme di interventi ancora in cerca di un ordine preciso. Se è poco utile, in questo contesto, cercare nei documenti ufficiali indicazioni chiare sulle finalità della strategia europea, è comunque possibile ricostruire, seppure a costo di qualche forzatura, la logica complessiva degli interventi. Il primo aspetto da notare, in questa prospettiva, è il modo in cui viene formulato il problema dell’intelligenza artificiale dalla Commissione e dai suoi vari comitati. Sebbene il termine non sia mai utilizzato, l’avvento dell’intelligenza artificiale è tematizzato come un processo e un evento che presenta i tratti caratteristici di una vera e propria «crisi» [6]. È, anzitutto, un evento straordinario, perché porta con sé la promessa di una trasformazione rapida e profonda dell’economia – dalla crescita alla struttura del mercato del lavoro, all’aumento delle diseguaglianze – e della società – dal senso di identità individuale e collettivo al modo in cui gli esseri umani pensano, agiscono e si relazionano tra loro e con il mondo esterno. Per quanto il suo impatto sia riconoscibile nei suoi contorni generali, inoltre, è un evento le cui implicazioni restano in buona parte imprevedibili. È un evento, ancora, che non si è attrezzati ad affrontare, perché mancano gli strumenti istituzionali e politici necessari. Questa peculiare tematizzazione dell’avvento dell’intelligenza artificiale co­me crisi è tutt’altro che banale. Essa pare influenzata dalle ricostruzioni secon­do le quali l’Unione è precipitata, a partire dalla crisi bancaria dell’autunno del 2008, in una crisi multidimensionale, allo stesso tempo finanziaria, economica, politica e costituzionale [7]: la Commissione e i suoi comitati tecnici, in altri termini, sembrano aver fatto proprie le prospettive teoriche sull’attuale fase del progetto di integrazione e individuato una nuova [continua ..]


2.2. Dall’altra parte dell’Atlantico: costruire la leadership statunitense

Che una regolazione dell’intelligenza artificiale sia avvertita come necessaria e urgente anche negli Stati Uniti è indubbio. Le parole di Elon Musk, che con Neuralink progetta minuscoli elettrodi collegati al cervello umano e capaci di inviare segnali a microchip per la cura dei disturbi neurologici e il potenziamento delle capacità cognitive, sono eloquenti: «I think we should be very careful about AI. If I had to guess at what our biggest existential threat is, it’s probably that […] I am increasingly inclined to think there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish» [13]. Se una regolazione è ritenuta necessaria, non è ancora chiaro, però, quale contenuto debba avere, quali limiti debba introdurre, chi debbano essere i regolatori e quali siano le finalità da perseguire [14]. Per cominciare, la stessa definizione di intelligenza artificiale non è condivisa. Essa rinvia all’idea di intelligenza umana, intesa come somma di abilità (di apprendere, di astrarre, di ragionare, di usare il linguaggio, di avere consapevolezza), ma se ne ammettono diverse declinazioni. Nel libro di Stuart Russell e Peter Norvig, Artificial intelligence. A Modern Approach, ad esempio, sono contemplate otto differenti definizioni di intelligenza artificiale, organizzate in quattro categorie (thinking humanly, acting humanly, thinking rationally and acting rationally) [15]. Ciascuna categoria si presta a sua volta a diverse interpretazioni [16] e ognuna è sufficientemente ampia da includere sia la robotica che i machine-learning algorithms, oggetti che potrebbero creare problemi e richiedere soluzioni differenti: i robot, per esempio, hanno una dimensione fisica che altre applicazioni dell’intelligenza artificiale non hanno e per la quale possono porsi problemi specifici di responsabilità e capacità giuridica [17]. Inoltre, la riflessione giuridica ha messo in luce da tempo le difficoltà di una regolazione dell’intelligenza artificiale in ragione dei rischi legati alle sue applicazioni. Rispetto ad altri sviluppi tecnologici, i sistemi di intelligenza artificiale presentano tratti inediti, che si legano all’autonomia e all’imprevedibilità del loro funzionamento. Essi, infatti, non sono condizionati [continua ..]


3. Gli strumenti

3.1. La vicenda europea: un trittico di strumenti e i loro problemi  La strategia dell’Unione relativa all’intelligenza artificiale, come si è anticipato in apertura, utilizza strumenti assai diversi tra loro. Un primo tipo di strumenti è rappresentato dai finanziamenti, utilizzati soprattutto per sostenere lo sviluppo dell’intelligenza artificiale, ma rilevanti anche per le finalità di welfare. Sin qui, i finanziamenti sono stati erogati principalmente nell’ambito del programma quadro di ricerca e innovazione Horizon 2020, nel quale la Commissione ha portato gli investimenti nell’intelligenza artificiale a 1,5 miliardi di euro per il triennio 2018-2020, mentre i programmi nazionali hanno beneficiato del sostegno dei fondi strutturali e di investimento europei in funzione dello sviluppo delle competenze. Nel prossimo futuro, i fondi pubblici saranno disponibili, tra l’altro, grazie a un nuovo programma per la ricerca e lo sviluppo proposto dalla Commissione per il periodo 2021-2027 e dovranno essere utilizzati in modo da incentivare gli investimenti privati, che restano, al momento, troppo limitati [22]. Ai finanziamenti si aggiungono, poi, gli strumenti normativi, utilizzati principalmente in funzione degli obiettivi di regolazione sociale. Tali interventi spaziano dall’adozione di legislazioni europee – come il Regolamento generale sulla protezione dei dati (RGPD) entrato in vigore nel maggio 2018 e il già menzionato regolamento sulla cybersecurity adottato nel 2019 [23] – ad azioni di rule-making amministrativo, come quelle prefigurate in vari rapporti prodotti da organismi che assistono la Commissione [24]. Un ultimo tipo è quello degli strumenti espressamente qualificati come «etici». Tali strumenti, che la Commissione distingue nettamente da quelli giuridici, consistono in «orientamenti» o guidelines e sono volti a realizzare le finalità di «regolazione etica» di cui si è detto [25]. L’elaborazione degli orientamenti etici è stata affidata a un organo collegiale denominato Gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, istituito dalla stessa Commissione nel giugno 2018 e composto da una cinquantina di esperti provenienti dalla comunità accademica, dalla società civile e dall’industria [26]. Il Gruppo è a [continua ..]


3.2. Gli Stati Uniti tra regolazione pubblica e tentativi di self-regulation

Nel contesto statunitense, gli strumenti utilizzati sono essenzialmente di due tipi, finanziari e regolatori. I primi rappresentano una componente fondamentale dell’azione pubblica orientata alla promozione dell’intelligenza artificiale e del mantenimento della leadership americana: gli investimenti sono aumentati, a partire dal 2015, del 40%; e il Selected Committee on AI del National Science and Technology Council sta aggiornando il piano per lo sviluppo e la ricerca dell’intelligenza artificiale anche alla luce dell’apporto offerto dagli attori privati e dagli utenti. Sono gli interventi regolatori, però, a presentare i profili di maggior interesse. La regolazione dell’intelligenza artificiale, infatti, combina una pluralità di interventi diversi. Lasciando da parte la ex post regulation, quella prodotta, cioè, dalle decisioni delle corti, che provvedono a regolare, sotto il profilo principalmente della responsabilità, le applicazioni dannose dell’intelligenza artificiale secondo un approccio case by case, i principali strumenti di ex ante regulation sono di due tipi: quelli qualificabili come interventi di regolazione pubblica, del Congresso e del potere esecutivo, e le iniziative di self-regulation, che hanno visto un crescente coinvolgimento dei giganti tech statunitensi, da Amazon a Google, da Microsoft ad Apple [32]. La loro sintetica illustrazione consente di mettere a fuoco l’articolazione della regolazione e i problemi che ciascun tipo di strumenti pone. Quanto alla regolazione pubblica, essa consiste, anzitutto, nella elaborazione di proposte legislative da parte del Congresso. Si è già osservato come le iniziative di questa istituzione, per quanto espressione di una crescente preoccupazione per gli effetti negativi che le applicazioni dell’intelligenza artificiale possono avere sulla società, dalle possibili discriminazione alla violazione di diritti fondamentali, alle implicazioni in termini di accountability, non diano luogo a un approccio di tipo precauzionale, ma riflettano, piuttosto, un approccio orientato a non pregiudicare l’innovazione [33]. Si può aggiungere, ora, che l’azione del Congresso sconta, rispetto al rapido evolversi dei sistemi di intelligenza artificiale, la lentezza, la macchinosità e la rigidità dei processi legislativi: un limite che apre inevitabilmente la strada a legislazioni [continua ..]


4. L’impatto sul sistema giuridico

4.1. Sul versante europeo: una spinta verso la trasformazione o la con­servazione? L’analisi svolta nei paragrafi precedenti rispetto alle finalità e agli strumenti degli interventi dell’Unione europea e degli Stati Uniti in materia di intelligenza artificiale può essere sviluppata, ora, attraverso l’esame dell’impatto che l’a­zione di ciascuno dei due ordinamenti produce sul proprio sistema giuridico. Quanto all’Unione europea, si registrano due tendenze principali, tra loro contraddittorie. La prima sembra spingere nella direzione di una trasformazione del sistema giuridico, l’altra confermarne i tratti consolidati. Gli esempi della prima tendenza, quella a porre in essere misure che affiancano a contenuti tradizionali altri fortemente innovativi, sono numerosi. Si considerino gli interventi con finalità di regolazione sociale. Alcuni di questi interventi, che si realizzano essenzialmente con strumenti normativi, sono pienamente coerenti con la tradizione consolidata della regolazione sociale in Europa: è il caso, ad esempio, della disciplina della sicurezza dei prodotti e dei servizi che usano l’intelligenza artificiale, che viene sviluppandosi intorno a schemi tipici del diritto amministrativo europeo, quali la previsione di standard di sicurezza, la messa a punto di procedure di autorizzazione all’immissione in commercio e lo svolgimento di controlli da parte di amministrazioni specializzate; è il caso, ancora, della disciplina della responsabilità civile, ad esempio per i danni causati da prodotti difettosi. Accanto a tali interventi di stampo tradizionale, però, ve ne sono altri che hanno contenuti innovativi e rappresentano degli sviluppi potenzialmente originali: tra questi, ad esempio, quelli che prefigurano la formazione di nuovi principi giuridici, come il principio della trasparenza e della comprensibilità degli algoritmi [41]; gli interventi che potrebbero ridefinire alcuni diritti fondamentali, come il diritto alla dignità previsto dall’art. 1 della Carta dei diritti fondamentali dell’Unione europea [42]; gli interventi che prospettano nuove discipline, come la messa a punto di regimi di accountability dei soggetti privati e l’individuazione di obblighi particolari nel caso di applicazioni dell’intelligenza artificiale «ad alto rischio». Questi sviluppi più [continua ..]


4.2. L’esperienza statunitense: verso una regolazione minima

Sul versante statunitense, la tendenza che si prefigura discende da quanto detto nell’analisi degli strumenti regolatori [45]. Nel complessivo gioco di forze rientra, anzitutto, il Congresso. Come si è detto, l’attività di questa istituzione sconta la complessità dei processi legislativi, troppo lenti e rigidi per tenere il passo dell’innovazione nei sistemi di intelligenza artificiale. Ciò ha spinto il Congresso a mettere a punto legislazioni con un forte contenuto amministrativo, sia perché istituiscono nuovi organismi specializzati, sia perché stabiliscono normative di principio la cui attuazione dipende dal rule-making amministrativo delle agenzie federali. Occorre riconoscere, però, che l’azione del Congresso non è stata, sin qui, particolarmente inno­vativa. Sul piano sostanziale, il Congresso ha sia proceduto al­l’adat­tamento ai sistemi di intelligenza artificiale di normative già sperimentate, sia tentato di introdurre principi e regole inedite, come il principio di explainability riferito agli algoritmi machine-learning, ma non ha prodotto, per il momento, trasformazioni radicali del diritto esistente. Quanto al quadro organizzativo, il Congresso ha istituito nuovi organismi, ma non ha ancora compiuto una scelta chiara su quale sia il soggetto responsabile dello sviluppo e della ricerca sul­l’intelligenza artificiale. L’azione del potere esecutivo, invece, richiede uno sforzo di coordinamento delle varie iniziative delle amministrazioni federali, che debbono dare attuazione agli obiettivi definiti nella strategia delineata con l’executive order del febbraio 2019 e il successivo National AI Research and Development Strategic Plan 2019. In assenza di una nuova agenzia federale per l’intelligenza artificiale, tuttavia, vi è il rischio che gli interventi siano soprattutto settoriali, come mostrano le proposte presentate dalle agenzie competenti nel settore dei trasporti e della sanità, già richiamate. Su un piano più generale, poi, la fiducia che l’amministrazione Trump ripone nelle potenzialità dell’intelligenza artificiale spinge a limitare l’intervento regolativo. Il medesimo approccio aveva animato anche la precedente amministrazione Obama, per la quale l’intelligenza artificiale era sinonimo di innovazione e sviluppo, aveva grandi [continua ..]


5. Sentieri che si biforcano

Nelle pagine precedenti, si è proposta una sintetica rappresentazione dei modi in cui le istituzioni politico-amministrative dell’Unione europea e degli Stati Uniti vengono elaborando una propria strategia in materia di intelligenza artificiale. Per ricostruire i modi di azione dei due ordinamenti, sono state considerate dapprima le finalità dei loro interventi, quindi gli strumenti utilizzati per il loro raggiungimento, infine i contenuti delle misure poste in essere. Questa prospettiva a volo d’uccello, interessata a ottenere una visione d’insieme piuttosto che a mettere a fuoco particolari e dettagli, ha permesso di individuare i tratti essenziali delle due strategie, europea e statunitense, facendone emergere il disegno complessivo. Occorre, ora, chiudere il cerchio di questa indagine, chiedendosi quali siano le somiglianze e le differenze tra i due processi in corso. L’analisi svolta, in primo luogo, mostra alcune importanti divergenze tra le finalità della strategia dell’Unione europea e di quella statunitense. Per cominciare, sono diverse le premesse sulle quali le due strategie si fondano. Nella prospettiva europea, sviluppata soprattutto dalla Commissione e dai suoi comitati serventi, l’avvento dell’intelligenza artificiale è tematizzato come una «crisi», vale a dire come un evento destinato a produrre una trasformazione profonda dell’economia e della società, le cui implicazioni restano almeno in parte imprevedibili e che non può essere gestito attraverso gli strumenti istituzionali esistenti. Questa crisi, naturalmente, porta con sé anche un’occasione positiva di trasformazione e di sviluppo. Ma si aggiunge alle altre crisi nelle quali è da almeno un decennio avviluppata l’Unione europea e si presenta, prima di ogni altra cosa, come un insieme di problemi da risolvere. Nella prospettiva statunitense, invece, prevale una forte fiducia nelle potenzialità del­l’intelligenza artificiale, presentata dalle istituzioni federali come un formidabile strumento di sviluppo economico e sociale, potenzialmente capace di gestire molti problemi globali. Questa diversità degli orientamenti di fondo si riflette sulle finalità delle due strategie. Quella europea punta a un equilibrio ambizioso tra due diverse esigenze, quella di promuovere lo sviluppo dell’intelligenza artificiale e quella di [continua ..]


NOTE
Fascicolo 1 - 2020