Rivista della Regolazione dei MercatiCC BY-NC-SA Commercial Licence E-ISSN 2284-2934
G. Giappichelli Editore

Prospettive europee e internazionali di regolazione dell´intelligenza artificiale tra principi etici, soft law e self-regulation (di Leonardo Parona)


La rapida e pervasiva diffusione dell’intelligenza artificiale, foriera di profonde trasformazioni in una pluralità di settori economici e ambiti sociali, comporta, dal punto di vista delle categorie logiche e della tenuta delle norme sociali e giuridiche, una complessa attività di ripensamento e adattamento, ponendo molteplici interrogativi nella prospettiva della regolazione giuridica. Per fronteggiare efficacemente tali sfide l’intervento regolatorio, lungi dal rimanere circoscritto ai confini nazionali, dovreb­be essere frutto di iniziative ultra-statali o, quantomeno, prevedere efficaci strumenti di coordinamento fra gli Stati. L’Unione Europea, il Consiglio d’Europa e le principali organizzazioni internazionali, tuttavia, pur non essendo rimaste inerti, paiono ancora all’inizio di tale percorso. A questo proposito, dopo aver analizzato le più recenti iniziative europee e internazionali in materia di IA, il presente scritto si propone di mettere in luce le principali criticità dell’attuale tendenza ad affidarsi in via pressoché esclusiva a principi etici, atti di soft law e self-regulation.

European and international tendencies in Artificial Intelligence regulation, among ethical principles, soft law and self-regulation

The quick and ubiquitous spread of Artificial Intelligence, which is causing deep social and economic changes, has a significant impact on logical categories, as well as on social and legal norms, imposing a complex activity of rethinking and adaptation. This process poses multiple questions in the perspective of the legal regulation of such phenomenon. In order to effectively cope with these challenges, an international regulatory intervention (or, at least, a coordinated one) is required. The European Union, the Council of Europe and most international organizations seem however to be at the very first steps of the regulatory process, still leaving several questions without convincing answers. With this regard, after discussing the latest European and international regulatory initiatives on Artificial Intelligence, the essay analyzes the risks of relying almost exclusively on ethical principles, soft law and self-regulation.

Keywords: Artificial intelligence – Regulation – European Union – Council of Europe

SOMMARIO:

1. Introduzione - 2. Il tardivo ingresso dell’intelligenza artificiale nell’agenda politica dell’Unione europea - 3. Prospettive internazionali di regolazione dell’IA - 4. Quale regolazione per l’IA tra principi etici, soft law e self-regulation? Aspetti critici dell’attuale incertezza regolatoria - 5. Alcune considerazioni conclusive in favore di un intervento re­golativo da parte dell’Unione europea - NOTE


1. Introduzione

«L’intelligenza artificiale (IA) può trasformare il nostro mondo in positivo: può migliorare l’assistenza sanitaria, ridurre il consumo di energia, rendere le automobili più sicure e consentire agli agricoltori di utilizzare le risorse idriche e naturali in modo più efficiente. L’IA può essere utilizzata per prevedere i cambiamenti ambientali e climatici, migliorare la gestione dei rischi finanziari e fornire gli strumenti per fabbricare con minor spreco prodotti su misura per le nostre esigenze; può anche contribuire a intercettare le frodi e le minacce di cibersicurezza e consente alle forze dell’ordine di lottare più efficacemente contro la criminalità.

L’IA può portare benefici all’intera società e all’economia. È una tecnologia strategica attualmente in fase di sviluppo e di diffusione a ritmi rapidi in tutto il mondo. Crea però anche nuove sfide per il futuro del lavoro e solleva questioni giuridiche ed etiche» [1].

Questo breve estratto, tratto dall’incipit della Comunicazione della Commissione europea dell’8 aprile 2019 intitolata “Creare fiducia nell’intelligenza artificiale antropocentrica”, sintetizza, abbozzandole soltanto, molte delle ragioni che rendono doverosa un’analisi dell’intelligenza artificiale nella prospettiva della regolazione giuridica. Infatti, come ogni tecnologia c.d. general purpose che produca conseguenze dirompenti sull’evoluzione industriale [2], anche l’in­telligenza artificiale – di seguito IA – pare dotata di un effetto di “creative destruction” capace di generare profonde trasformazioni in una pluralità di settori economici e ambiti sociali [3]. Tali cambiamenti comportano, dal punto di vista delle categorie logiche e della tenuta delle norme sociali e giuridiche [4], una complessa attività di ripensamento e adattamento, e pongono, in ragione della portata disruptive dell’IA, molteplici interrogativi proprio nella prospettiva della regolazione. Questi ultimi, in particolare, insistono sul se, sul quando, sul chi, sul come, e sul che cosa dell’intervento regolatorio, ed è proprio in relazione a tali profili che il presente scritto intende analizzare le più recenti tendenze europee e internazionali di regolazione dell’IA.

A questo proposito, persino i CEOs di alcune delle società che oggi investono maggiormente nell’intelligenza artificiale – traendone cospicui profitti – convengono ormai sulla necessità di predisporre quanto prima un quadro regolatorio specifico per l’IA, precisando che esso, per essere adeguato all’en­tità delle sfide poste da quest’ultima, non possa essere circoscritto ai confini nazionali, ma debba risultare da iniziative ultra-statali o, quantomeno, prevedere efficaci strumenti di coordinamento fra gli Stati, sia nella fase di predisposizione del quadro normativo, sia nella fase di enforcement [5].

Date tali premesse, ci si potrebbe legittimamente aspettare che l’Unione europea, costituendo una delle forme istituzionali di cooperazione internazionale più compiute, abbia approntato, o quantomeno avviato, efficaci iniziative regolatorie in questo settore. Eppure, pur non essendo rimasta inerte – specialmente ove si considerino gli sforzi compiuti negli ultimi due anni – l’Unione è ancora lungi dal disporre di un quadro giuridico completo in materia di IA, essendo tuttora impegnata a discutere se e come intervenire.

Anche le altre istituzioni internazionali, peraltro, versano in una situazione analoga a quella in cui si trova l’Unione europea, come ci accingiamo ad illustrare nei prossimi paragrafi. A questo proposito, dopo aver analizzato le più recenti iniziative europee e internazionali in materia di IA, il presente scritto si propone di metterne in luce le principali criticità e di indagare quali siano le ragioni che spiegano l’attuale assetto, caratterizzato da una regolazione affidata in via pressoché esclusiva a principi etici, atti di soft law e self-regulation.

Alla luce di tali considerazioni si tenterà di spiegare quali argomenti impongano invece, a nostro avviso, una regolazione pubblica dell’IA che si basi anche su atti vincolanti, e si presenteranno, infine, quattro ragioni ulteriori che rendono necessario, in particolare, un intervento da parte dell’Unione europea.


2. Il tardivo ingresso dell’intelligenza artificiale nell’agenda politica dell’Unione europea

Le iniziative avviate dall’Unione europea in relazione alla regolazione del­l’IA possono considerarsi al tempo stesso tardive e anticipatorie [6]: tardive ove le si confrontino con quelle poste in essere da alcuni Paesi terzi [7] e, soprattutto, da diverse associazioni scientifiche e organismi privati internazionali [8]; anticipatorie, invece, ove le si confrontino con quanto è avvenuto – o sta verificandosi – nella maggior parte degli Stati membri dell’Unione in relazione al­l’adozione delle c.d. strategie nazionali.

Il ritardo dell’Unione e, in termini più ampi, la sua posizione di secondo piano nel panorama globale dell’IA, si manifesta, peraltro, in relazione ad una molteplicità di profili ulteriori, quali l’ammontare degli investimenti pubblici e privati, il ridotto numero di domande di brevetto, la penuria (in termini relativi) di start-up attive in questo settore, la scarsa diffusione dell’IA tanto tra le imprese, quanto nel settore pubblico, nonché la contenuta – benché crescente – quantità di pubblicazioni e ricerche scientifiche [9].

Prendendo le mosse da tali dati, e fatta eccezione per alcuni isolati progetti di ricerca e sviluppo avviati nei primi anni ’2000 [10], non stupisce che i primi riferimenti all’IA da parte di atti formali dell’Unione siano piuttosto recenti. È infatti nella Comunicazione sulla digitalizzazione dell’industria europea di aprile 2016 che la Commissione ha riconosciuto come l’IA possa rappresentare un elemento trainante per l’evoluzione tecnologica e per il conseguente sviluppo economico europeo [11]. La prima organica presa di posizione politica del Parlamento europeo risale, invece, alla Risoluzione del 2017 recante raccomandazioni in materia di diritto civile sulla robotica, attraverso la quale la principale istituzione democratica dell’Unione ha manifestato le proprie preoccupazioni circa l’inadeguatezza del quadro giuridico vigente rispetto alle sfide poste dall’IA [12]. Con tale atto il Parlamento ha, da un lato, precisato che «gli sviluppi nel campo della robotica e dell’intelligenza artificiale possono e dovrebbero essere pensati in modo tale da preservare la dignità, l’autonomia e l’autodeterminazione degli individui» [13] e, dall’altro, ha riconosciuto che «l’industria europea potrebbe trarre beneficio da un approccio efficiente, coerente e trasparente alla regolamentazione a livello dell’UE, che fornisca condizioni prevedibili e sufficientemente chiare … garantendo al contempo che l’Unione e i suoi Stati membri mantengano il controllo sulle norme regolamentari» [14].

Pur convenendo, in alcuni atti interlocutori, sulle potenzialità dell’IA e auspicando un aumento degli investimenti in tale settore – oltre che una loro massimizzazione attraverso la realizzazione di partenariati pubblico-privati e di sinergie tra enti di ricerca e mondo delle imprese – le altre istituzioni europee hanno atteso oltre un anno prima di dare seguito alle preoccupazioni espresse dal Parlamento nella citata risoluzione [15]. Solo ad aprile 2018, infatti, la Commissione ha adottato, attraverso una comunicazione, un approccio europeo al­l’IA che tenesse conto delle raccomandazioni del Parlamento [16]. Quest’ultimo si caratterizza per tre obiettivi di fondo: i. assicurare la competitività del­l’Unio­ne nel settore dell’IA; ii. garantire l’inclusività, dal punto di vista sociale, del processo di trasformazione tecnologica in atto; iii. fare in modo che l’inno­va­zione tecnologica e lo sviluppo economico avvengano nel rispetto di valori condivisi. In vista del perseguimento di tali finalità, la comunicazione prevede tre direttrici programmatiche, nell’ambito delle quali si inseriscono le iniziative di maggiore dettaglio che l’Unione ha successivamente intrapreso – o che intraprenderà – ossia: 1. aumentare gli investimenti nell’IA e garantire una maggiore diffusione di tale tecnologia sia nel settore pubblico, sia in quello privato, anche ricorrendo a partenariati pubblico-privati, in modo da massimizzare le risorse economiche e condividere le competenze tecnico-scientifiche; 2. adeguare i percorsi di istruzione e di formazione professionale, allo scopo di preparare il mercato del lavoro al cambiamento cui inevitabilmente andrà incontro; 3. assicurare che lo sviluppo e le trasformazioni prodotte dall’IA avvengano in un quadro etico e giuridico adeguato, conformemente alla Carta dei diritti fondamentali dell’Unione europea e nel rispetto della riservatezza dei dati personali e della sicurezza dei consumatori.

Benché alcuni passi in avanti siano stati compiuti con riferimento alle prime due linee programmatiche [17], è evidentemente la terza che, ai fini della presente analisi, acquisisce maggiore rilevanza. Come si preciserà nel prosieguo del paragrafo, peraltro, è proprio rispetto a quest’ultima che si sono manifestate le principali criticità e che perdurano le maggiori incertezze.

A pochi mesi dall’approvazione della menzionata comunicazione “L’intel­ligenza artificiale per l’Europa”, due avvenimenti di particolare rilievo hanno contribuito in misura significativa a delineare il quadro etico-giuridico del­l’Unione in materia di IA – di cui, appunto, alla terza linea programmatica. Da un lato la Commissione ha istituito il Gruppo di esperti di alto livello sull’Intel­ligenza Artificiale (AI HLEG) [18]; dall’altro, è entrato in vigore il Regolamento generale sulla protezione dei dati personali [19], che ai nostri fini rileva, in particolare, per il riconoscimento del diritto a non essere assoggettati ad una decisione interamente automatizzata [20].

La Commissione europea, con un’ulteriore comunicazione, ha successivamente declinato l’approccio europeo all’IA in termini maggiormente operativi – benché ancora connotati da un elevato grado di astrattezza – adottando il Piano coordinato sull’intelligenza artificiale [21]. Quest’ultimo, oltre ad esortare gli Stati membri rimasti inerti a dotarsi di strategie nazionali sull’IA, riconosce la necessità di «adottare, basandosi sul contributo di esperti, orientamenti etici ben definiti per lo sviluppo e l’utilizzo dell’IA nel pieno rispetto dei diritti fondamentali» e di valutare se «rivedere l’attuale quadro normativo nazionale ed europeo affinché possa affrontare meglio i problemi specifici» [22]. Tale quadro normativo, stando alle indicazioni contenute nel Piano strategico, dovrebbe reggersi su alcuni principi cardine quali l’“etica fin dalla progettazione” [23], la “sicurezza fin dalla progettazione” [24], e la creazione di uno spazio comune europeo dei dati, all’interno del quale questi ultimi siano protetti e resi disponibili nel rispetto delle norme vigenti [25]. Inoltre, allo scopo di tradurre in termini più precisi i principi di equità, trasparenza, e responsabilità del processo decisionale algoritmico e dei relativi modelli di governance, il Piano strategico sottolinea l’esigenza di creare delle sedi istituzionali di confronto e delle reti di centri di eccellenza europei, i quali ultimi potrebbero svolgere la propria attività in un contesto protetto di sperimentazione normativa – c.d. regulatory sandboxes.

Rispetto alle aperture rinvenibili nel Piano strategico, un primo ambito di resistenza alla sperimentazione e, conseguentemente, all’applicazione dei sistemi di IA, è stato individuato a febbraio 2019 dal Parlamento europeo, il quale attraverso una risoluzione ha espresso «profonda preoccupazione per … il riconoscimento facciale e vocale, in programmi di “sorveglianza emotiva”, ossia di monitoraggio delle condizioni mentali dei lavoratori e dei cittadini per aumentare la produttività e conservare la stabilità sociale, talvolta combinati con sistemi di credito sociale come ad esempio già accade in Cina». Secondo il Parlamento, infatti, tali applicazioni «contraddicono per loro natura i valori europei che tutelano i diritti e le libertà degli individui» [26].

Al di là di tali indicazioni, sebbene abbia tentato di opporre alla forza espan­siva dell’IA e delle sue applicazioni l’esigenza di individuare alcuni “ambiti protetti”, il Parlamento non si è ancora espresso in modo univoco, né ha formulato divieti o limitazioni tramite atti vincolanti. Quest’ultimo, anzi, ha manifestato alcune riserve rispetto all’adozione di una «legge o regolamentazione completa dell’intelligenza artificiale», esprimendo invece il proprio favore per una «regolamentazione settoriale» [27], rispetto alla quale la Commissione sarebbe onerata di un obbligo di riesame periodico [28]. Su questa scia, e nel­l’attesa che venga definito un quadro regolatorio maggiormente definito – per quel che concerne il se, il chi, il come, e il che cosa – il Parlamento ha invitato la Commissione e gli Stati membri a riflettere sull’opportunità di istituire nuovi organismi di controllo fra cui, in particolare, un’agenzia europea ad hoc [29].

Quest’ultima opzione merita, ad avviso di chi scrive, particolare attenzione nell’ambito della presente analisi in quanto, da un lato, fornisce un’indicazione significativa della direzione in cui potrebbe evolvere il regime europeo di regolazione dell’IA [30] e, dall’altro, rappresenta una proposta che si è già dimostrata capace di raccogliere il consenso di un’ampia parte della dottrina – non solo europea – che recentemente è andata formandosi sul tema [31]. A tale agenzia, stando alla risoluzione del Parlamento europeo, dovrebbero essere affidate, in primo luogo, funzioni regolative consistenti nell’elaborazione di parametri oggettivi e condivisi per valutare il rischio di violazioni dei diritti umani da parte delle differenti applicazioni dell’IA, al fine di classificare queste ultime e predisporre un quadro normativo completo, alla luce del quale condurre una “analisi di impatto algoritmico” scientificamente attendibile [32]. L’agenzia dovrebbe, in secondo luogo, svolgere funzioni consultive, assistendo le autorità nazionali competenti – già esistenti o in via di prossima istituzione. All’agenzia, inoltre, potrebbero essere attribuite funzioni decisorie (di adjudication), da esercitarsi autonomamente o congiuntamente alle altre istituzioni europee. Più precisamente l’agenzia potrebbe essere chiamata ad autorizzare o vietare le applicazioni dell’IA in ambiti sensibili (viene menzionata, ad esempio l’assistenza sanitaria) e rispetto alle quali l’analisi di impatto algoritmico dovesse superare determinate soglie di tollerabilità. L’agenzia, infine, dovrebbe svolgere una funzione ispettiva, conducendo indagini su casi di sospetta violazione dei diritti umani, sia rispetto a singole applicazioni che dovessero aver generato anomalie, sia rispetto a modelli decisionali algoritmici che dovessero risultare sistematicamente affetti da pregiudizi discriminatori. Tali indagini potrebbero essere avviate sia d’ufficio, sia sulla base di reclami e segnalazioni da parte di soggetti pubblici, privati, organizzazioni non governative o enti di ricerca [33].

Sono molteplici i nodi che dovranno essere sciolti per tradurre tale proposta in una vera e propria scelta regolatoria. Tra questi si considerino, a titolo esemplificativo, l’ampiezza dei poteri ispettivi da attribuire all’agenzia, la previsione di eventuali sanzioni in caso di accertamento di violazioni, le caratteristiche e la disciplina del procedimento da seguire per l’elaborazione degli standard, l’interazione e la possibile sovrapposizione di competenze con altre autorità europee o nazionali, nonché, a monte, l’individuazione di una corretta base giuridica capace di dare copertura all’istituzione di tale organismo [34].

Un contributo fondamentale – forse il più rilevante – alla definizione del­l’approccio europeo alla regolazione dell’IA è stato indubbiamente apportato dal gruppo di esperti di alto livello nominato dalla Commissione – sopra ricordato. Quest’ultimo, infatti, ha pubblicato ad aprile 2019 – dopo averle poste in consultazione – le proprie linee guida etiche [35], le quali definiscono il concetto di intelligenza artificiale affidabile (trustworthy) come quell’IA che sia al tempo stesso: 1. conforme al diritto vigente; 2. etica; 3. robusta – dal punto di vista tecnico.

Il primo pilastro, che è evidentemente il più rilevante nella prospettiva del­l’analisi giuridica, non viene tuttavia approfondito nelle linee guida, le quali rimandano il tema della “lawful AI” ad altre sedi e ad atti successivi [36]. Ciononostante, alcune indicazioni in merito ai requisiti sostanziali (il che cosa della regolazione) che dovrebbero caratterizzare l’IA europea affidabile possono parimenti trarsi dal secondo pilastro – relativo ai principi etici – che occupa la maggior parte delle linee guida [37].

Sotto questo profilo assume rilievo centrale il concetto di IA antropocentrica, il quale comporta il rispetto dei diritti fondamentali, della dignità umana, della libertà individuale, dell’autonomia degli esseri umani, nonché di valori sociali e principi etici dotati di maggiore indeterminatezza quali la beneficienza, la non maleficenza, l’equità e l’esplicabilità. Particolare attenzione è inoltre rivolta alla circostanza che il ricorso all’IA non acuisca situazioni di vulnerabilità individuale o collettiva, quali ad esempio quella dei minori, delle persone disabili, delle minoranze etniche e religiose, o svantaggi ulteriormente le parti deboli nell’ambito di rapporti già di per sé caratterizzati da un’asimmetria di potere o di informazione, come nel caso del rapporto imprese-consumatori e datore di lavoro-dipendenti [38].

Al fine di tradurre in termini maggiormente operativi tali principi, le linee guida individuano alcune soluzioni tecniche, strategie organizzative e assetti di governance dei processi automatizzati che impieghino sistemi di IA [39]. Fra questi ultimi, in particolare, è previsto un coinvolgimento umano di profondità variabile e direttamente proporzionale all’intensità e alla natura dei rischi generati dal sistema intelligente, il quale si articola in human-in-the-loop (mero intervento umano), human-on-the-loop (supervisione umana del processo) e human-in-command (controllo umano dell’esito finale) [40].

Quanto al terzo pilastro, concernente la robustezza tecnica e la sicurezza dei sistemi intelligenti, le linee guida, pur senza offrire soluzioni dettagliate, individuano i principali aspetti critici sui quali si ritiene indispensabile intervenire: affidabilità e resilienza dei sistemi intelligenti rispetto a situazioni impreviste; previsione di adeguati meccanismi di correzione degli errori e di piani di emergenza; verificabilità dei risultati e riproducibilità dei processi decisionali; difesa dagli attacchi esterni concernenti i dati (c.d. data poisoning), il modello algoritmico impiegato (c.d. model leakage), o, infine, l’infrastruttura hardware.

Il gruppo di esperti auspica che le indicazioni contenute nelle linee guida da esso approvate siano seguite dalle imprese operanti nel settore e che, su tale base, associazioni di categoria e autorità pubbliche adottino codici di condotta, formulino standard e predispongano sistemi di accreditamento e certificazione – mostrando così un tendenziale favore per la self-regulation o, quantomeno, per la co-regulation. Ciascuna impresa attiva nel campo dell’IA, inoltre, sarebbe chiamata a intervenire sulle proprie previsioni statutarie in materia di corporate responsibility al fine di predisporre adeguati meccanismi di controllo che assumano a modello l’assessment list allegata alle linee guida [41].

Alcune delle lacune che caratterizzano le linee guida sotto il profilo della “lawful AI” sono state parzialmente colmate dallo stesso gruppo di esperti con l’emanazione, a giugno 2019, di alcune raccomandazioni ulteriori [42]. Queste ultime, in primo luogo, invitano le istituzioni pubbliche a seguire un approccio risk-based, ossia a ricorrere ad una regolazione dell’IA che sia proporzionata alla probabilità, al tipo e all’intensità del rischio – eventualmente – provocato dall’applicazione che si intenda regolare [43]. Per le applicazioni che comportino un rischio inaccettabile o pongano delle minacce sostanziali, inoltre, si ritiene opportuno ricorrere a divieti o misure conformi al principio di precauzione inteso in senso ampio, ossia in relazione a qualsiasi «serious societal threat (such as threats to the democratic process)» [44].

In secondo luogo, il gruppo di esperti esorta le istituzioni europee a vagliare, ed eventualmente riformare, il diritto UE vigente partendo dai contesti regolatori ritenuti di maggiore rilievo [45], i quali dovrebbero essere individuati da un gruppo di lavoro interno alla Commissione che operi in modo trasversale, evitando così un approccio a compartimenti stagni basato sui c.d. “silos regolatori” [46]. Tale operazione di adeguamento normativo ben potrebbe, stando a quanto previsto dalle raccomandazioni, condurre all’introduzione di nuove norme giuridiche [47]. Queste ultime, tuttavia, dovrebbero concentrarsi – quantomeno nella fase attuale – a livello unionale, essendo funzionali alla realizzazione di un mercato unico europeo per un’IA affidabile. Viceversa, eventuali interventi normativi nazionali andrebbero evitati, a meno che non dovessero rivelarsi strettamente necessari e a condizione della loro conformità ai principi di sussidiarietà e proporzionalità [48].

Dal punto di vista del contenuto delle norme che dovrebbero disciplinare l’IA nel contesto europeo (quindi relativamente al che cosa della regolazione), il gruppo di esperti non fornisce indicazioni di dettaglio. Esso, tuttavia, prende posizione in merito a due questioni che pur avendo già sollevato un ampio dibattito – anche a livello internazionale – paiono ancora lungi dall’approdare a soluzioni condivise. Da un lato si ritiene opportuno limitare lo sviluppo di armi letali automatiche e “intelligenti” (c.d. LAWS), e si ritiene che gli Stati membri debbano farsi promotori di tale orientamento anche nelle sedi internazionali [49]; dall’altro si invitano le istituzioni europee e nazionali ad astenersi dal riconoscere personalità giuridica ai sistemi di IA, e in particolare a quelli incorporati in robot dotati di sembianze umane [50]. Quest’opzione, infatti, potrebbe comportare secondo il gruppo di esperti una generalizzata de-responsabilizza­zio­ne dei programmatori, degli sviluppatori e degli utilizzatori finali dell’IA, e contrasterebbe più in generale con alcuni dei valori fondativi dell’ordinamento europeo, quale in primis la dignità umana [51].

Il quadro istituzionale e regolatorio delineato dal gruppo di esperti è completato da una raccomandazione (concernente il chi della regolazione) relativa alla creazione di un organismo ad hoc per l’IA affidabile [52], la quale si pone in linea con quanto già previsto dalla sopramenzionata risoluzione del Parlamento europeo 2018/2088 a proposito dell’istituzione di una nuova agenzia europea.

Da ultimo, a febbraio 2020 la Commissione ha emanato un Libro bianco sull’intelligenza artificiale, sottoponendo a consultazione pubblica le proposte ivi contenute [53]. Il documento è connotato da una significativa continuità rispetto all’approccio europeo seguito sinora, sia sotto il profilo formale, trattandosi di un atto non vincolante, sia sotto quello sostanziale. Quanto a quest’ultimo aspetto, in particolare, si conferma l’esigenza di creare nel settore dell’IA un ecosistema europeo d’eccellenza e di fiducia, in partenariato con il settore privato, e caratterizzato da un approccio basato sul rischio [54]. È infine atteso per la fine del 2020 il riesame e l’aggiornamento delle linee guida approvate dal gruppo di esperti, sulla base del quale la Commissione si riserva di individuare i passi successivi del percorso europeo di regolazione dell’IA [55].

Pur prendendo atto dei recenti sviluppi che qui si è tentato di riassumere brevemente, i tratti che caratterizzano l’approccio dell’Unione europea alla regolazione dell’IA paiono, allo stato attuale, solamente abbozzati, non consentendo ancora di individuare un regime dai contorni ben definiti.


3. Prospettive internazionali di regolazione dell’IA

Ampliando i confini dell’ambito indagato, ai fini della presente analisi acquisisce rilievo il fatto che anche l’altra principale organizzazione internazionale operante a livello europeo, ossia il Consiglio d’Europa, abbia avvertito l’esi­genza di avviare un dibattito sull’IA. Quest’ultimo – com’era intuibile attendersi – ha individuato quale fulcro delle proprie riflessioni in materia di IA l’impatto di tale tecnologia e delle sue principali applicazioni sui diritti previsti dalla Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali e dai Protocolli aggiuntivi [56].

Come l’Unione europea, anche il Consiglio d’Europa ha formalmente preso posizione sull’IA solo di recente e lo ha fatto dedicandovi un’apposita Conferenza, svoltasi ad Helsinki il 26-27 febbraio 2019 [57]. Sulla base delle Conclusioni ivi raggiunte, il Commissario per i diritti umani del Consiglio d’Europa ha successivamente approvato e pubblicato le proprie raccomandazioni [58], caratterizzate, da un lato, da una sostanziale affinità alla posizione maturata in seno all’Unione per quel che concerne la centralità della tutela dei diritti fondamentali e lo sviluppo di un’IA antropocentrica [59] e, dall’altro, da una maggiore insistenza sulla necessità di predisporre tempestivamente politiche adeguate e di conferire al tema un rilievo prioritario nell’agenda dei Governi nazionali [60].

Tali raccomandazioni, più precisamente, pur riconoscendo che il rispetto dei diritti assicurati dalle Carte internazionali possa essere garantito da atti di soft law e di self-regulation, osservano che questi ultimi dovrebbero rappresentare degli strumenti aggiuntivi aventi una funzione complementare rispetto ad una regolazione prescrittiva – pubblica – dotata di maggiore vincolatività [61]. Le autorità statali, inoltre, dovrebbero predisporre meccanismi di supervisione effettivi e strutture di monitoraggio democratico [62], anche ricorrendo all’istitu­zione di organismi di controllo indipendenti [63]. A quest’ultimo proposito, e per quanto di sua competenza, il Consiglio d’Europa ha recentemente istituito un Comitato intergovernativo ad hoc sull’IA (CAHAI), incaricandolo di apprestare, attraverso un metodo partecipativo, un quadro normativo per la progettazione, lo sviluppo e le applicazioni dell’intelligenza artificiale [64].

Proseguendo nell’analisi del quadro internazionale, il tema dell’IA ha ricevuto, in ragione della sua incidenza sulla crescita e le trasformazioni economiche, anche l’attenzione dell’Organizzazione per la Cooperazione e lo Sviluppo Economico, la quale ha a tal fine approntato alcune raccomandazioni a maggio 2019 [65]. Queste ultime si compongono, in primo luogo, di cinque principi generali rivolti tanto al settore pubblico, quanto al settore privato, tesi ad assicurare un’IA affidabile, la quale: i. consenta una crescita inclusiva e uno sviluppo sostenibile; ii. adotti una prospettiva antropocentrica; iii. assicuri trasparenza ed esplicabilità; iv. sia sicura e robusta da un punto di vista tecnico; v. mantenga un elevato livello di accountability. In secondo luogo, l’OCSE ha formulato cinque raccomandazioni volte a stimolare gli Stati membri a: i. investire nella ricerca e nello sviluppo dell’IA; ii. rafforzare un ecosistema digitale complessivo in cui l’IA possa operare; iii. adeguare il contesto politico e normativo; iv. assicurare competenze adeguate nel mondo del lavoro; v. cooperare a livello internazionale in vista di una piena realizzazione di un’IA affidabile.

La scarsa capacità precettiva che caratterizza tali raccomandazioni e il loro speculare elevato tasso di astrattezza [66], pur rappresentando un limite oggettivo, hanno nondimeno contribuito ad assicurare loro un’ampia condivisione, come testimonia la loro sottoscrizione da parte di ben 42 Paesi, fra i quali compaiono anche alcuni Paesi dell’America Latina – estranei a tale organizzazione [67]. Il corso che l’OCSE intende seguire in quest’ambito è rappresentato dalla recente istituzione dell’AI Policy Observatory, un organismo ad hoc incaricato dello studio del fenomeno, della raccolta di dati e buone prassi, oltre che della predisposizione di linee guida volte ad offrire guidance ai Governi nazionali [68].

Anche L’ONU, infine, pur avendo avviato programmi specifici di sperimentazione e studio dell’IA attraverso le proprie organizzazioni di settore – che hanno valorizzato l’IA anche ai fini del perseguimento dei sustainable development goals [69] – ha solo di recente tracciato alcune linee comuni del percorso di regolazione dell’IA. Quest’ultimo, invero, pare per ora tradursi essenzial­mente nello sforzo di adattare alcuni principi giuridici fondamentali alle innovazioni apportate dall’IA e alle sue applicazioni. Si fa riferimento, più precisamente, al tentativo di adeguare e aggiornare i Guiding Principles on Business and Human Rights [70] avviato, a fine 2018, con particolare riferimento alla tutela di alcuni diritti fondamentali, quali la libertà di opinione ed espressione [71]. Emerge così un human rights-based approach to artificial intelligence [72] che, dal punto di vista sostanziale, si avvicina nei suoi tratti essenziali all’approccio europeo. Nel complesso, tuttavia, le indicazioni che l’ONU rivolge agli Stati e agli operatori economici privati sono estremamente sintetiche e si limitano ad insistere su principi di massima, senza prevedere strumenti di enforcement e monitoraggio, e senza giungere alla formulazione di specifiche regole di condotta [73].

Rispetto a quest’impostazione generale fa eccezione l’attenzione rivolta alle applicazioni dell’IA in campo militare, quali principalmente, le automated weapons e le lethal automated weapons (c.d. AWS e LAWS) [74]. L’attivismo in questo settore è testimoniato, da un lato, dall’avvio, già nel 2013, di alcuni incontri intergovernativi nell’ambito della CCW [75], sfociati nel 2017 nell’istituzione di un gruppo di esperti governativi sulle LAWS e, dall’altro, nella creazione da parte dell’UNICRI (United Nations Interregional Crime and Justice Research Institute), nel 2015, di un centro sull’IA e la robotica. Nemmeno tali sviluppi, tuttavia, hanno comportato aggiornamenti o revisioni delle norme internazionali vigenti né, tanto meno, la conclusione di nuovi trattati [76].


4. Quale regolazione per l’IA tra principi etici, soft law e self-regulation? Aspetti critici dell’attuale incertezza regolatoria

Come risulta dall’analisi svolta nei paragrafi precedenti, gli strumenti che sino ad oggi sono stati approntati a livello europeo e internazionale per far fronte alle sfide poste dall’IA sono – nella quasi totalità dei casi – privi di significativa precettività. Ciò deriva, da un lato, dalla forma assunta dagli atti in questione, ossia dalla loro tendenziale riconducibilità alla categoria della c.d. soft law [77], e, dall’altro, dal contenuto di questi ultimi, il quale, salvo alcune eccezioni, spicca per un elevato grado di genericità, da cui discende l’estrema difficoltà – se non spesso la vera e propria impossibilità – di desumere indicazioni, criteri e norme di condotta puntuali.

Ad avviso di chi scrive tali aspetti rappresentano due conseguenze distinte, ma connesse, della scelta – della cui consapevolezza e opportunità qui si dubita – di ricorrere prevalentemente, quantomeno allo stato attuale, a standard e linee guida etiche, anziché a regole e principi giuridici incorporati in atti normativi, per disciplinare lo sviluppo e le applicazioni dell’IA [78]. A questo proposito pare doveroso interrogarsi su quali siano le ragioni, ed eventualmente quali potrebbero essere i vantaggi, di ricorrere a principi etici e alla soft law quale strumento di regolazione e, specularmente, quali limiti – se non rischi – presenti questo approccio.

Quanto al primo aspetto, in un contesto come quello attuale in cui le innovazioni apportate dall’IA hanno consentito – o consentiranno a breve – di raggiungere risultati sino a poco tempo addietro impensabili, riferirsi ad alcuni principi etici condivisi potrebbe indubbiamente – a legislazione invariata – orientare le condotte degli sviluppatori, degli operatori economici e degli utenti. Infatti, in una prospettiva che potrebbe definirsi “emergenziale”, tali principi potrebbero rappresentare un espediente in grado di fornire alle istituzioni pubbliche il tempo di valutare se imporre, tramite il diritto, regole più stringenti, la cui violazione sia sanzionata dal punto di vista giuridico – oltre che etico [79]. Secondo alcuni osservatori, peraltro, una porzione significativa delle incognite sollevate dall’IA su cui già è andato formandosi un certo dibattito, come ad esempio la limitata esplicabilità e trasparenza dei processi decisionali algoritmici più avanzati (principalmente quelli riconducibili al machine learning), sarebbe riducibile a questioni esclusivamente tecniche, presumibilmente risolvibili in un arco di tempo relativamente breve grazie al solo progresso scientifico. Rispetto a queste ultime il ricorso al diritto si rivelerebbe, quindi, inutile, se non addirittura controproducente, e meglio sarebbe, tuttalpiù, affidarsi a linee guida e principi etici [80].

Inoltre, al di là della funzione di supplenza temporanea appena descritta, i principi e le linee guida etiche possono rappresentare un utile strumento di raccordo capace di colmare, o quantomeno ridurre, lo iato ineliminabile – e attualmente ampio nel settore dell’IA – tra ciò che è tecnicamente possibile e ciò che è conforme al diritto [81]. Tali strumenti, in altre parole, potrebbero svolgere in via permanente una funzione complementare e ausiliaria rispetto alle regole giuridiche [82].

Pur ammettendo che raccomandazioni, linee guida etiche e soft law possano utilmente assolvere tali compiti, e pur riconoscendo le esigenze di flessibilità che ne giustificano l’impiego, ad avviso di chi scrive non può tuttavia negarsi che ricorrere in via principale – se non esclusiva – a questi strumenti possa comportare, specialmente nel medio-lungo termine, rischi non indifferenti. Più precisamente, poiché i principi etici e gli strumenti di soft law in questione lasciano libero spazio, o invocano apertamente, il ricorso alla regolazione e al­l’autoregolamentazione degli operatori economici privati (c.d. self-regulation [83]), affidarsi unicamente a questi ultimi potrebbe nel tempo acuire lo scollamento tra il diritto formalmente vigente e gli standard tecnici e le regole comportamentali che dovessero consolidarsi nella prassi [84]. Tale evenienza costringerebbe, di fatto, le istituzioni pubbliche a delegare stabilmente in questo settore la funzione normativa a soggetti privati o, tuttalpiù, ad incorporare in atti normativi gli standard privati nel frattempo formatisi [85].

Rispetto a tale scenario sorgono spontanei alcuni interrogativi ai quali, ai fini della presente indagine, occorre fornire una risposta – seppur sintetica e, di necessità, non definitiva. Più precisamente, pur evitando di addentrarci nel dibattito – non scevro di connotazioni ideologiche – relativo all’opportunità di affidare funzioni regolatorie e di standard-setting ai privati, pare opportuno chiarire quali siano gli standard in questione, quali i soggetti che li pongono in essere e, infine, quali rischi presenti tale soluzione.

Quanto al primo quesito, l’esempio attualmente più avanzato e completo di regolazione privata nel settore di nostro interesse è offerto dagli standards P7000-P7013 emanati dall’Institute of Electrical and Electronics Engineers (IEEE). Quest’ultimo ha infatti codificato già oltre una decina di standard in materia di trasparenza, tutela dei dati, e bias algoritmici, rendendoli noti in una dettagliata pubblicazione intitolata “Ethically Aligned Design. A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems [86]. Anche l’International Standardization Organization (ISO) ha avviato la codificazione di criteri relativi ai procedimenti algoritmici impiegati nelle applicazioni dell’IA. Gli standard attualmente completati, tuttavia, sono solamente tre e concernono esclusivamente la gestione dei dati da parte dei sistemi di IA [87]. Nel panorama internazionale, inoltre, hanno raggiunto un notevole livello di diffusione e condivisione, specialmente all’interno della comunità scientifica, i 23 principi elaborati nell’ambito della Conferenza di Asilomar [88] e quelli contenuti nella Dichiarazione di Montreal [89], incentrati su uno sviluppo responsabile dell’IA. Infine, anche i principali operatori economici che investono, sviluppano e utilizzano l’IA si sono dotati di propri principi e linee guida, sia per affermare la propria leadership nel settore, sia per rassicurare l’opinione pubblica circa la sicurezza e la conformità a principi etici di tali innovazioni. Così hanno fatto, ad esempio, Microsoft, Google ed Apple, adottando propri policy principles, basati su quelli formulati dall’Information Technology Industry Council (ITI) [90].

Come emerge da questa rapida rassegna – e rispondendo così al secondo quesito – i soggetti privati impegnati nell’elaborazione di tali atti sono fra loro eterogenei, annoverandosi fra questi ultimi enti di ricerca e organismi non governativi (come il Future of Life Institute, che ha promosso la Conferenza di Asilomar), soggetti istituzionalmente deputati all’elaborazione di standard (co­me l’ISO), associazioni di imprese (come l’ITI e l’IEEE), nonché singole imprese (Microsoft, Google ed Apple) [91].

Anche gli interessi, le finalità e le competenze di ciascuno di tali soggetti, evidentemente, differiscono profondamente, così come differenti sono i procedimenti seguiti per l’adozione di tali standard, nonché la forma degli atti in cui essi sono recepiti e il grado di analiticità con cui essi sono formulati [92]. Un’ana­lisi approfondita di tali aspetti esula, evidentemente, dalle finalità del presente scritto; non può tuttavia celarsi – venendo al terzo quesito – il timore che, date tali premesse, i soggetti privati che emanano tali atti possano versare in una condizione di conflitto di interessi. Tale rischio, potenzialmente rinvenibile in tutte le ipotesi di regolazione privata, caratterizzerebbe in particolar modo i casi di autoregolamentazione. In questi ultimi, infatti, gli operatori privati sono al tempo stesso regolatori e regolati, approvando norme e principi volti a disciplinare un’attività rispetto alla quale essi stessi nutrono – direttamente o indirettamente – consistenti interessi economici. In base a tali circostanze, risulta difficile convincersi del fatto che gli interessi di soggetti terzi (consumatori, cittadini, imprese concorrenti) e i numerosi interessi pubblici coinvolti dalla diffusione dell’IA possano ricevere la dovuta considerazione e un’adeguata tutela, specialmente ove l’autoregolamentazione dovesse avere luogo in forma pura. In tale contesto, anzi, il rischio che possano acuirsi situazioni di vulnerabilità o squilibrio pare acquisire un’innegabile tangibilità.

Se tali criticità meritano senz’altro di essere tenute in debita considerazione, imponendo l’elaborazione e l’adozione di appositi rimedi e garanzie, non pare tuttavia corretto affermare che l’IA – e i principi etici e la soft law che attualmente ne orientano lo sviluppo e l’applicazione – operi, quantomeno nel contesto dell’Unione europea, in un totale vuoto normativo [93]. Infatti, oltre alle norme di diritto primario, quale in primis la Carta dei diritti fondamentali del­l’UE, sono numerose le norme di diritto derivato direttamente o indirettamente chiamate in causa dall’IA. A titolo esemplificativo si pensi, oltre al già citato regolamento generale sulla protezione dei dati personali, alle norme in materia di tutela dei consumatori e a quelle relative alla responsabilità da prodotto difettoso [94]. Deve pertanto riconoscersi che il diritto UE complessivamente applicabile all’IA contempli già alcune norme di hard law.

Tale considerazione, pur fornendo una ricostruzione più completa e realistica della cornice normativa in cui si colloca l’IA, conferma tuttavia come, ad oggi, l’Unione – ma lo stesso vale per le altre istituzioni internazionali qui prese in considerazione – non abbia ancora ritenuto di intervenire in tale ambito con atti normativi – e vincolanti – ad hoc [95]. Da ciò derivano almeno due ordini di problemi: da un lato manca un inquadramento normativo generale in materia di progettazione, sperimentazione, sviluppo e applicazione dei sistemi di IA; dall’altro, le normative settoriali vigenti necessitano di non pochi adattamenti per potersi efficacemente applicare all’IA, e non sempre paiono in grado di affrontare adeguatamente le sfide poste da quest’ultima.

Quanto al primo aspetto, e concentrando l’analisi a livello europeo, giova qui ricordare che, nella citata risoluzione del Parlamento del 16 febbraio 2017, quest’ultimo ha chiesto alla Commissione europea di presentare, sulla base dell’articolo 114 TFUE, una proposta di atto legislativo sulle questioni giuridiche relative allo sviluppo e all’utilizzo della robotica e dell’intelligenza artificiale prevedibili nei prossimi 10-15 anni [96]. Quanto al secondo aspetto, sia il Parlamento, sia la Commissione [97], hanno riconosciuto la necessità di operare una revisione della normativa vigente, allo scopo di verificare quali modifiche normative siano rese necessarie dall’avvento dell’IA, escludendo che tale lavoro di adattamento possa essere affidato unicamente agli interpreti quali, in primis, i giudici [98].

Come anticipato nel secondo paragrafo, la Commissione europea non ha ancora dato seguito alle istanze avanzate dal Parlamento. Tale inerzia, che come si è visto risulta essere comune anche alle altre organizzazioni internazionali, pare scaturire, tra gli altri fattori, dalla mancanza di competenze adeguate in seno alla maggior parte dei policy-makers pubblici. Le conoscenze scientifiche più avanzate e aggiornate in materia, infatti, si rinvengono nel settore privato, ed è proprio da quest’ultimo – ossia dal mondo delle imprese e della ricerca – che proviene la maggior parte degli esperti che sono stati chia­mati a collaborare nell’ambito dei gruppi istituiti dalla Commissione europea, dal Consiglio d’Europa e dall’OCSE – lo stesso peraltro è accaduto a livello nazionale [99]. L’alto valore del lavoro svolto da tali organismi, le cui raccomandazioni e linee guida – come si è visto nei paragrafi precedenti – rappresentano l’approdo più evoluto dell’attuale approccio regolatorio europeo, costituisce, ad avviso di chi scrive, un dato innegabile. Tali atti tuttavia, oltre a non avere – come già si è ricordato – efficacia vincolante, lasciano aperte ancora numerose questioni di fondo, le quali presuppongono altrettante scelte politiche, la cui responsabilità dovrebbe ricadere, in conformità ai principi democratici cui s’ispira l’ordinamento europeo, sui decisori pubblici [100]. Tale conclusione pare obbligata ove tali soggetti intendano realmente declinare in termini operativi il concetto di IA antropocentrica, liberandolo dalla condizione di mero enunciato programmatico alla quale esso è attualmente relegato.

In altre parole, la preferenza sinora accordata all’etica, alla soft law e alla self-regulation non può diventare il paravento dietro cui nascondersi per lasciare che l’innovazione tecnologica e le sue applicazioni si diffondano su larga scala nel silenzio della regolazione – pretermettendo, di conseguenza, il diritto e i diritti. Peraltro, non tutti gli ambiti di applicazione dell’IA sono identici, e non tutti gli interessi e diritti coinvolti in questi ultimi hanno la medesima consistenza. Non pare pertanto precoce, né frutto di eccessiva cautela, affermare che, rispetto a talune applicazioni, sia opportuno intervenire senza ulteriori esitazioni. In questo senso paiono senz’altro condivisibili alcune preoccupazioni espresse nel recente Libro bianco della Commissione a proposito del­l’utilizzo dell’IA nei processi di selezione del personale, di identificazione biometrica remota, di concessione di contributi e sussidi pubblici, nonché di tecnologie intrusive di sorveglianza [101].

Il ricorso a principi e linee guida etiche, inoltre, potrebbe rivelarsi maggiormente proficuo ove questi ultimi fungessero da criteri orientativi ulteriori, innestati in un quadro regolativo articolato e caratterizzato dalla presenza di requisiti giuridici minimi inderogabili, quali ad esempio quelli in materia di sicurezza, di tutela degli interessi pubblici e privati coinvolti dall’IA, e di rispetto dei diritti umani [102]. Quanto a questi ultimi si rivela particolarmente urgente l’esigenza di adottare misure volte a garantire che, in fase di sviluppo dei sistemi intelligenti, i c.d. dati di addestramento siano sufficientemente rappresentativi e rispecchino fedelmente i profili relativi al genere, all’etnia e ad ogni variabile rispetto alla quale possa sussistere un rischio di discriminazioni [103].

In sintesi, le considerazioni sin qui svolte possono conclusivamente ricondursi a due principali macro-argomenti che, ad avviso di chi scrive, campeggiano in favore di una regolazione dell’IA che sia – anche – pubblica e che si avvalga – anche – di atti normativi vincolanti.

In primo luogo, poiché tra le funzioni primarie del diritto vi è quella di porre un limite e di offrire garanzie e rimedi di fronte all’esercizio del potere – sia questo economico o politico, privato o pubblico – pare ragionevole ritenere che, dal momento che l’IA indubbiamente accresce il potere di alcuni operatori, il diritto debba svolgere in questo frangente un ruolo più incisivo rispetto a quello attualmente riconosciutogli [104].

Il secondo argomento attiene, infine, alla sicurezza e al corretto funzionamento dell’IA ed insiste sull’idea che, poiché la neutralità tecnologica e la conseguente pretesa innocuità dei sistemi intelligenti non può essere considerata un bene dato, ossia una caratteristica intrinseca di questi ultimi, costituendo piuttosto il prodotto di un’oculata regolazione, spetta – anche – al diritto assicurare che l’IA sia progettata, sviluppata ed impiegata in maniera neutrale [105].


5. Alcune considerazioni conclusive in favore di un intervento re­golativo da parte dell’Unione europea

A chiosa delle considerazioni di portata più ampia relative alla necessità di una regolazione pubblica dell’IA, pare opportuno concludere il presente scritto precisando sinteticamente alcune ragioni ulteriori che, ad avviso di chi scrive, impongono, in particolare, un intervento regolativo da parte dell’Unione europea [106].

Una prima ragione attiene alle dimensioni inevitabilmente ultra-statali, se non globali, del fenomeno di cui stiamo discutendo [107]. Ciò comporta che le risposte normative predisposte dagli Stati membri (a partire dalle strategie nazionali sull’IA), benché auspicabili e necessarie, rischino di rivelarsi insufficienti. L’intervento normativo dell’Unione, come peraltro accade in molti altri settori in cui viene invocato il principio di sussidiarietà di cui all’art. 5 TUE, si rivelerebbe pertanto indispensabile a fronte della fragilità e dell’inadeguatezza di quello statale [108].

In secondo luogo, gli interventi normativi statali necessitano di un coordinamento efficace per assicurare l’interoperabilità dei sistemi di IA e, quindi, per consentire che tali tecnologie possano realmente apportare i vantaggi pro­messi. Tale coordinamento pare necessario sia per quel che riguarda l’elabo­ra­zione di standard tecnici e parametri normativi comuni, sia per quel che riguarda la condivisione dei dati [109]. L’armonizzazione – se non addirittura l’uni­formità – derivante da un’azione coordinata a livello europeo pare infatti un prerequisito indispensabile per la creazione del mercato unico europeo per un’IA affidabile [110].

Un intervento regolatorio da parte dell’Unione, inoltre, appare urgente in quanto il mercato dell’IA che sta emergendo – e che spicca tra i settori economici più redditizi – risulta essere già connotato da un alto rischio di distorsioni in senso monopolistico, o quantomeno, oligopolistico [111]. Questo vale sia per gli sviluppatori su larga scala di sistemi di IA, sia, soprattutto, per i c.d. gate keepers dei dati personali [112], i quali ultimi, come noto, costituiscono l’input necessario ai fini del funzionamento delle applicazioni di IA basate su algoritmi di apprendimento e predittivi.

Vi è infine un principio generale dell’ordinamento UE che, secondo una lettura che qui si ritiene di condividere, renderebbe doveroso un intervento del­l’Unione in questo settore, ossia il principio di precauzione [113]. Quest’ultimo, infatti, sarebbe chiamato in causa in ragione dell’incertezza scientifica che accompagna diversi aspetti dello sviluppo e – soprattutto – dell’applicazione dell’IA, la quale determina l’insorgere di diversi profili di rischio [114]. A questo proposito, già Stefano Rodotà affermava, alcuni anni addietro, che i rischi di cui si sta prendendo consapevolezza dovrebbero «indurre ad adottare almeno il “principio di precauzione” e a costruire un adeguato contesto istituzionale … per evitare che il rapporto sempre più importante tra l’uomo e la macchina venga governato solo dalla logica economica» [115].

In conclusione, oltre alla necessità di un intervento regolativo pubblico in materia di IA – come chiarito nel precedente paragrafo – dal contesto attuale paiono emergere anche ragioni specifiche che rendono urgente un intervento – anche, se non in primis – da parte dell’Unione europea.


NOTE

[1] Comunicazione della Commissione europea, COM(2019) 168 final, dell’8 aprile 2019, Creare fiducia nell’intelligenza artificiale antropocentrica.

[2] R. Atkinson, Don’t Fear AI, BEI, 2019, p. 9. Come noto, fra le altre innovazioni tecnologiche “general purpose” capaci di generare rivoluzioni industriali si annoverano il motore a vapore, l’elettricità e internet. In argomento si vedano L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, Milano, 2017, in particolare p. 99 ss., e il report curato da McKinsey, Disruptive Technologies: Advances that Will Transform Life, Business, and the Global Economy, McKinsey Global Institute, 2013.

[3] L’espressione “distruzione creativa” (orig. schöpferische Zerstörung) è stata coniata dall’economista austriaco Joseph Schumpeter (v. J.A. Schumpeter, Capitalism, Socialism and Democracy, Harper & Brothers, New York-London, 1942, p. 83).

[4] Sulla capacità dell’IA di imporre un ripensamento degli istituti e delle categorie giuridiche si vedano: A. Simoncini-S. Suweis, Il cambio di paradigma nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Riv. fil. dir., 2019, p. 87 ss.; M. Bassini-L. Liguori-O. Pollicino, Sistemi di Intelligenza Artificiale, responsabilità e accountability. Verso nuovi paradigmi?, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, Torino, 2018, p. 333.; G. De Minico, Big Data e la debole resistenza delle categorie giuridiche. Privacy e lex mercatoria, in Dir. pubbl, 2019, 1, p. 89; C. Harlow-R. Rawlings, Proceduralism and Automation: Challenges to the Values of Administrative Law, in LSE, Law, Society and Economy Working Papers, 2019, p. 3.

[5] Così ad esempio Elon Musk, il quale si è attivamente impegnato in questo senso partecipando alla Conferenza di Asilomar organizzata a gennaio 2017 dal Future of Life Institute e conclusasi con l’approvazione di 23 principi – su cui si tornerà infra. Posizioni analoghe sono state assunte anche da Bill Gates e Steve Wozniak (co-fondatore di Apple), come riportato, fra gli altri, da M.U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, in 29 Harv. J. Law & Tech., 353 (2016), 355.

[6] Sulla tardività dell’intervento dell’Unione europea si veda, in termini critici, S. Da Empoli, Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro, Bocconi editore, Milano, 2019, p. 17 ss. La stessa UE, peraltro, sembra aver preso coscienza del proprio ritardo, come testimonia, tra gli altri, il report del Servizio ricerca del Parlamento europeo “Cost of Non-Europe on Robotics and Artificial Intelligence” pubblicato a giugno 2019, reperibile online all’indirizzo https://
www.europarl.europa.eu/thinktank/en/document.html?reference=Eprs_Stu(2019)631752.

[7] Il riferimento corre, in particolare ad alcuni Paesi asiatici, quali il Giappone, la Cina, la Corea del Sud, e, in misura minore, agli Stati Uniti. Per alcune considerazioni preliminari sui differenti approcci alla regolazione dell’IA si vedano: E. Stradella, La regolazione della Robotica e dell’Intelligenza artificiale: il dibattito, le proposte, le prospettive. Alcuni spunti di riflessione, in MediaLaws – Rivista dir. media, 2019, 1, p. 73; F. Balestrieri-L. Balestrieri, Guerra digitale. Il 5G e lo scontro tra Stati Uniti e Cina per il dominio tecnologico, Luiss University Press, Roma, 2019; H. Roberts-J. Cowls-J. Morley-M. Taddeo-V. Wang,-L. Floridi, The Chinese Approach to Artificial Intelligence: an Analysis of Policy and Regulation, disponibile online all’indirizzo https://ssrn.com/abstract=3469784; C. Cath-S. Wachter-B. Mittelstadt-M. Taddeo-L. Floridi, Artificial Intelligence and the “Good Society”: the US, EU, and UK Approach, in Sci. Eng. Ethics, 2018, 2, p. 505; C. Trevisi, La regolamentazione in materia di Intelligenza artificiale, robot, automazione: a che punto siamo, in Rivista di diritto dei media, 2018, 2, p. 447. In particolare, per quel che riguarda la Cina, oltre ad alcuni documenti programmatici emanati a partire dal 2013 dal Comitato centrale del partito comunista cinese e dal Consiglio di Stato, quest’ultimo ha adottato nel 2017 il New Generation Artificial Intelligence Development Plan (AIDP), in base al quale la Cina ambisce a diventare leader mondiale nel settore dell’IA entro il 2030. A tal fine l’AIDP ha stabilito alcune scadenze per l’approvazione, dapprima, di alcuni principi etici e, in seguito, di norme giuridiche di rango legislativo (entro il 2025) volte a disciplinare lo sviluppo e l’utilizzo dell’IA. La formulazione di tali regole e principi è stata affidata ad un comitato governativo appositamente istituito e alla Standardization Administration of the People’s Republic of China, che hanno già approvato otto macro-principi e un libro bianco, dai quali traspare una particolare attenzione all’impatto dell’IA sulle relazioni sociali, e una minore preoccupazione – rispetto a quanto avviene in Europa, come si vedrà infra – per la tutela dei diritti individuali, fra i quali, in primis, la privacy. L’attuazione dell’AIDP, che fa ampio affidamento sulla sperimentazione condotta dagli enti locali e dal settore privato, è coordinata a livello centrale da un organismo governativo ad hoc (L’AI Strategy Advisory Committee) e dal Ministero della scienza e della tecnologia. Per quel che riguarda il settore privato, la Cina ha inteso privilegiare alcuni “campioni nazionali dell’IA” (quali Baidu, Alibaba e Tencent) che si sono impegnati, a fronte di un sostegno economico pubblico diretto e indiretto, a sviluppare sistemi di IA conformi al programma Aidp. La Cina, inoltre, ha già avviato, a partire dal 2010, una riforma dell’istruzione pubblica, al fine di sviluppare le competenze necessarie per raggiungere gli obiettivi programmatici appena menzionati (si tratta del National Medium – and Long-Term Education Reform and Development Plan). Anche il Governo sudcoreano, come quello cinese, ha avviato a febbraio 2017 (limitatamente ai settori di competenza di alcuni ministeri ed agenzie governative), l’elaborazione di standard volti a definire, fra le altre cose, i profili della responsabilità e gli standard etici relativi all’utilizzo dell’IA. Quanto al Giappone, infine, il Governo ha istituito nel 2016 l’Artificial Intelligence Technology Strategy Council, che ha formulato l’anno seguente delle linee guida composte da alcuni criteri orientativi di massima e da nove principi, i quali, anche in ragione della loro genericità, paiono ampiamente convergenti rispetto a quelli formulati dall’UE e dall’OCSE – di cui si dirà infra. Oltre alle iniziative pubbliche, anche il settore privato si è dimostrato attivo in Giappone, come testimonia l’istituzione a settembre 2014 di un comitato etico all’interno della Japanese Society for Artificial Intelligence (JSAI), il quale ha approvato a febbraio 2017 alcune linee guida sull’intelligenza artificiale, alla cui osservanza sono tenute tutte le società afferenti alla JSAI.

[8] Solo per limitarci alle iniziative più note (sulle quali peraltro si tornerà infra) si vedano la Partnership on Artificial Intelligence, il Future of Life Institute – che a partire da una open letter on AI ha avviato un dibattito internazionale culminato nella Conferenza di Asilomar del 2017, conclusasi con l’elaborazione di 23 principi – e la Dichiarazione di Montreal del 2018 per un’IA responsabile, contenente 10 principi e 8 raccomandazioni.

[9] Cfr. S. Da Empoli, Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro, cit., pp. 20-32 e i dati ivi riportati.

[10] Si tratta di alcuni progetti di ricerca volti alla sperimentazione di applicazioni innovative dell’IA nei settori dell’agrorobotica, della guida autonoma e della chirurgia robotica, i quali sono stati finanziati, a partire dal 2004, da programmi europei di ricerca e sviluppo, come riportato dalla comunicazione della Commissione COM(2018) 237 final, del 25 aprile 2018 (p. 5).

[11] Comunicazione della Commissione COM(2016) 180 final, del 19 aprile 2016: “Digitalizzazione dell’industria europea. Cogliere appieno i vantaggi di un mercato unico digitale”. Lo sviluppo dell’IA è stato di seguito incluso formalmente nella nuova strategia di politica industriale dell’Unione con la comunicazione della Commissione COM(2017) 479 final/2 del 6 novembre 2017. Stupisce, invece, la precedente assenza del tema dall’agenda digitale europea del 2010 (comunicazione della Commissione COM(2010) 245 final, del 19 maggio 2010) e dalla strategia per il mercato unico digitale del 2015 (comunicazione della Commissione COM(2015) 192 final, del 6 maggio 2015).

[12] Risoluzione del Parlamento 2015/2103 (INL) del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, in relazione alla quale si vedano i commenti di E. Palmerini-B.J. Koops-A. Bertolini-P. Salvini-F. Lucivero, Regulatory Challenges of Robotics: Some Guidelines for Addressing Legal and Ethical Issues, in Law, Innovation and Technology Journal, 2017, 1, p. 1, ed E. Palmerini-A. Bertolini-F. Battaglia-B.J. Koops-A. Carnevale-P. Salvini, Robolaw: Towards a European Framework for Robotics Regulation, in Robotics and Autonomous Systems, 2016, 86, p. 78.

[13] Considerando O. Preoccupazioni ulteriori, relative in particolare alle implicazioni dei Big Data rispetto ai diritti fondamentali quali privacy, protezione dei dati, non discriminazione e sicurezza, sono state formulate dal Parlamento europeo con la risoluzione 2016/2225 (INI) del 14 marzo 2017, e dall’Agenzia europea per i diritti fondamentali (FRA), che ha pubblicato nel 2018 il report #BigData: Discrimination in Data-supported Decision Making, aggiornato l’anno seguente dal documento Data Quality and Artificial Intelligence – Mitigating Bias and Error to Protect Fundamental Rights.

[14] Considerando S.

[15] Quanto alla Commissione, la nuova strategia di politica industriale dell’Unione varata il 6 novembre 2017 si è limitata ad includere tra i propri pilastri lo sviluppo dell’IA. Per quel che riguarda il Consiglio europeo, invece, risale alla riunione dedicata al Digital day del 10 aprile 2018 la firma di una dichiarazione di cooperazione fra gli Stati membri sull’intelligenza artificiale.

[16] Comunicazione della Commissione COM(2018) 237 final, del 25 aprile 2018: “L’intelligen­za artificiale per l’Europa”. Alla comunicazione è allegato un documento di lavoro che affronta, in particolare, le questioni relative al regime della responsabilità, sulle quali già insistevano ampiamente le raccomandazioni del Parlamento. Il documento invita a riconsiderare, e ad adeguare in via interpretativa, se non anche attraverso modifiche espresse o atti di raccordo, la direttiva c.d. “macchine” (Ce) n. 42/2006, la direttiva (CE) n. 95/2001 sulla sicurezza dei prodotti, la direttiva (UE) n. 53/2014 sui dispositivi che impieghino le frequenze radio, e le direttive (CE) nn. 385/1990, 42/1993 e 79/1998 in materia sanitaria e sulla diagnosi e l’impianto di dispositivi attivi. Il documento di lavoro si sofferma su diversi aspetti problematici del regime di responsabilità (nesso di causalità, errore umano, difetto di programmazione, interazione tra sistemi intelligenti diversi) e prende in considerazione alcune applicazioni specifiche, in cui i sistemi intelligenti sono incorporati in hardwares (droni, guida autonoma, Internet of Things ed elettrodomestici intelligenti). Trattandosi di un documento di lavoro, tuttavia, esso non giunge ad alcuna presa di posizione definitiva, concludendo anzi che «if a regulatory intervention on these technologies appears appropriate and necessary (in terms of new rules or an amendment to existing rules), it should be discussed whether that intervention should be developed in a horizontal o sectorial way and whether new legislation should be enacted at EU level» (p. 21).

[17] Si veda a questo proposito il regolamento (UE) n. 1488/2018 del Consiglio del 28 settembre 2018 che istituisce l’impresa comune per il calcolo ad alte prestazioni europeo (c.d. High Performance Computing o HPC), che prevede la realizzazione di tre centri europei di calcolo, uno dei quali ospitato presso il Cineca di Bologna. Si veda sul punto S. Da Empoli, Intelligenza artificiale: ultima chiamata. Il sistema Italia alla prova del futuro, cit., p. 60.

[18] Il gruppo di esperti è composto da 52 membri, nominati dalla Commissione a seguito di un processo di selezione aperto a soggetti provenienti dal mondo della ricerca, dell’Università e dai settori economici interessati.

[19] Regolamento (UE) n. 679/2016 del Parlamento e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, entrato in vigore il 25 maggio 2018.

[20] Si vedano in particolare l’art. 22 e il considerando n. 71, nonché le linee guida del gruppo di lavoro sulla protezione dei dati personali (WP29, successivamente trasformato nello European Data Protection Board) del 3 ottobre 2017 (aggiornate il 6 febbraio 2018). Come noto, sul tema è già maturato un ampio approfondimento scientifico, al quale si rimanda: L. Floridi, Soft Ethics, the Governance of the Digital, and the General Data Protection Regulation, in Phil. Trans. R. Soc., 2018, 376, p. 2133; L.A. Bygrave, EU Data Protection Law Falls Short as Desirable Model for Algorithmic Regulation, in L. Andrews et al., Algorithmic Regulation, The London School of Economics and Political Science Discussion Paper No. 85, September 2017, p. 31; B. Goodman-S. Flaxman, European Union Regulations on Algorithmic Decision-Making and a “Right to Explanation”, in AI Magazine, 2017, 38, p. 49. Nella dottrina italiana si vedano, ex multis: G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Editoriale Scientifica, Napoli, 2019, p. 101 ss.; S. Civitarese Matteucci, Umano troppo umano. Decisioni amministrative automatizzate e principio di legalità, in Dir. pubbl., 2019, 1, p. 5, in particolare 23 ss.; F. Costantino, Rischi e opportunità del ricorso delle amministrazioni alle predizioni dei big data, in Dir. pubbl., 2019, 1, p. 43; M. Delmastro-A. Nicita, Big Data. Come stanno cambiando il nostro mondo, Il Mulino, Bologna, 2019, 36.

[21] Comunicazione della Commissione COM(2018) 795 final, del 7 dicembre 2018, il cui allegato è rappresentato, appunto, dal “Piano coordinato sullo sviluppo e l’utilizzo dell’intelligenza artificiale ‘Made in Europe’”.

[22] Ivi p. 3.

[23] Ivi p. 8.

[24] Ivi p. 9.

[25] Ivi p. 14. Oltre al già citato GDPR, si vedano sul punto la comunicazione della Commissione COM (2018) 232 final, del 25 aprile 2018, “Verso uno spazio comune europeo dei dati” e il regolamento (UE) n. 1807/2018 del Parlamento europeo e del Consiglio del 14 novembre 2018, relativo alla libera circolazione dei dati non personali nell’Unione europea.

[26] v. punto 13 della risoluzione del Parlamento 2018/2088 (INI) del 12 febbraio 2019 su una politica industriale europea globale in materia di robotica e intelligenza artificiale. A tali ambiti di resistenza si aggiungono quelli indicati dal recente Libro bianco della Commissione sull’in­tel­ligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, COM(2020) 65 final, del 19 febbraio 2020, ossia, in particolare, i processi di selezione del personale e le applicazioni di IA ai fini di identificazione biometrica remota (v. in particolare pp. 20 e 24).

[27] Ivi, punto 116.

[28] Ivi, punto 114.

[29] Si vedano i punti 148 e 187 della risoluzione. In particolare, al punto 148, il Parlamento suggerisce l’istituzione, oltre che di organismi di controllo pubblici, anche di comitati etici interni alle imprese operanti nel settore dell’IA. Anche le raccomandazioni approvate dal gruppo di esperti nominato dalla Commissione – di cui si dirà più approfonditamente infra – insistono su questo profilo. Si veda in particolare AI HLEG, Policy and Investment Recommendations for Trustworthy AI, pubblicate il 26 giugno 2019, punto 5.3.

[30] È espressione della medesima tendenza anche l’istituzione, da parte del regolamento (UE) n. 881/2019 del Parlamento europeo e del Consiglio del 17 aprile 2019, dell’Agenzia dell’Unione europea per la cibersicurezza e la certificazione della cibersicurezza per le tecnologie dell’informazione e della comunicazione (ENISA). Il punto è confermato dal Libro bianco della Commissione sull’intelligenza artificiale del 19 febbraio 2020 (pp. 27-28), che insiste, in particolare, sulla cooperazione tra l’Unione e le competenti autorità nazionali.

[31] Il dibattito sul punto è particolarmente vivace negli Stati Uniti, come testimoniano M.U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, cit., 393 ss.; A. Tutt, An FDA for Algorithms, 69 Admin. L. Rev., 2017, 83; R. Calo, The Case for a Federal Robotics Commission, Center for Technology Innovation at Brookings, 2014.

[32] Si vedano i punti 187 e 154 della risoluzione.

[33] Ivi, punto 187.

[34] La letteratura in materia di agenzie europee è sterminata; in argomento si vedano, ex multis: E. Chiti, European Agencies’Rulemaking, Powers, Procedures and Assessment, in European Law Journal, 2013, p. 93 ss.; V. Cerulli Irelli, Dalle agenzie europee alle autorità europee di vigilanza, in M.P. Chiti-A. Natalini (a cura di), Lo spazio amministrativo europeo. Le pubbliche amministrazioni dopo il Trattato di Lisbona, Il Mulino, Bologna, 2012, p. 137; B. Marchetti, Agenzie europee e accountability: cenni al problema della tutela giurisdizionale, in B. Marchetti (a cura di), L’amministrazione comunitaria: caratteri, accountability e sindacato giurisdizionale, Cedam, Padova, 2009, p. 117.

[35] Artificial Intelligence High Level Expert Group, Ethics guidelines for trustworthy AI, 8 aprile 2019.

[36] Si prevede anzi espressamente che «these statements are hence not meant to provide legal advice or to offer guidance on compliance with applicable laws, though it is acknowledged that many of these statements are to some extent already reflected in existing laws» (p. 1). Le linee guida riconoscono peraltro che «AI systems do not operate in a lawless world» (p. 6). Anche la Commissione, commentando le linee guida nella Comunicazione “Creare fiducia nell’in­telligenza artificiale antropocentrica” COM(2019) 168 final, dell’8 aprile 2019, osserva che «gli orientamenti elaborati dal gruppo di esperti … non sono vincolanti e non introducono pertanto nuovi obblighi giuridici. Tuttavia numerose disposizioni vigenti del diritto dell’Unione (spesso settoriali o specifiche per un determinato uso) già comprendono uno o più di questi requisiti fondamentali, ad esempio la sicurezza, la protezione dei dati personali, la tutela della riservatezza o le norme per la salvaguardia dell’ambiente» (p. 4).

[37] A tali principi è dedicato il Cap. I delle linee guida.

[38] Questo punto è stato ripreso nelle successive raccomandazioni approvate dal gruppo di esperti: AI HLEG, Policy and investment recommendations for trustworthy AI, pubblicate il 26 giugno 2019. Si vedano in particolare i punti 2, 4.2 e 4.3.

[39] A tali aspetti è dedicato il Cap. II delle linee guida.

[40] Il punto è ripreso anche dal Libro bianco della Commissione sull’intelligenza artificiale del 19 febbraio 2020 (p. 23). Su questo aspetto si veda D. Amoroso-G. Tamburrini, I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano?, in BioLaw Journal – Rivista di BioDiritto, 2019, 1, p. 33.

[41] Quest’ultimo è contenuto nel Cap. III delle linee guida. Da inizio 2020, tuttavia, sono in corso aggiornamenti sul punto.

[42] Si tratta delle Policy and investment recommendations for trustworthy AI, pubblicate il 26 giugno 2019, contenenti 33 raccomandazioni, ulteriormente suddivise in sottopunti. Di particolare interesse per il tema della “lawful AI” sono i punti 26 e seguenti.

[43] Punto 26.1. Per rischio si intende, in senso ampio, la possibilità che si verifichino impatti negativi di qualsiasi genere su un individuo o sulla società. La regolazione basata sul rischio comporta l’individuazione di differenti classi di rischio e, specularmente, l’individuazione di regimi regolatori differenziati. Anche il Libro bianco della Commissione sull’intelligenza artificiale del 19 febbraio 2020 insiste sulla necessità di distinguere, fra le applicazioni dell’IA, quelle “ad alto rischio” (p. 19). Solo a queste ultime, infatti, dovrebbe riservarsi una regolazione di tipo prescrittivo, mentre per le altre applicazioni sarebbe sufficiente un sistema di etichettatura su base volontaria (p. 27). Dal Libro bianco, tuttavia, non pare possano desumersi elementi oggettivi in base ai quali classificare l’intensità del rischio, limitandosi quest’ultimo a osservare che determinate attività (fra cui assistenza sanitaria, trasporti ed energia) presentano di per sé profili significativi di rischio.

[44] Punto 26.2. L’individuazione dei rischi inaccettabili competerebbe agli organi dotati di legittimazione democratica, i quali dovrebbero compiere tali scelte di policy sulla base di procedimenti aperti e trasparenti. Sul principio di precauzione si tornerà più diffusamente nell’ultimo paragrafo.

[45] Fra questi ultimi, le raccomandazioni fanno riferimento alle norme sulla responsabilità (punti 27.2 e 27.3), sulla protezione dei consumatori (punto 27.4), sulla protezione dei dati (punto 27.5), sulla non discriminazione (punto 27.6), sulla cibersicurezza (punto 27.7), sulla tutela della concorrenza (punto 27.8). A proposito del divieto di discriminazioni si veda P. Hacker, Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies Against Algorithmic Discrimination under EU Law, in Common Market Law Review, 2018, 55, p. 1143.

[46] Punto 27.1. Sul tema si veda F. Bassan, Potere dell’algoritmo e resistenza dei mercati in Italia. La sovranità perduta sui servizi, Rubbettino, Catanzaro, 2019.

[47] Punto 28.

[48] Punto 30.2.

[49] Punto 28.2. Sul tema si tornerà più diffusamente nel paragrafo successivo.

[50] Si veda ad esempio il caso dell’attribuzione della cittadinanza saudita al robot Sophie. Cfr. sul tema C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in DPCE, 2019, numero speciale, 101, e L.B. Solum, Legal Personhood for Artificial Intelligences, 70 North Carolina L. Rev. 1231 (1992).

[51] Punto 29.7.

[52] Punto 30.5.

[53] Libro bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia COM(2020) 65 final, del 19 febbraio 2020, la cui adozione è stata accompagnata dalla Relazione al Consiglio e al Comitato economico e sociale europeo sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità, COM(2020) 64 final.

[54] Su tali profili si vedano rispettivamente pp. 3, 8 e 19 del Libro bianco.

[55] Anche la Presidente della Commissione europea Ursula von der Leyen, nei suoi orientamenti politici intitolati “Un’Unione più ambiziosa” ha annunciato la presentazione di «una proposta legislativa per un approccio europeo coordinato alle implicazioni umane ed etiche dell’in­telligenza artificiale» (p. 14 degli orientamenti politici per la prossima Commissione europea 2019-2024). Tale annuncio, pur in sostanziale continuità con l’approccio europeo per quel che riguarda i contenuti, si contraddistingue per un profilo di novità, facendo espressamente riferimento ad una proposta di rango legislativo, anziché ad atti di soft law.

[56] Il dibattito sviluppatosi in seno al Consiglio d’Europa ha preso le mosse dallo studio “Algorithms and human rights, study on the human rights dimensions of automated data processing techniques and possible regulatory implications” curato dalla Commissione di esperti sugli intermediari internet e pubblicato a marzo 2018.

[57] Si vedano a questo proposito le conclusioni “Governing the Game Changer – Impacts of artificial intelligence development on human rights, democracy and the rule of law. Conclusions from the conference”, del 26-27 febbraio 2019.

[58] Si vedano le raccomandazioni “Unboxing Artificial Intelligence: 10 steps to protect Human Rights” pubblicate a maggio 2019.

[59] Cfr. punto 4 delle conclusioni della Conferenza di Helsinki e punti 6-8 delle raccomandazioni. Il consenso su questo punto può dirsi pressoché globale: anche l’Assemblea generale delle Nazioni Unite ha approvato, il 29 agosto 2018, un report sulla promozione e protezione dei diritti umani di fronte alle sfide poste dall’IA, benché quest’ultimo si soffermi, in particolare, sui rischi connessi alla libertà di espressione nelle piattaforme digitali.

[60] Si veda in particolare il punto 1 delle conclusioni della Conferenza di Helsinki.

[61] Punto 11 delle conclusioni e punto 3 delle raccomandazioni.

[62] Punto 6 delle conclusioni.

[63] Punto 5 delle raccomandazioni, che contemplano a titolo esemplificativo l’istituzione di autorità amministrative, giurisdizionali o quasi-giurisdizionali, oltre al ricorso a commissioni parlamentari.

[64] Il Comitato è stato istituito lo scorso 11 settembre 2019 dal Comitato dei Ministri del Consiglio d’Europa, e ha tenuto la sua prima riunione il 18-20 novembre 2019.

[65] Recommendations of the Council on Artificial Intelligence del 22 maggio 2019.

[66] Un’analisi più dettagliata e approfondita dell’IA – priva tuttavia di policy recommendations – è rinvenibile nel volume curato dall’OCSE: Artificial Intelligence in Society, OECD Publishing, Paris, 2019.

[67] Tali raccomandazioni sono state inoltre recepite, come impegno politico, nella dichiarazione del G20 sulla Digital economy del 8-9 giugno 2019, e sono state successivamente ribadite nella riunione del G7 di Biarritz del 26 agosto 2019, innovando il dibattito sul tema dell’IA antropocentrica che era stato avviato, nell’ambito di tale consesso, a partire dalla riunione del G7 di Torino del 26 settembre 2017.

[68] Il 27 febbraio 2020 è stata inaugurata la piattaforma online https://oecd.ai, attraverso cui seguire l’attività dell’osservatorio.

[69] Una sintesi di tali iniziative è offerta dal report United Nations Activities on Artificial Intelligence, pubblicato dall’International Telecommunication Union (ITU, Ginevra, 2019). L’ITU è l’agenzia ONU specializzata in ICT, che, assieme all’UNICRI (United Nations Interregional Crime and Justice Research Institute), si è dimostrata più attiva nel settore dell’intelligenza artificiale. Complessivamente sono oltre 35 le agenzie e gli organismi dell’ONU che negli ultimi anni hanno avviato, finanziato e realizzato – spesso attivando partenariati con altri soggetti pubblici e privati – progetti di ricerca e applicazioni sperimentali in materia di IA; tra queste si segnalano, in via meramente esemplificativa: le applicazioni dell’IA nei settori dell’agricoltura e della pesca (avanzate da FAO e IMO); quelle in materia di sicurezza aerea (coordinate dall’ICAO); gli studi relativi all’impatto dell’IA sul mondo del lavoro condotti dall’ILO; l’applicazione di algoritmi predittivi allo studio dei fenomeni migratori da parte dell’IOM e dell’UNHCR.

[70] Guiding Principles on Business and Human Rights: Implementing the United Nations “Protect, Respect and Remedy” Framework, di cui al report A/HRC/17/31 del 21 marzo 2011.

[71] Report A/73/348, discusso dall’Assemblea generale ONU il 29 agosto 2018.

[72] Punti 47 ss. del report, confermati dal piano di azioni prioritarie annunciato dallo High-level Panel on Digital Cooperation istituito dal Segretario generale dell’ONU. Si veda in particolare il punto 3c a p. 5 del report The age of digital interdependence, pubblicato nel mese di giugno 2019, nonché i precedenti report dell’UNHCR: A/HRC/36/48 del 21 luglio 2017, e A/HRC/35/9 del 5 maggio 2017.

[73] Cfr. punti 62-70 del report.

[74] In argomento si vedano: I. Bode-H. Huelss, Autonomous Weapons Systems and Changing Norms in International Relations, in Review of International Studies, 2018, 44(3), p. 393; D. Amoroso-G. Tamburrini, The Ethical and Legal Case Against Autonomy in Weapons Systems, in Global Jurist, 2017, 18, p. 1; M.W. Meier, Lethal Autonomous Weapons Systems (Laws): Conducting a Comprehensive Weapons Review, 30 Temp. Int’l. & Comp. L.J. 119 (2016); B. Kastan, Autonomous Weapons Systems: A Coming Legal Singularity, in 45 Journal of Law, Technology & Policy 45 (2013).

[75] Si tratta della Convention on Certain Conventional Weapons, ossia della Convenzione delle Nazioni Unite sulla proibizione o la limitazione dell’uso di alcune armi convenzionali che possono essere considerate eccessivamente dannose o aventi effetti indiscriminati, stipulata il 10 ottobre 1980. Si veda sul punto I. Bode-H. Huelss, Autonomous Weapons Systems and Changing Norms in International Relations, cit., p. 398.

[76] Il tema è stato comunque posto all’attenzione dell’Assemblea generale delle Nazioni Unite (alla Prima Commissione), che ha salutato con favore il lavoro svolto dal gruppo di esperti governativi. Si veda a questo proposito la risoluzione GA/DIS/3611 del 26 ottobre 2018.

[77] Molti degli atti su cui ci siamo soffermati nei paragrafi precedenti costituiscono esempi tipici di soft law; si pensi ad esempio alle comunicazioni della Commissione europea, alle linee guida e alle raccomandazioni del gruppo di esperti nominato dalla Commissione, alle risoluzioni del Parlamento europeo, alle raccomandazioni dell’OCSE e alle conclusioni del Consiglio d’Europa. Non è questa la sede per soffermarci sul concetto di soft law, basti qui ricordare, se ve ne fosse bisogno, che gli atti ascrivibili a tale categoria sono convenzionalmente accomunati dal fatto di essere sprovvisti di efficacia vincolante diretta, pur potendo orientare le condotte dei soggetti ai quali essi si rivolgono, e pur potendo esplicare indirettamente, e in determinate circostanza, effetti hard, come osserva M. Ramajoli, Self regulation, soft regulation e hard regulation nei mercati finanziari, in Rivista della Regolazione dei mercati, 2016, 2, p. 53. Sul tema si vedano, ex multis: R. Hagemann-J. Huddleston Skees-A. Thierer, Soft Law for Hard Problems: The Governance of Emerging Technologies in an Uncertain Future, 17 Colo. Tech. L.J. 40 (2018); A. Algostino, La soft law comunitaria e il diritto statale: conflitto fra ordinamenti o fine del conflitto democratico?, in Costituzionalismo.it, 2016, 3, p. 255; B. Boschetti, Soft law e normatività: un’analisi comparata, in Rivista della Regolazione dei mercati, 2016, 2, p. 32 (con particolare riferimento all’ordinamento europeo si veda p. 45 ss.); F. Terpan, Soft Law in the European Union: The Changing Nature of EU Law, in European Law Journal, 2015, 21(1), p. 68; E. Mostacci, La soft law nel sistema delle fonti: uno studio comparato, Cedam, Padova, 2008 (in particolare sulla funzione regolatoria della soft law si veda p. 37 ss.); L. Senden, Soft Law, Self-regulation and Co-regulation in European Law: Where Do They Meet?, in Electronic J. Com. L. 2005, 9, p. 10.

[78] Sul dibattito relativo al rapporto tra etica e diritto quali strumenti di regolazione delle nuove tecnologie si vedano: V. Zeno-Zencovich, La “datasfera”. Regole giuridiche per il mondo digitale parallelo, in L. Scaffardi (a cura di), I “profili” del diritto. Regole, rischi e opportunità nell’era digitale, Giappichelli, Torino, 2018, p. 99; F. De Vanna, Diritto e nuove tecnologie: il nodo (controverso) della regolazione giuridica, in Lo Stato, 2018, 11, p. 388; S. Crisci, Intelligenza artificiale ed etica dell’algoritmo, in Foro Amministrativo, 2018, 10, p. 1787; B. Bisol-A. Carnevale-F. Lucivero, Diritti umani, valori e nuove tecnologie. Il caso dell’etica della robotica in Europa, in Metodo. International Studies in Phenomenology and Philosophy, 2014, 2(1), p. 250.

[79] Come osserva il gruppo di esperti nominato dalla Commissione europea: «even after compliance with legally enforceable fundamental rights has been achieved, ethical reflection can help us understand how the development, deployment and use of AI systems may implicate fundamental rights and their underlying values, and can help provide more fine-grained guidance when seeking to identify what we should do rather than what we (currently) can do with technology» (p. 10 delle linee guida).

[80] Cfr. J. Pelkmans-A. Renda, Does EU Regulation Hinder or Stimulate Innovation?, Center for European Policy Studies, Special report 96/2014. Con particolare riferimento alla questione dell’esplicabilità si vedano: S. Wachter-B. Mittelstadt-C. Russel, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, in 31 Harvard J. L. & Tech., 841 (2018); W. Samek-T. Wiegand-K.R. Müller, Explainable Artificial Intelligence: Understanding, Visualizing, and Interpreting Deep Learning Models, in ITU Journal: ICT Discoveries, 2017, 1, p. 1.

[81] In termini più generali, a proposito del ritardo del diritto rispetto all’innovazione tecnologica e alla rapida obsolescenza delle norme giuridiche si veda G. Pascuzzi, Il diritto dell’era digitale, Il Mulino, Bologna, 2010.

[82] Tale profilo emerge piuttosto nitidamente nello Studio “Algorithms and human rights, study on the human rights dimensions of automated data processing techniques and possible regulatory implications” pubblicato a marzo 2018 a cura della Commissione di esperti nominata dal Consiglio d’Europa (vedi supra). Ad assolvere tale funzione è chiamata, in particolare, la tecnoetica, in relazione alla quale si vedano: R. Luppicini-R. Adell (Eds.), Handbook of Research on Technoethics, Information Science Reference, Hershey-New York, 2009; P. Lin-K. Abney-G.A. Bekey (Eds.), Robot Ethics. The Ethical and Social Implications of Robotics, The Mit Press, Cambridge (MA), 2012; W. Wallach, From Robots to Techno-Sapiens: Ethics, Law and Public Policy in the Developments of Robotics and Neurotechnologies, in Law, Innovation and Technology, 2011, 3(2), p. 185; M. Bunge, Towards a Technoethics, in Monist, 1977, 60(1), p. 96.

[83] Limitandoci alla dottrina italiana, in argomento si vedano, ex multis: M. Ramajoli, Self regulation, soft regulation e hard regulation nei mercati finanziari, cit.; P. Lazzara, La regolazione amministrativa: contenuto e regime, in Dir. amm., 2018, 2, p. 337; N. Rangone, Declinazioni e implicazioni dell’autoregolazione: alla ricerca della giusta misura tra autonomia privata e pubblico potere, in Riv. dirit. aliment., 2011, 4, p. 1.

[84] Cfr. G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del diritto, 2019, 2, p. 199, in particolare pp. 219-220 e p. 233 ss.; E. Fosch Villaronga-A. Golia, The Intricate Relationships Between Private Standards and Public Policymaking in Personal Care Robots: Who Cares More?, in P. Barattini-F. Vicentini-G. Singh Virk-T. Haidegger (eds.), Human-Robot Interaction. Safety, Standardization, and Benchmarking, Chapman and Hall, New York, 2019, p. 9; R. Volante, Il soft law come norma di diritto privato. Un tentativo di definizione, in A. Somma (a cura di), Soft law e hard law nelle società postmoderne, Giappichelli, Torino, 2009, p. 173.

[85] Tale delega di funzioni normative sarebbe ulteriore rispetto alla «quantità di potere che si delega a una macchina» di cui parlano S. Civitarese Matteucci, Umano troppo umano. Decisioni amministrative automatizzate e principio di legalità, cit., 16 e – in termini di “meta-autonomia” – L. Floridi et al., AI4PEOPLE – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, in Minds and Machines, 2018, p. 689. In argomento v. anche A. C. Amato Mangiameli, Tecno-regolazione e diritto. Brevi note su limiti e differenze, in Diritto dell’informazione e dell’informativa, 2017, 2, p. 147.

[86] Tali standard sono reperibili online, all’indirizzo internet dell’IEEE: https://standards.ieee.
org/content/dam/ieee-standards/standards/web/documents/other/ead1e.pdf?utm_medium=un
defined&utm_source=undefined&utm_campaign=undefined&utm_content=undefined&utm_term
=undefined.

[87] Tali standard sono reperibili online, all’indirizzo internet: https://www.iso.org/committee/
6794475.html
.

[88] I principi, formulati a gennaio 2017, sono reperibili online al seguente indirizzo internet: https://futureoflife.org/ai-principles/.

[89] Il testo della dichiarazione, siglata a dicembre 2018, è reperibile online al seguente indirizzo internet: https://www.declarationmontreal-iaresponsable.com.

[90] Gli AI policy principles formulati dell’ITI sono reperibili online al seguente indirizzo internet: https://www.itic.org/resources/AI-Policy-Principles-FullReport2.pdf. Quelli approvati da Microsoft, Google ed Apple sono rinvenibili sui siti ufficiali di tali società.

[91] Sebbene tali categorie siano tutte riconducibili, nel complesso, al medesimo genus, ossia a quello della regolazione privata (o private standard-setting), solamente le ultime due appartengono, a rigore, alla species dell’autoregolamentazione (o self-regulation).

[92] Cfr. F. Rossi, Intelligenza Artificiale benefica e sicura: iniziative accademiche, governative e industriali, in Sistemi intelligenti, 2017, 3, p. 545, in particolare p. 547 ss.

[93] Tale profilo è riconosciuto anche dalle linee guida del gruppo di esperti nominato dalla Commissione, nella quali, a p. 6, si legge che: «AI systems do not operate in a lawless world». Sul punto si veda anche il recente Libro bianco della Commissione del 19 febbraio 2020 (in particolare pp. 10-11).

[94] Si prendano in considerazione, a titolo esemplificativo: la direttiva (CE) n. 374/1985 in materia di responsabilità per danno da prodotti difettosi; le direttive (CE) n. 385/1990, n. 42/1993 e n. 79/1998 in materia sanitaria e sulla diagnosi e l’impianto di dispositivi attivi; la direttiva (CE) n. 95/2001 sulla sicurezza dei prodotti; la c.d. direttiva macchine n. 42/2006; la direttiva (CE) n. 48/2009 sulla sicurezza dei giocattoli; la direttiva (UE) n. 35/2010 sul trasporto di merci pericolose; il regolamento (UE) n. 305/2011 sui prodotti da costruzione; la direttiva (UE) n. 30/2014 sulla compatibilità elettromagnetica; la direttiva (UE) n. 53/2014 sulle apparecchiature radio; il regolamento (UE) n. 910/2014 sull’identità elettronica e i servizi fiduciari; il regolamento (UE) n. 425/2016 sui dispositivi di protezione individuale; la direttiva (UE) n. 1148/2016 che individua un livello comune elevato di sicurezza delle reti e dei sistemi informativi nell’Unione. In particolare, sull’applicazione della direttiva (CE) n. 374/1985 in materia di responsabilità per danno da prodotti difettosi ai “prodotti robotici” si vedano: A. Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, in Law Innovation and Technology, 2013, 5(2), p. 214; M. Bassini-L. Liguori-O. Pollicino, Sistemi di Intelligenza Artificiale, responsabilità e accountability. Verso nuovi paradigmi?, cit., p. 338 ss.; A. Jablonowska et al., Consumer Law and Artificial Intelligence. Challenges to the EU Consumer Law and Policy Stemming from Business’ Use of Artificial Intelligence, EUI Working Paper LAW 2018, p. 11.

[95] Fa eccezione, ancora una volta, il GDPR, nella parte in cui esso prevede il diritto a non essere sottoposti a decisioni completamente automatizzate (art. 22), benché nemmeno que­st’ultimo possa, a rigore, essere considerato un atto normativo ad hoc in materia di IA.

[96] v. punto 51 della Risoluzione. In questo senso è ragionevole ritenere che il Parlamento saluterà con favore la proposta legislativa in materia di IA indicata dalla Presidente von der Leyen nei suoi orientamenti politici per la Commissione europea 2019-2024.

[97] v. supra par. 2, e p. 3 della Comunicazione della Commissione COM(2018) 795 final, del 7 dicembre 2018.

[98] Come recentemente osservato – con particolare riferimento ai principi desumibili dalla Costituzione italiana – un’attività di adattamento in via ermeneutica, per quando potenzialmente proficua, non pare scevra di criticità, potendo tuttalpiù rappresentare una «efficace cornice entro cui inserire una regolamentazione dell’AI costituzionalmente orientata», essendo invece «necessario che la riflessione etica e giuridica e che la costruzione di una disciplina adeguata procedano in tempi rapidi, di pari passo con la velocità dei progressi scientifici. È essenziale, infatti, che il diritto non insegua le applicazioni dell’AI, ma che intervenga a monte, ponendo principi e regole by design» (così C. Casonato, Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, in BioLaw Journal – Rivista di BioDiritto, 2019, 2, p. 711, in particolare p. 725).

[99] Per quel che riguarda l’Italia si veda a questo proposito il gruppo di 30 esperti istituto presso il Ministero dello sviluppo economico a inizio 2019, che ha elaborato le Proposte per una strategia italiana per l’intelligenza artificiale, poste alla base della Strategia nazionale per l’intelligenza artificiale successivamente elaborata dal Ministero. Il lavoro del gruppo di esperti ha beneficiato della previa pubblicazione del Libro Bianco da parte dell’AGID, a proposito del quale si veda M. Tresca, I primi passi verso l’Intelligenza Artificiale al servizio del cittadino: brevi note sul Libro Bianco dell’Agenzia per l’Italia digitale, in MediaLaws – Rivista dir. media, 2018, 3, p. 240.

[100] Come osserva Francesca Rossi (global leader di IBM per l’etica dell’IA, nonché membro del Gruppo di esperti nominato dalla Commissione europea), «mentre i ricercatori cercano di capire come migliorare la capacità dell’intelligenza artificiale, contemporaneamente tutti noi dobbiamo capire e decidere come e fino a che punto volgiamo inserire queste capacità nella nostra vita». Secondo l’Autrice «dovremo essere noi a decidere quali attività affidare alla tecnologia, e quali tenere esclusivamente per noi, anche se l’intelligenza artificiale potrebbe eseguirle in maniera più efficace ed efficiente» (F. Rossi, Il confine futuro. Possiamo fidarci dell’intelli­genza artificiale?, Feltrinelli, Milano, 2019, pp. 17-18). In senso conforme si vedano anche H. Fry, Hello World. Essere umani nell’era delle macchine (trad. it. a cura di A. Migliori), Bollati Boringhieri, Torino, 2019, p. 72, secondo cui «le risposte non dovrebbero giungere dai consigli di amministrazione delle aziende ma dagli spazi di dibattito pubblico e dalle istituzioni»; e N. Bostrom, Superintelligenza. Tendenze, pericoli, strategie (trad. it. S. Frediani), Bollati Boringhieri, Torino, 2018.

[101] V. Libro bianco COM(2020) 65 final, p. 20.

[102] In questo modo i principi e le linee guida etiche potrebbero rappresentare uno strumento di regolazione al rialzo (c.d. race to the top o California effect), anziché al ribasso (c.d. race to the bottom o Delaware effect).

[103] v. Libro bianco COM(2020) 65 final, p. 21.

[104] Cfr. C. Casonato, Potenzialità e sfide dell’intelligenza artificiale, in Biolaw Journal – Rivista di BioDiritto, 2019, 1, p. 177 che ricorda che tra i principali compiti del diritto – nella prospettiva dell’Autore, in particolare, del diritto costituzionale – vi è la «limitazione del potere in funzione di garanzia dei diritti di fronte alle nuove sfide». Sul potere conferito dall’IA, e in particolare dalle applicazioni che fanno uso di algoritmi predittivi si vedano anche A. Vespignani-R. Rijtano, L’algoritmo e l’oracolo. Come la scienza predice il futuro e ci aiuta a cambiarlo, Il Saggiatore, Milano, 2019, p. 19, e M. Hildebrandt, Smart Technologies and the End(s) of Law, Edward Elgar, Cheltenham (UK)-Northampton (MA), 2015, in particolare p. 133 ss.

[105] Il concetto di neutralità tecnologica è qui impiegato nell’accezione ampia di assenza di bias ed effetti discriminatori. Cfr. in argomento U. Pagallo, Intelligenza artificiale e diritto. Linee guida per un oculato intervento normativo, in Sistemi intelligenti, 2017, 3, p. 615, in particolare 625 ss.; R. Ali, Technological Neutrality, in Lex Electronica, 2009, 14(2), p. 2.

[106] Considerazioni analoghe sono state svolte a proposito del mercato unico digitale da B. Bertarini, Società e imprese nel mercato unico digitale: nuove prospettive di regolazione pubblica, in Diritto dell’informazione e dell’informatica, 2018, 6, p. 923.

[107] Questo aspetto è stato sottolineato anche dal Parlamento europeo, cfr. punto 192 della risoluzione 2018/2088.

[108] v. R. Bifulco, Intelligenza Artificiale, internet e ordine spontaneo, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, cit., p. 383, in particolare p. 385. Precursori, quanto alla dimensione ultra-statuale del fenomeno in commento, sono stati gli scritti di D.R. Johnson-D. Post, Law and Borders. The Rise of Law in Cyberspace, 48 Stanford Law Review 1367 (1996), e di L. Lessig, The Law of the Horse: What Cyberlaw Might Teach, 113 Harvard L. Rev. 501 (1999), in particolare p. 506 ss.

[109] A questo proposito, prendendo a riferimento la guida autonoma e i droni civili, il Parlamento europeo ai punti 118 ss. della citata risoluzione 2018/2088, ha avuto modo di osservare che «alcuni Stati membri hanno già adottato normative specifiche in questo settore, o stanno valutando di farlo, con la possibile conseguente creazione di un mosaico di legislazioni nazionali che ostacolerebbe lo sviluppo», ritenendo pertanto opportuno predisporre «un insieme unico di regole dell’Unione che trovi il giusto equilibrio fra gli interessi e i potenziali rischi per gli utenti, le aziende e le altre parti interessate, evitando al contempo l’eccesso di regolamentazione». Dovrebbe in particolare evitarsi di ripetere gli errori commessi nella regolazione di internet, a proposito dei quali v. F. Soro, Regolazione e governance del mondo digitale. Profili del diritto della rete in Usa, UE e Italia, Giappichelli, Torino, 2019, p. 14.

[110] V. punto 30.2 delle raccomandazioni del gruppo di esperti della Commissione pubblicate a giugno 2019.

[111] Il punto è già stato messo in luce da diversi Autori: M. Naldi, Prospettive economiche dell’Intelligenza Artificiale, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, cit., p. 225; M. Orefice, I big data. Regole e concorrenza, in Politica del diritto, 2016, 4, p. 703; A. Mantelero, Big data: i rischi della concentrazione del potere informativo digitale e gli strumenti di controllo, in Il diritto dell’informazione e dell’informatica, 2012, 1, p. 135.

[112] G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intelligibilità, cit., p. 27.

[113] In argomento si vedano ex multis: B. Marchetti, Il principio di precauzione, in M.A. Sandulli (a cura di), Codice dell’azione amministrativa, Giuffrè, Milano, 2017, p. 194; R. Titomanlio, Il principio di precauzione fra ordinamento europeo e ordinamento italiano, Giappichelli, Torino, 2018; C.R. Sunstein, Il diritto della paura. Oltre il principio di precauzione (trad. it. a cura di U. Izzo), Il Mulino, Bologna, 2010; F. Trimarchi, Principio di precauzione e “qualità” dell’azione amministrativa, in Riv. it. dir. pub. com., 2005, p. 1676. Deve tuttavia riconoscerci come, ai sensi della giurisprudenza della Corte di Giustizia, tale principio trovi applicazione limitatamente a rischi per la salute umana e l’ambiente più prontamente apprezzabili e misurabili, come stabilito nelle note pronunce Artegodan GmbH e a. c. Commissione (sentenza del 26 novembre 2002, in cause riunite T-74/00, T-76/00 et. al.) e Monsanto Agricoltura Italia c. Presidenza del Consiglio dei ministri (sentenza del 9 settembre 2003, in causa C.236/01) e più recentemente confermato nei casi Commissione c. Polonia (ordinanza 20 novembre 2017, in causa C-441/17) e Pesce e a. c. Presidenza del Consiglio dei Ministri, (sentenza del 9 giugno 2016 in cause riunite C-78/16 e C-79/16).

[114] Cfr. G. Leonhard, Tecnologia vs umanità. Lo scontro prossimo venturo, (trad. it. a cura di G. Maugeri) Egea, Milano, in particolare p. 133 ss. L’argomento è condiviso dalle raccomandazioni di giungo 2019 del gruppo di esperti nominato dalla Commissione (v. punto 26.2).

[115] Con tali parole l’Autore concludeva il capitolo V, intitolato Dittatura dell’algoritmo e prerogative della persona, del volume Il mondo nella rete. Quali i diritti, quali i vincoli, Laterza, Roma-Bari, 2014 (v. in particolare p. 40). Invocare il principio di precauzione, ad avviso di chi scrive, non comporta necessariamente la condivisione di tesi fortemente critiche rispetto all’impiego dell’IA, quali quelle sostenute da L. Bolognini, Follia artificiale. Riflessioni per la resistenza del­l’intelligenza umana, Rubbettino, Soveria Mannelli (CZ), 2018 o C. O’Neil, Algorithmes: la bombe à retardement, Les Arènes, Paris, 2018.

Fascicolo 1 - 2020