Rivista della Regolazione dei MercatiCC BY-NC-SA Commercial Licence E-ISSN 2284-2934
G. Giappichelli Editore

La regolazione dell'intelligenza artificiale in Germania: stato dell'arte e prospettive future (di Simone Franca)


Il presente contributo analizza la regolazione dell’intelligenza artificiale nel contesto del sistema giuridico tedesco. L’articolo è diviso in tre parti. Nella prima parte si tenta di ricostruire il quadro di riferimento in cui il tema della regolazione dell’intel­ligen­za artificiale può essere collocato, tenendo conto dei concetti generali di “regolazione” e “intelligenza artificiale”. Nella seconda parte si analizza la strategia in tema di intelligenza artificiale del governo federale tedesco, con particolare riferimento ai suoi obiettivi e all’insieme delle misure in essa previste. Nella terza parte si valuta, alla luce del dibattito della dottrina tedesca, quali siano le lacune normative ancora presenti nel quadro giuridico tedesco di regolazione. L’analisi tripartita così svolta consente di valutare un’unica esperienza – quella tedesca – come modello per affrontare adeguatamente la questione generale della regolazione dell’intelli­gen­za artificiale.

Artificial intelligence regulation in Germany: state of the art and future perspectives

The article aims at analyzing the regulation of artificial intelligence in the context of the German legal system. The article is divided into three parts. In the first part we will try to build up the framework in which the topic of regulation of artificial intelligence can be settled, taking into account the general concepts of “regulation” and “artificial intelligence”. In the second part we will focus on the artificial intelligence strategy of the German federal government, particularly on its objectives and on the set of measures hereby provided. In the third part, we will try to consider, in the light of the debate of the German legal scholarship, which kind of regulatory loopholes are still present in the German legal framework. The three-fold analysis will give us the chance to consider a single experience – the German one – as a model in order to properly tackle the general issue of regulating artificial intelligence.

Keywords: Artificial intelligence – Regulation – Self-regulation – Germany – Federal strategy

SOMMARIO:

1. Premessa - 2. Dai primi interventi di regolazione alla strategia del governo federale in tema di IA - 3. Gli obiettivi della strategia federale in tema di IA - 3.1. Le misure di regolazione per la promozione dell’IA - 3.2. Le misure di regolazione dei rischi nell’uso dell’IA - 4. Lo spazio per una regolazione “integrativa” - 5. Alcuni spunti de iure condendo: sfide e forme della regolazione dell’IA - 6. Considerazioni finali - NOTE


1. Premessa

Il tema che occupa il presente scritto impone un chiarimento preliminare relativo all’individuazione dei significati da attribuire ai termini regolazione e intelligenza artificiale (d’ora in avanti, IA) nel contesto dell’ordinamento tedesco.

Il concetto di regolazione [1] assume nel diritto pubblico non solo tedesco [2] plurimi significati e, pertanto, si rende necessaria una sintetica analisi delle diverse categorie elaborate dagli studiosi per determinarne il significato.

Secondo un’autorevole ricostruzione il termine regolazione (Regulierung) è suscettivo di assumere tre diverse gradazioni di significato: anzitutto, la posizione di regole funzionali all’apertura dei mercati, attraverso la correzione dei fallimenti del mercato consistenti in monopoli naturali (cd. Regulierung I); in secondo luogo, in senso più ampio, la previsione di regole per il perseguimento di obiettivi di benessere pubblico (Regulierung II); infine, in via residuale, la predisposizione di tutto quell’insieme di misure di politica economica che si estrinsecano in norme e restrizioni (Regulierung III) [3]. Alla luce di tale ricostruzione è già possibile osservare come, in astratto, all’interno della categoria della regolazione possano essere ricondotte attività dove il grado di intensità dell’intervento normativo è differente [4].

Va poi tenuto in considerazione il fatto che, in ragione delle numerose sfaccettature che caratterizzano l’attività di regolazione, si possono porre diversi modelli regolativi, in dipendenza del ruolo assunto da soggetti privati e pubblici nel procedimento regolativo.

Così, si possono anzitutto individuare quattro tipologie di regolazione in ragione del differente ruolo offerto da soggetti pubblici e privati: una regolazione di stampo tradizionale definita come regolazione imperativa; una regolazione statale che riconosce elementi di autoregolazione, pur senza alterare la struttura imperativa della regolazione; una regolazione autoregolata, dove il ruolo del regolatore privato è preminente, ma pur sempre inquadrato nella cornice di una regolazione pubblica; un’autoregolazione pura [5]. Dunque, alla regolazione che si sviluppa secondo il modello del command and control – in forza del quale spetta ai soggetti pubblici porre le regole che verranno applicate ai soggetti regolati – si affiancano modelli che vedono un progressivo rilievo dei soggetti regolati nell’ambito dell’attività regolativa, sino al modello dell’auto­regolazione pura, ove i soggetti regolati sono gli unici titolari dei poteri regolatori. Particolarmente significativa è la categoria dell’autoregolazione regolata (regulierte Selbstregulierung). Questa categoria, di origine piuttosto risalente [6], va ad individuare tutti quei casi in cui il soggetto pubblico si limita a determinare e controllare un perimetro di azione entro cui si svolge l’auto­regolazione dei privati [7].

Nell’assetto odierno, le plurime forme di regolazione non rappresentano modelli reciprocamente escludenti, bensì approcci differenziati che possono essere tra loro contemperati al fine di ottenere un quadro regolativo più completo ed effettivo.

Ciò premesso in riferimento al tema generale della regolazione, nel momento in cui ci si occupa delle modalità di regolazione del fenomeno dell’IA è imprescindibile il rilievo secondo cui ci si riferisce ad un fenomeno molto eterogeneo. Sul piano terminologico, si fa riferimento a diversi concetti quali sistemi intelligenti, algoritmi, intelligenza estesa e intelligenza artificiale [8]. Evidentemente, i diversi termini ora richiamati non sono tra loro totalmente fungibili e, infatti, nella letteratura è frequente il previo chiarimento in ordine alla loro differente portata [9].

Dovendo, dunque, delimitare i confini del presente scritto, è bene chiarire che se l’algoritmo coincide con «una sequenza di istruzioni computazionali che indicano ad una macchina la procedura da seguire per ottenere un determinato risultato» [10], l’IA è definibile come un sistema intelligente che sfrutta algoritmi che gli consentono di operare scelte attraverso procedure analoghe a quella dell’intelligenza umana. In questa prospettiva, il fenomeno dell’IA può assumere sfumature differenti, dalla robotica, all’uso di meccanismi di autoapprendimento (cd. machine learning) sino a meccanismi nuovi di apprendimento (cd. deep learning) [11].

Occorre però evitare l’equivoco consistente nel ritenere che l’impiego di sistemi intelligenti rappresenti un fenomeno completamente nuovo. Da questo punto di vista è sufficiente rilevare come algoritmi di vario tipo siano già utilizzati in diversi settori, pubblici e privati [12].

In base a questa constatazione, si potrebbe ritenere che il problema della regolazione dell’IA rimanga un problema di regolazione settoriale. Tuttavia, al di là dei singoli contesti applicativi, i sistemi intelligenti sollevano anche questioni generali, che attraversano ciascun settore [13]: si pensi al problema della trasparenza dell’algoritmo o a quello della tutela dei dati da esso utilizzati. Rispetto al passato, il problema della regolazione degli algoritmi assume una mag­giore rilevanza, alla luce dell’innovazione tecnologica, che ha consentito l’in­tro­duzione di strumenti informatici in grado di utilizzare tecnologie sempre più raffinate e, conseguentemente, il sorgere di nuovi rischi ad esse riconducibili [14].

Alla luce di tale consapevolezza, è possibile verificare come nell’ordi­na­mento tedesco si sia progressivamente affermata e sviluppata la necessità di regolare l’intelligenza artificiale.


2. Dai primi interventi di regolazione alla strategia del governo federale in tema di IA

Un primo intervento da tenere in considerazione consiste nella riforma del 2016 nell’ambito della legge di modernizzazione dei procedimenti fiscali (Gesetz zur Modernisierung des Besteuerungsverfahrens) che ha portato alla modifica della legge sul procedimento amministrativo (Verwaltungsverfahrensgesetz, VwVfG), del codice delle imposte (Abgabeordnung, AO) e del decimo libro del codice di previdenza sociale (Sozialgesetzbuch X, SGB X), introducendo la possibilità di ricorrere a procedimenti amministrativi completamente automatizzati. Prescindendo dalle differenze insite in ciascuna disciplina [15] e soffermandosi sulla disciplina contenuta nella legge sul procedimento amministrativo, si intuisce che l’intento del legislatore federale fosse sostanzialmente duplice, ovvero, per un verso, aprire alle possibilità di utilizzo di procedimenti totalmente automatizzati e, per altro verso, circondare tale possibilità di utilizzo da determinate garanzie [16]. L’esigenza di riferirsi unicamente ai procedimenti completamente automatizzati non sorprende, se si considera che anche il legislatore eurounitario, nella sua opera di regolazione uniformante in materia di protezione dei dati, ha sancito una disciplina specifica nel caso di trattamenti tramite procedimenti integralmente automatizzati all’art. 22 GDPR [17]. Nel caso della Germania, il legislatore federale ha previsto che il ricorso a procedimenti completamente automatizzati sia possibile solo laddove vi sia una espressa previsione di legge [18] e nel caso in cui il procedimento sia vincolato [19]; è poi previsto che l’amministrazione tenga conto delle informazioni pertinenti fornite dalla persona interessata che non sarebbero prese in considerazione dalla procedura automatica [20]. In questi termini, la decisione al­l’esito di un procedimento automatizzato viene assimilata alla decisione amministrativa tout court, pur in mancanza di un atto volitivo umano [21], benché rimanga dubbio in che misura le garanzie previste per l’atto amministrativo siano replicabili anche per l’atto completamene automatizzato [22]. Va però notato come la previsione di una espressa riserva di legge per il ricorso a simili procedimenti illustri una scelta ben precisa in termini di regolazione, secondo il modello della regolazione imperativa [23], nella misura in cui si subordina ad una previsione di legge espressa – auspicabilmente contenente anche una disciplina di massima del procedimento – il ricorso a procedure integralmente automatizzati.

Un altro intervento degno di rilievo è rappresentato dalle linee guida in materia di circolazione di veicoli automatizzati. Questa forma di regolazione soft [24] rappresenta il primo tentativo di regolazione in chiave etica del fenomeno della circolazione dei veicoli automatizzati [25]. Per l’emanazione delle linee guida è stata istituita una Commissione etica presso il Ministero dei trasporti, composta da soggetti provenienti dalla società civile, dal mondo delle imprese e da accademici [26]. Il coinvolgimento di vari stakeholders, nell’ambito di una regolazione affidata al Ministero dei trasporti, lascia intendere, in questo caso, un’a­per­tura agli apporti dei soggetti regolati nell’ambito di una regolazione che rimane sviluppata secondo moduli tradizionali, anche se sfocia nell’ema­nazione di soft law. Va peraltro rilevato, per inciso, come la timida apertura rispetto ai soggetti regolati come regolatori possa destare anche maggiore perplessità rispetto all’intervento normativo in tema di procedimenti automatizzati, in ragione dei rischi di cattura del regolatore [27].

Ad ogni buon conto, rispetto a queste iniziative che si caratterizzano per guardare al fenomeno dell’IA in modo più circoscritto (nel primo caso, limitatamente all’uso dell’IA da parte della p.a. e nel secondo caso, nell’ambito della circolazione dei veicoli automatizzati) dal 2017 la necessità di regolare l’uso dell’intelligenza artificiale, all’interno dell’ordinamento tedesco, ha assunto un maggiore rilievo sistematico.

Nel 2017, è stata infatti istituita una commissione parlamentare di inchiesta sul tema “intelligenza artificiale – responsabilità sociale e potenziale economico, sociale ed ecologico” [28], incaricata di avviare una riflessione sui problemi re­lativi all’IA, individuando risposte sul piano tecnico, giuridico ed etico. Alla com­missione è stato dato tempo fino al 2020 per ottemperare al proprio incarico.

In una prospettiva sistematica di tenore analogo, si inserisce, da ultimo nel 2018, il documento recante la strategia del governo federale in tema di intelligenza artificiale [29]. In considerazione della centralità e del carattere sistematico della strategia, l’analisi che seguirà sarà concentrata sui contenuti e sulla portata di tale atto.


3. Gli obiettivi della strategia federale in tema di IA

Rispetto alla strategia del governo federale giova anzitutto precisare l’am­bito di applicazione e gli obiettivi della strategia.

Con riguardo all’ambito di applicazione, la strategia accoglie una nozione per quanto possibile onnicomprensiva di IA, intendendo disciplinare fenomeni quali il machine learning, le applicazioni relative alla robotica, il deep learning, etc. [30].

Quanto agli obiettivi, la strategia ne individua sostanzialmente tre.

Il primo obiettivo è quello di rendere la Germania e l’Europa dei poli di eccellenza nell’ambito dell’utilizzo dell’intelligenza artificiale. Dietro lo slogan dell’IA “made in Germany” emerge una visione ben precisa, volta a indirizzare quantità ingenti di finanziamenti pubblici (circa 3 miliardi sino al 2020) [31] su attività di ricerca sul tema dell’intelligenza artificiale e su forme di sostegno alle start-up o ad altri soggetti privati, in modo da creare modelli di business impegnati nello sviluppo di applicazioni concrete dell’intelligenza artificiale [32].

Il secondo obiettivo mira a individuare uno sviluppo e un utilizzo responsabile dell’IA, funzionalizzato rispetto al bene della collettività. In questa prospettiva, la strategia mira a mantenere lo sviluppo relativo all’intelligenza artificiale nel perimetro dei principi etici e giuridici dello Stato democratico, cercando, al tempo stesso, di sensibilizzare i vari stakeholders (dagli sviluppatori agli utenti) rispetto ai limiti etico-giuridici all’utilizzo dell’IA [33].

Infine, il terzo obiettivo, ambisce a integrare l’intelligenza artificiale nella società, nel contesto di un più ampio dialogo sociale, che ponga al centro l’uomo e le sue esigenze. In questo ambito si tratta di combinare lo sviluppo del­l’intelligenza artificiale con altri interessi rilevanti, quali quelli alla sicurezza, alla tutela della salute e all’ambiente [34].

Già dalla lettura degli obiettivi, emerge la tensione verso un approccio che non vuole ostacolare o limitare l’implementazione delle tecnologie di IA, ma anzi intende incentivarle, pur nell’ambito di un quadro regolativo sufficientemente definito. La strategia del governo federale, infatti, si concentra principalmente sulla allocazione di risorse per lo sviluppo di progetti innovativi che coinvolgono l’uso dell’intelligenza artificiale, senza trascurare – almeno a livello programmatico – la salvaguardia di interessi sensibili che potrebbero essere oggetto di potenziali pregiudizi rispetto agli usi dell’IA [35] e, più in generale, i profili etico-giuridici relativi all’implementazione dell’IA [36].


3.1. Le misure di regolazione per la promozione dell’IA

Analizzando la strategia del governo federale è possibile isolare diverse tipologie di misure regolative riconducibili ai diversi soggetti istituzionali che intervengono nell’attività di regolazione. Anzitutto, possono essere isolate delle misure che non disciplinano direttamente l’implementazione di tecnologie di IA, quanto piuttosto le forme di coordinamento che fungono da presupposto per l’implementazione di siffatte tecnologie [37].

Rispetto al livello nazionale, vi è un’attenzione particolare al coordinamento tra il livello federale e il livello statale. Con riguardo a tale forma di coordinamento, il governo federale, nel testo della strategia, richiama lo strumento del­l’accordo fra Bund e Länder: l’accordo viene evocato al fine di strutturare un framework all’interno del quale è possibile garantire linee di finanziamento stabili, in particolare nei settori della formazione [38] e della ricerca [39], incentivando anche iniziative di partenariato pubblico-privato, in grado di favorire la diffusione di modelli di cooperazione per garantire un transito più fluido di idee dal mondo della ricerca al mondo del business [40].

Va poi evidenziato che la necessità di sviluppare nuove forme di coordinamento non viene presa in considerazione nella prospettiva meramente nazionale, venendo in rilievo anche profili transnazionali [41].

In primo luogo, il governo federale intende sostenere lo sviluppo di una for­ma di cooperazione transnazionale con la Francia: questa forma di coordinamento è finalizzata alla conduzione di linee condivise di ricerca e alla creazione di canali comuni attraverso cui i prodotti della ricerca possano essere facilmente tradotti in beni e servizi concretamente erogabili [42]. Essa rappresenta, in prospettiva, il punto di partenza rispetto ad una forma di cooperazione di tipo europeo che, secondo il governo federale, è suscettiva di approdare alla formulazione di un importante progetto europeo di interesse comune [43].

Sempre nella prospettiva di incentivazione, la strategia federale ha previsto l’istituzione della Agentur für Sprunginnovationen. Nonostante il nome possa lasciar intendere che si tratti di un’autorità pubblica, la Agentur für Sprunginnovationen è stata concepita come una società a responsabilità limitata – il cui capitale è controllato dal Bund – con il compito di finanziare le Sprunginnovationen, ovvero le innovazioni sul piano tecnologico in grado di avere un rilevante impatto sul mercato [44].

L’istituzione della Agentur für Sprunginnovationen nasce dalla consapevolezza della mancanza nel sistema tedesco di uno strumento di finanziamento statale sufficientemente flessibile per sviluppare idee altamente innovative per nuovi prodotti e servizi con un potenziale di cambiamento del mercato da un’unica fonte e con risorse finanziarie idonee a consentire la loro introduzione nel mercato.

In una prospettiva analoga rispetto a quella della Agentur für Sprunginnovationen si pone poi il richiamo, all’interno della strategia, alla Germany Trade & Invest GmbH (GTAI), una agenzia istituita nel 2009 nella forma di società a responsabilità limitata con il compito di promuovere la Repubblica Federale tedesca come sede commerciale per investimenti e fornire informazioni alle imprese tedesche relativamente al commercio estero. Nella prospettiva della strategia federale, il ruolo della GTAI viene valorizzato nel contesto di una potenziale rete cooperativa internazionale in grado di coinvolgere soggetti privati e pubblici, di modo che la GTAI includa nelle proprie attività promozionali e informative il tema dell’IA in Germania [45].

Alla luce dell’analisi sinora svolta, emerge dunque come il fattore promozionale sia a più riprese enfatizzato nell’ambito della strategia in tema di IA del governo federale: il governo federale mostra preferenza per l’utilizzo di strumenti di regolazione che vedono un coinvolgimento di attori pubblici e privati nella prospettiva di favorire la creazione di un “mercato” dell’IA.


3.2. Le misure di regolazione dei rischi nell’uso dell’IA

Con riferimento a misure di regolazione relative alla gestione dei rischi riconducibili alle tecnologie di IA, la strategia federale pare muoversi, prevalentemente, nell’ambito di un modello di autoregolazione regolata, lasciando i profili di regolazione imperativa più sullo sfondo.

L’attenzione al profilo di autoregolazione affiora in più passaggi.

Anzitutto, emerge nel riferimento contenuto nella strategia al principio di ethics by, in and for design. Stando al documento strategico, tale principio va a determinare un approccio nei confronti dell’IA, con riferimento particolare al suo sviluppo e alla sua implementazione, nonché all’utilizzo, alla gestione, al controllo e alla governance delle applicazioni dell’IA [46]. L’idea, che originariamente è stata suggerita dalla commissione etica sui dati, è di considerare i principi etici non tanto come limiti all’implementazione dell’IA: piuttosto, le con­siderazioni a carattere etico possono consentire di sostenere le applicazioni tecnologiche nella misura in cui sono integrate nel loro processo di sviluppo fin dall’inizio [47].

L’approccio basato sull’autoregolazione regolata emerge anche rispetto all’individuazione di standard [48] di natura tecnica (relativi, ad esempio, al grado di automazione dei sistemi IA e possibili rischi nell’uso di simili sistemi) e di natura etica: anche a questo riguardo, infatti, il governo federale riconosce un ruolo fondamentale agli operatori del mercato rispetto alla loro individuazione, riconoscendo allo Stato il ruolo di fissazione degli standard una volta elaborati dagli operatori [49].

Rispetto alla possibilità di predisporre pro futuro misure di regolazione imperativa, il governo federale non si concentra direttamente su misure concernenti l’IA, quanto piuttosto su misure riguardanti i dati personali che potrebbero essere utilizzati da tecnologie di IA [50]. Qui l’obiettivo della regolazione è duplice: da un lato, assicurare una tutela sufficiente dei dati (personali e non) con riferimento alla loro raccolta, al loro impiego e al loro trasferimento e, dal­l’al­tro lato, favorire la circolazione di simili dati e la creazione di piattaforme in grado di immagazzinarli per usi ulteriori [51]. Per bilanciare le due contrapposte esigenze è prevista una revisione del quadro regolativo per verificare che sia consentito alle persone i cui dati sono stati trattati di contestare una discriminazione indebita, dando loro la possibilità di esaminare la base – con particolare riferimento ai criteri, agli obiettivi e alla logica dei trattamenti di dati – su cui si innestano le decisioni [52]. In questa misura il governo federale adotta un approccio più prudente volto ad accertare che il quadro regolativo sia già completo con riferimento a obblighi di pubblicazione e di trasparenza. Il punto è particolarmente delicato perché, rispetto ai trattamenti dei dati, impone la considerazione anche dei profili di coordinamento con la disciplina contenuta nel GDPR [53].

Misure più specifiche sono previste, ad esempio, nell’ambito delle politiche relative al lavoro: il governo federale propone infatti l’istituzione di osservatori sull’IA, incaricati di monitorare l’introduzione di tecnologie di intelligenza artificiale e condurre valutazioni di impatto di tali tecnologie rispetto al mondo del lavoro [54].

Nella strategia viene poi ventilata la possibilità di introdurre ex novo un’agen­zia governativa (Bundesagentur) o agenzie private di audit o, in alternativa, di espandere le competenze di quelle esistenti, al fine di vigilare sull’uso di tecnologie di IA. Nella strategia non viene dedicato molto spazio a questa proposta, ma il governo federale specifica che verrà valutata anche la possibilità di prevedere l’obbligo di mettere a disposizione delle autorità competenti i dati di programmazione dei vari algoritmi, senza che ciò determini un dovere di full disclosure, a pregiudizio dei segreti commerciali dei programmatori [55].


4. Lo spazio per una regolazione “integrativa”

Nonostante dalla strategia del governo federale si possa evincere almeno l’intenzione di predisporre diverse misure a carattere regolativo e benché la strategia, come già rilevato, si occupi, in prima battuta, di incentivare la diffusione dell’IA, essa mostra come lo stato della regolazione del fenomeno del­l’IA nell’ordinamento tedesco versi ancora in uno stadio preliminare e, in particolare, che misure di regolazione stringente sono guardate con maggiore cautela.

Sicuramente su tale approccio cauto incide la consapevolezza che una regolazione più intensa potrebbe disincentivare gli investimenti e, in particolare, dare luogo a fenomeni di forum shopping [56]: una regolazione poco permissiva potrebbe spingere gli operatori economici a preferire di stabilirsi in zone dove il quadro regolativo è meno stringente e ciò in contrasto con il già richiamato obiettivo di fare della Germania (e anche dell’Europa) un polo attrattivo di investimenti in materia di IA.

Un altro fattore di incidenza sulla scelta regolativa del governo federale può rinvenirsi nell’impossibilità di prevedere, allo stato, una disciplina unitaria e uniforme dell’IA.

Da un lato, ciò è dovuto al fatto che, come già rilevato, il problema della regolazione delle varie applicazioni tecnologiche va riguardato, in prima battuta (benché, come si è avuto modo di precisare in apertura, non esclusivamente), come un problema del singolo settore di regolazione [57]. Dall’altro lato, i rischi (così come i benefici) potenzialmente riannodabili all’implementazione di tecnologie di IA sono ancora ben lungi dall’essere interamente noti e ciò non consente di addivenire ad una disciplina generale completa dell’IA.

Un ulteriore dato di complessità è dato dall’intreccio tra livelli istituzionali differenti. Il punto emerge in particolare dal punto di vista della regolazione dei dati: qui evidentemente la disciplina federale si intreccia con quella eurounitaria riducendo i margini di intervento del legislatore [58].

Pur alla luce di tali circostanze e tenendo in considerazione che, come anticipato, è stata istituita una commissione di inchiesta sul tema della disciplina dell’IA all’interno del Bundestag, pare difficile negare che vi sia spazio per una regolazione di completamento della strategia del governo federale e delle pregresse forme di regolazione dell’IA. Alcune delle proposte ivi avanzate (si pensi, a titolo esemplificativo, alla possibilità di istituire enti con il compito di vigilare sugli usi dell’IA), dopotutto, lasciano ancora aperte diverse possibilità rispetto al quadro regolativo attuale. Inoltre, una regolazione di completamento, pare utile in una prospettiva più ampia, che non guarda all’IA unicamente come fattore di rischio, ma anche come opportunità [59], circostanza che, come visto, emerge nitidamente nella pluralità degli obiettivi della strategia federale.


5. Alcuni spunti de iure condendo: sfide e forme della regolazione dell’IA

Il tema della regolazione dell’intelligenza artificiale nella prospettiva de lege ferenda è tutt’altro che trascurato nel dibattito dottrinale tedesco e, anzi, presenta diversi spunti di interesse. Dal momento che nell’economia del presente scritto sarebbe impossibile passare in rassegna tutti i problemi ricollegabili all’uso dell’IA e tutte le proposte avanzate per superarli, sembra corretto seguire l’approccio, avanzato da alcuni studiosi [60], basato sull’individuazione di alcune linee guida che possano dirigere l’azione regolatoria pro futuro. A questo riguardo, si può fare riferimento ad una recente ricostruzione dottrinale che permette di isolare alcuni macro-problemi, distinguendo quattro “momenti” regolativi dell’IA [61]. In primo luogo, una forma di regolazione preventiva, che agisce sull’asimmetria informativa attraverso la previsione di obblighi di informazione, di motivazione e, più in generale, misure atte a garantire la trasparenza delle decisioni. In secondo luogo, si può avere una regolazione “accompagnatoria” che, tenuto conto della natura dinamica dell’intelligenza artificiale, capace di auto-innovarsi e di apprendere dai propri errori, segue la procedura della decisione algoritmica attraverso controlli sui risultati e poteri di controllo in capo all’autorità pubblica. In terzo luogo, si può avere una regolazione ex post, che mira cioè a disciplinare le conseguenze giuridiche di eventuali violazioni riconducibili alle tecnologie di IA. Infine, si ha una regolazione autoregolata, che si giustappone alle altre, nella misura in cui si prevede il ricorso a strumenti autoregolativi come i codici di condotta, successivamente trasfusi a livello di norme di diritto statale.

a) In riferimento ai profili di regolazione preventiva, uno snodo problematico da cui non si può prescindere attiene alla gestione dei dati strumentali al funzionamento delle tecnologie di IA. Come si è avuto modo di anticipare il problema della regolazione dei dati si intreccia a quello della regolazione dell’IA e pone in luce un connotato fondamentale dell’algoritmo, ovvero la sua opacità (e. mancanza di trasparenza), circostanza che complica fortemente il controllo esercitabile sull’algoritmo, anche rispetto a possibili rischi discriminatori. Da questo angolo visuale, la regolamentazione dei modi attraverso cui i dati vengono trattati nei procedimenti che si avvalgono dell’uso di algoritmi richiede la previa determinazione dello spazio da riservare al legislatore nazionale, in considerazione della regolazione eurounitaria della gestione dei dati contenuta nel GDPR. Infatti, pur se è consolidata nel dibattito tedesco l’opinione piuttosto critica rispetto alla capacità del GDPR di rappresentare un quadro regolativo idoneo rispetto a trattamenti che si avvalgano di tecnologie di IA, si tende a ritenere che il GDPR abbia eroso una parte consistente del margine di manovra spettante ai legislatori nazionali[62]. Aldilà delle problematiche date dall’intreccio tra competenze normative, permane la problematicità dell’opacità del­l’al­go­ritmo, qualità icasticamente rappresentata nella letteratura con l’immagine del­l’algoritmo come blackbox. Come è stato correttamente posto in luce, tuttavia, siffatto problema può essere opportunamente ridimensionato nella misura in cui si accetta che l’obiettivo non sia quello della trasparenza totale, in particolare, in relazione ai profili causali riguardanti il funzionamento del­l’al­go­ritmo[63], bensì quello di far sì che gli interessati possano disporre di informazioni sufficienti per poter ricorrere in via giurisdizionale (o anche in via amministrativa) avverso una decisione lesiva delle proprie posizioni giuridiche soggettive [64]. In questa misura, possono essere guardate con favore le proposte che valorizzano il rilievo degli obblighi di pubblicazione di informazioni relative ai principi attraverso cui funzionano gli algoritmi, così come la possibilità di prevedere obblighi di disclosure dei dati di programmazione algoritmica alle autorità pubbliche competenti, nell’ottica di bilanciare la trasparenza della decisione algoritmica con il diritto di privativa dei programmatori.

b) La forma di regolazione preventiva, tuttavia, come già anticipato, si mostra idonea a fronteggiare i problemi relativi all’algoritmo nella sua versione “statica”. Guardando però al dinamismo degli algoritmi di IA rimane un problema significativo, che consiste nell’esercitare un controllo sull’algoritmo non solo ex ante, ma anche nei suoi progressivi sviluppi[65]. Nel momento in cui si decide di predisporre un simile sistema di controllo, un quesito fondamentale attiene all’individuazione del soggetto cui attribuire i poteri di vigilanza necessari. A questo riguardo, assume rilievo la possibilità di istituire un’autorità pubblica con lo specifico compito di vigilare sugli algoritmi. Come visto, una possibilità in tal senso pare evincibile dalla strategia nazionale nel momento in cui si riferisce che il governo federale sta valutando la possibilità di rivedere l’or­ganizzazione di autorità pubbliche/private o di istituirne di nuove. Va però segnalato come parte della dottrina consideri con perplessità l’idea di istituire un’autorità ex novo, preferendo, piuttosto, l’idea di costituire un organismo “trasversale”, che possa supportare autorità già esistenti per motivi inerenti al riparto di competenze tra le diverse autorità pubbliche: infatti, per un verso, nel settore dell’intelligenza artificiale convivono la competenza federale e le competenze dei singoli Länder e, per altro verso, la competenza in materia di intelligenza artificiale si intreccia con la competenza di altre autorità già istituite come l’autorità per il controllo dei dati personali e l’autorità garante della concorrenza[66]. In questa prospettiva, parrebbe più utile meditare sul radicamento di organismi trasversali che possano coadiuvare le autorità già esistenti, pur se non si esclude che, nel quadro istituzionale eurounitario, possa essere collocata un’autorità espressamente dedicata alla vigilanza e alla regolazione degli algoritmi.

Vi è però altra parte della dottrina che tende invece a ritenere che oltre che a livello europeo, pure sul piano nazionale sarebbe consigliabile l’istituzione di un’autorità deputata al controllo dei procedimenti algoritmici: questa proposta [67], che si ispira ad alcune suggestioni provenienti dalla dottrina statunitense [68], vedrebbe una simile autorità inserita nel quadro istituzionale tedesco non solo con compiti di vigilanza, ma pure di determinazione degli standards.

c) Con riguardo alla regolazione ex post, va detto che sono emerse diverse iniziative che guardano prevalentemente all’estensione di forme di tutela “speciale”, come nel caso delle azioni di classe in capo ai consumatori o degli strumenti a disposizione del terzo concorrente in caso di condotte anticoncorrenziali[69]. Probabilmente questo è lo spazio dove il legislatore nazionale ha un più ampio margine di manovra, pur se, anche in tal caso, è necessario bilanciare le esigenze di tutela con l’aspirazione a non adottare un atteggiamento ostativo rispetto alla diffusione di tecnologie di IA.

Un tema fondamentale su cui si è soffermato il dibattito tedesco è la necessità di regolare i profili di responsabilità derivanti da danni cagionati dalle tecnologie di IA. Il tema della responsabilità solleva non poche problematiche, giacché nell’ambito di processi decisionali poco trasparenti non è possibile delineare con certezza i profili di responsabilità attribuibili a chi ha progettato il sistema IA. Oltretutto, molte volte i sistemi di IA non sono elaborati da un’u­nica fonte programmatrice, il che rende ancora più complessa l’individuazione del contributo causale dei diversi programmatori rispetto al danno cagionato dal sistema IA. L’idea che però pare prevalere è quella di costruire un sistema di responsabilità affine a quella da prodotto difettoso [70], prevedendo un’in­versione dell’onere della prova a beneficio del danneggiato, che potrebbe trovarsi nella complessa situazione di determinare come il sistema IA ha operato un danno [71].

d) Nella riflessione tedesca vi è anche uno spazio significativo per quella che è stata definita come autoregolazione regolata.

Da questo punto di vista, è stato segnalato come l’ordinamento tedesco offra già un modello che può essere opportunamente valorizzato nell’ambito di questa forma di regolazione dell’IA. Si tratta del codice tedesco di Corporate Governance (Deutscher Corporate Governance Kodex), un codice di autodisciplina applicabile alle società per azioni quotate, elaborato da una commissione istituita dal Ministero della Giustizia e composta da soggetti indipendenti dalla politica [72]. Il codice contiene una serie di regole a carattere non vincolante come suggerimenti o raccomandazioni che viene aggiornato con cadenza frequente [73]. Prima della sua emanazione, il Ministero della Giustizia svolge un controllo di conformità del codice alla legge, per compensare la scarsa legittimazione democratica di tale atto. Sebbene tali regole abbiano carattere non vincolante, vige il principio “comply or explain”, in forza del quale laddove ci si discosti da una raccomandazione, corre l’obbligo di motivare la scelta effettuata [74]. Inoltre, ciascuna violazione del codice, oltre a concretare ipotesi di responsabilità civile nei confronti degli organi direttivi delle società che lo adottano, può dar luogo ripercussioni sul piano reputazionale. L’idea di adottare un approccio regolativo analogo anche nel campo dell’intelligenza artificiale può aiutare a ridurre in una certa misura l’asimmetria informativa, ma può anche incrementare l’accettazione delle regole e la responsabilità personale dei destinatari delle medesime [75]. Inoltre, accogliendo il modello del codice di Corporate Governance si può tentare, in prospettiva, di andare a configurare in modo più chiaro l’approccio ethics by, in and for design proposto all’interno della strategia del governo federale in tema di IA, approccio che, allo stato, non appare particolarmente esplicito.


6. Considerazioni finali

L’analisi dello stato dell’arte e delle prospettive regolative nell’ordinamento tedesco restituisce un quadro piuttosto articolato, ma pure piuttosto indefinito, ove si inserisce anche un contributo significativo da parte della dottrina.

La regolazione dell’intelligenza artificiale in Germania è ancora in divenire. Rispetto a precedenti interventi normativi aventi carattere episodico, attraverso la predisposizione della strategia federale che si è avuto modo di analizzare, l’ordinamento tedesco si avvia a porre il tema dell’intelligenza artificiale al centro della propria attività di regolazione.

Le indicazioni che si possono desumere dalla strategia federale ci permettono di tratteggiare una regolazione basata in prevalenza sul modello del­l’au­toregolazione regolata, anche se non mancano aperture rispetto a forme di re­golazione tradizionale.

Ci si può attendere che il legislatore federale assumerà un ruolo significativo nei prossimi tempi in seguito alla conclusione del lavoro della commissione di inchiesta recentemente istituita, quantomeno nell’indirizzare l’ordinamento tedesco verso determinate scelte regolative. In questa prospettiva è da ritenere che le proposte emerse nel dibattito dottrinale possano assumere un rilievo vieppiù significativo rispetto alle varie possibilità di regolazione.

L’individuazione di una soluzione omogenea in ordine ai quesiti inerenti all’an e al quomodo della regolazione si rivela inevitabilmente semplicistica se coincide con l’individuazione di opzioni regolative a carattere univoco. Le difficoltà rispetto all’individuazione di un quadro regolativo unitario e completo, così come l’aspirazione ad una regolazione unicamente sul piano transnazionale [76] possono condurre al rischio che i bisogni regolativi vengano colmati da una regolazione di soft law o da principi a carattere etico dal carattere vago. In questa prospettiva si intuisce come la regolazione dell’intelligenza artificiale – che pure abbisogna di un apporto significativo da parte dei destinatari della medesima, ossia di coloro che programmano e pongono in circolazione gli algoritmi – richiede il riconoscimento di un ruolo centrale al regolatore pubblico. Benché anche in tale prospettiva non vengano meno rischi significativi rispetto al corretto esercizio della funzione regolativa, in prima battuta il rischio di cattura del regolatore, attraverso l’analisi del dibattito nella letteratura giuridica tedesca si è avuto modo di apprezzare la possibilità di accogliere un’im­po­stazione di diverso tenore, aperta alla combinazione di elementi di regolazione imperativa, collocati in diversi momenti della “vita” dell’algoritmo, ed elementi di autoregolazione regolata, consentendo, in astratto, la valorizzazione degli apporti tecnici provenienti dai soggetti regolati, nell’ambito di un perimetro regolativo determinato dalle autorità statali [77].

Va notato come un simile approccio, proposto da parte della dottrina tedesca, non si riveli del tutto eterodosso, ma, al contrario, affondi le proprie radici su esperienze regolative ormai consolidate. In diversi settori, infatti, come quello dei media [78] o delle telecomunicazioni [79] si è assistito ad una progressiva diffusione di sistemi di regolazione autoregolata a fianco di forme di regolazione pubblica tradizionale. Va poi notato come tale modello di regolazione abbia avuto successo anche nell’ambito della regolazione di fattori di rischio come avvenuto, a titolo esemplificativo, nel settore ambientale [80]. L’esperienza sinora consolidatasi ha permesso di valorizzare gli aspetti positivi del coinvolgimento dei regolati nell’attività di regolazione quali l’expertise di questi ultimi, nonché il maggior grado di accettazione della regola laddove nel processo di determinazione della medesima sia intervenuto il destinatario [81]. Vale però la pena notare come persistano alcuni rischi rispetto alla possibilità che le finalità dell’attività regolativa possano essere distorte dai soggetti privati coinvolti nella regolazione autoregolata; inoltre, l’opacità di quest’ultima può rendere difficile la determinazione di eventuali responsabilità rispetto ad eventuali distorsioni nell’utilizzo degli strumenti di regolamentazione [82].

In conclusione, l’analisi dello stato attuale e delle prospettive della regolazione dell’IA in Germania illustra la possibilità (se non la necessità), di accedere ad un modello di regolazione “integrato” tramite plurimi approcci regolativi: il modello non è evidentemente esente da rischi, ma malgrado ciò e tenendo conto dei vantaggi che è in grado di apportare, esso pare rappresentare un riferimento idoneo per affrontare le sfide che si accompagnano alla regolazione dell’IA.


NOTE

[1] Per una definizione recente della nozione di regolazione si può mutuare quella contenuta in M. Bombardelli, Le relazioni tra istituzioni pubbliche e mercati, in Id. (a cura di), L’intervento amministrativo sui mercati. Appunti per le lezioni, Torino, 2019, p. 10, ove si afferma che la regolazione rappresenta una forma di intervento pubblico «che prende come punto di partenza la spontaneità delle dinamiche del mercato e si sviluppa con l’obiettivo di orientare il corso delle stesse senza alterarne la logica di funzionamento, tramite l’introduzione di regole ad essa conformi ma non connaturate, in vista della cura di un interesse generale».

Una delle prime definizioni di regolazione (come attesta anche M. Ramajoli, Soft law e ordinamento amministrativo, in S. Licciardello (a cura di), Il governo dell’economia. In ricordo di Vittorio Ottaviano nel centenario della nascita, Torino, 2018, p. 108, che ne sottolinea l’attualità) si rinviene in V. Ottaviano, La regolazione del mercato, in F. Galgano (a cura di), Trattato di diritto commerciale e di diritto pubblico dell’economia, III, Padova, 1979, p. 435 ss.: ivi si valorizza il ruolo dell’intervento pubblico rispetto alla predisposizione delle condizioni necessarie al funzionamento del mercato e rispetto all’indirizzo verso obiettivi di interesse pubblico.

[2] Si osserva che il bisogno di regolazione dei processi economici rappresenta uno dei fattori di convergenza dei sistemi giuridici non solo nazionali, ma anche sul piano globale (B. Marchetti, Searching for the fundamentals of administrative law, Torino, 2019, p. 20 ss.). Si pensi, a titolo esemplificativo, alla pluralità di ricostruzioni avanzate dalla dottrina italiana nell’inquadra­mento del fenomeno regolativo, definito come espressione di una quarta funzione (S. Frego Luppi, L’amministrazione regolatrice, Torino, 1999, p. 160 ss.). Anzitutto è stata autorevolmente evidenziata la tendenza a definire la regolazione in termini piuttosto ampi (cfr. ex multis, S. Cassese, Regolazione e concorrenza, in G. Tesauro-M. D’Alberti (a cura di), Regolazione e concorrenza, Bologna, 2000, p. 12 ss.; M. D’Alberti, Riforma della regolazione e sviluppo dei mercati in Italia, in G. Tesauro-M. D’Alberti (a cura di), op. ult. cit., p. 171; F. Merusi, Il potere normativo delle autorità indipendenti, in Dir. ec., 2003, p. 585 ss.; G. Napolitano, Regolazione e mercato nei servizi pubblici, Bologna, 2005, p. 82 ss.; N. Rangone, voce Regolazione, in Dizionario di diritto pubblico, diretto da S. Cassese, V, Milano 2006, p. 5057), circostanza che è suscettibile di compromettere il valore euristico della nozione. Una nozione piuttosto ampia di regolazione si rinviene, peraltro, nel noto Report on regulatory reforms del 1997 redatto dall’OCSE, ove per regolazione si intende l’OCSE nei suoi documenti e che comprende «the diverse set of instruments by which governments set requirements in enterprises and citizens». Va poi detto che la dottrina italiana si è soffermata, in particolare, sull’inquadramento della regolazione indipendente, in rapporto alla politica. In tema, per una sintesi del dibattito italiano dagli anni ’90 ad oggi, si rinvia alla recente e completa ricostruzione contenuta in E. Bruti Liberati, La regolazione indipendente dei mercati, Torino, 2019, p. 11 ss.

[3] Si tratta della ricostruzione operata in M. Schmidt-Preuß, Das Regulierungsrecht als interdisziplinäre Disziplin, in AA.VV. (a cura di), Festschrift für Gunther Kühne zum 70. Geburtstag, Frankfurt am Main, p. 330. Per una definizione generale della regolazione in Germania cfr. anche T. von Danwitz, Was ist eigentlich Regulierung?, in Die öffentliche Verwaltung, 2004, p. 977 ss.; M. Ruffert, Regulierung im System des Verwaltungsrechts – Grundstrukturen des Privatisierungsfolgerechts der Post und Telekommunikation, in Archiv des öffentlichen Rechts, 1999, p. 241 ss. Va poi soggiunto come anche in Germania vi è la diffusa consapevolezza dell’importazione del concetto di regolazione dalla riflessione statunitense sulla regulation. Per tutti, cfr. W. Schulz, Regulierte Selbstregulierung im Telekommunikationsrecht, in AA.VV., Regulierte Selbstregulierung als Steuerungskonzept des Gewährleistungsstaates, Berlin, 2001, p. 101.

[4] S. Merk, Grenzen der Regulierung, in M. Ludwigs (a cura di), Regulierender Staat und konfliktschlichtendes Recht. Festschrift für Matthias Schmidt-Preuß zum 70. Geburtstag, Berlin, 2018, p. 722.

[5] Così secondo la classificazione offerta in W. Hoffmann-Riem-E. Schmidt-Aßmann (a cura di), Öffentliches Recht und Privatrecht als wechselseitige Auffangordnungen, Baden-Baden 1996, pp. 300-304, richiamata, più recentemente, anche in A. Hellgardt, Regulierung und Privatrecht, Tübingen, 2016, p. 46.

[6] Cfr. l’analisi contenuta in P. Collin-S. Rudischhauser, «Regulierte Selbstregulierung. Historische Analysen hybrider Regelungsstrukturen», in Trivium, 2016, p. 3, ove si specifica che il concetto di regulierte Selbstregulierung assume i suoi contorni già nel XIX secolo, assumendo poi maggiore rilevanza nel dibattito sulla regolazione negli anni ’90.

[7] L’introduzione di questa categoria nel dibattito tedesco viene ricondotta a W. Hoffmann-Riem, Multimedia-Politik vor neuen Herausforderungen, in Rundfunk und Fernsehen, 1995, p. 125 ss., spec. p. 132 ss.; W. Hoffmann-Riem, Regulating Media, New York-London 1996, spec. p. 326. Per maggiori approfondimenti in tema si vedano in part. W. Hoffmann-Riem, Selbstregelung, Selbstregulierung und regulierte Selbstregulierung im digitalen Kontext, in M. Fehling-U. Schliesky (a cura d), Neue Macht – und Verantwortungsstrukturen in der digitalen Welt, Baden-Baden, 2016, p. 27 ss. e A. Voßkuhle, “Regulierte Selbstregulierung” – Zur Karriere eines Schlüsselbegriffs, in AA.VV., Regulierte Selbstregulierung als Steuerungskonzept des Gewährleistungsstaates, cit., p. 197 ss. In W. Schulz-T. Held, Regulierte Selbstregulierung als Form modernen Regierens, in Arbeitspapiere des Hans-Bredow Instituts, Hamburg, 2002, il termine regulierte Selbstregulierung viene preferito a quelli di co-regulation (di matrice anglosassone) o di audited regulation (di matrice statunitense) in quanto suscettivo di ingenerare minore confusione rispetto ai caratteri della regolazione. Il problema terminologico, in particolare rispetto all’uso del termine selfregulation, è peraltro evidenziato anche nella dottrina italiana: in tema cfr. F. Cafaggi, Crisi della statualità, pluralismo e modelli di autoregolamentazione, in Pol. dir., 2001, p. 547, ove si riconduce il fenomeno dell’autoregolazione al modello della regolazione cooperativa; M. Ramajoli, Self regulation, soft regulation e hard regulation nei mercati finanziari, in questa Rivista, 2016, p. 55 ss., che pone in luce la distinzione tra autoregolazione e co-regolazione (o regolazione di tipo cooperativo).

[8] A titolo esemplificativo, guardando alla lettura tedesca si può notare come in T. Wischmeyer, Regulierung intelligenter Systeme, in Archiv des öffentlichen Rechts, 2018, spec. p. 10 ss., si faccia riferimento alla nozione di “sistemi intelligenti”, ovvero di quei sistemi che sfruttano grandi quantità di dati attraverso procedimenti algoritmici di autoapprendimento sotto la supervisione umana. Più ampia, come si vedrà infra, è la nozione di algoritmo: essa viene impiegata in M. Martini, Algorithmen als Herausforderung für die Rechtsordnung, in Juristen Zeitung, 2017, p. 1017 ss. e M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, Berlin, 2019, p. 2 ss. Infine, è piuttosto diffuso il riferimento alla nozione di intelligenza artificiale: cfr. in tema, ex multis, L. Guggenberger, Einsatz künstlicher Intelligenz in der Verwaltung, in Neue Zeitschrift für Verwaltungsrecht, 2019, p. 844 ss., nonché M. Herberger, “Künstliche Intelligenz” und Recht, in Neue Zeitschrift für Verwaltungsrecht, 2018, p. 2825 ss., spec. p. 2828 ss., che però pone l’attenzione sulla necessità di riferire l’intelligenza non tanto alla macchina, quanto piuttosto ad una rete cooperativa tra uomo e macchina: in questa prospettiva si parla di intelligenza estesa.

[9] In particolare, bisogna tenere conto della distinzione tra intelligenza artificiale e digitalizzazione. Sul punto, da ultimo, cfr. A. Simoncini, Profili costituzionali della amministrazione algoritmica, in Riv. trim. dir. pubbl., 2019, p. 1166 il quale osserva come quando si parla di intelligenza artificiale «[l]a tecnologia informatica non viene usata per “redigere” l’atto, per conservarlo o per trasmetterlo, ma per determinarne il contenuto».

[10] Così, per tutti, G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Napoli, 2019, p. 6.

[11] Per una panoramica in ordine alle diverse modalità in cui si esplica L’ia si rinvia alle analisi contenute in M. Fasan, Intelligenza artificiale e pluralismo: uso delle tecniche di profilazione nello spazio pubblico democratico, in Rivista di Biodiritto, 2019, p. 104 ss. e S. Crisci, Intelligenza artificiale ed etica dell’algoritmo, in Foro amm., 2018, p. 1787 ss.

[12] Una sintetica panoramica è offerta in G. Resta, Algoritmi, diritto, democrazia, in Giustizia civile.com, 2019, p. 3.

[13] Il punto è posto in luce in T. Wischmeyer, op. cit., p. 8.

[14] Il rilievo dell’innovazione tecnologica come fattore di determinazione della necessità regolatoria è usualmente raccordato alle implicazioni sociali delle tecnologie sempre più sofisticate impiegate nella vita quotidiana. Cfr. in tema, in termini generali, M. Lodge, K. Yeung, Algorithmic regulation, in AA.VV., Algorithmic regulation, London, 2017, p. 1; F. Mattasoglio, Algoritmi e regolazione. Circa i limiti del principio di neutralità tecnologica, in questa Rivista, 2018, pp. 227-228, che evidenzia la sussistenza di una necessità regolatoria a causa dello sviluppo tecnologico nel settore finanziario; G. Resta, op. cit., p. 4 ss., il quale non manca di sottolineare il valore costituzionale delle posizioni incise dagli sviluppi tecnologici (analogamente, cfr. anche A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in Biolaw Journal, 2019, spec. p. 67 ss.).

[15] Per un raffronto tra le diverse discipline nei procedimenti amministrativo, fiscale e sociale cfr. in part. N. Braun Binder, Weg frei für vollautomatisierte Verwaltungsverfahren in Deutschland, in www.jusletter-it.eu, 2016; U. Stelkens, sub § 35a, in P. Stelkens-H.J. Bonk-M. Sachs (a cura di), Verwaltungsverfahrensgesetz. Kommentar, München, 2018, numeri a margine 5-8; A. Windoffer, sub § 35 a, in T. Mann-C. Sennekamp-M. Uechtritz (a cura di), Verwaltungsverfahrensgesetz. Großkommentar, Baden-Baden, 2019, numeri a margine 11-12.

[16] Il punto è posto in luce in M. Stegmüller, Vollautomatische Verwaltungsakte – eine kritische Sicht auf die neuen § 24 I 3 und § 35 a VwVfG, in Neue Zeitschrift für Verwaltungsrecht, 2018, p. 354, che si riferisce alla relazione accompagnatoria al testo di legge.

[17] In particolare, l’art. 22 GDPR prevede un diritto di opposizione del soggetto interessato da un trattamento di dati personali rispetto ad un trattamento completamente automatizzato, posto che della possibilità di un simile trattamento deve essere informato nell’informativa ai sensi degli artt. 13 e 14 GDPR. Sulla portata dell’art. 22 GDPR cfr., ex multis, P. Guarda, “Ok Google, am I sick?”: artificial intelligence, e-health, and data protection regulation, in BioLaw Journal, 2019, p. 368 ss.; M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p.169 ss.

[18] Differentemente, nell’AO e nel SGB non è prevista la necessità di una previa disposizione normativa che consenta il ricorso a procedimenti automatizzati, dato che il ricorso a procedure completamente automatizzate è ricavabile dalle singole codificazioni in materia fiscale e sociale. Cfr. in tema A. Windoffer, op. cit., numero a margine 25.

[19] Recita infatti il § 35 a VwVfG: «[e]in Verwaltungsakt kann vollständig durch automatische Einrichtungen erlassen werden, sofern dies durch Rechtsvorschrift zugelassen ist und weder ein Ermessen noch ein Beurteilungsspielraum besteht». Come emerge dal disposto normativo, non solo devono essere assenti margini di discrezionalità (Ermessen), ma pure di uno spazio di valutazione tecnica (Beurteilungsspielraum). Sulla distinzione in Germania tra i concetti di Ermessen e Beurteilungsspielraum rimane fondamentale l’analisi svolta in D. de Pretis, Valutazione amministrativa e discrezionalità tecnica, Padova, Cedam, 1995, p. 65 ss.

[20] La riforma ha anche aggiunto un’ulteriore frase al § 24, comma 1 VwVfG, che ora dispone: «Setzt die Behörde automatische Einrichtungen zum Erlass von Verwaltungsakten ein, muss sie für den Einzelfall bedeutsame tatsächliche Angaben des Beteiligten berücksichtigen, die im automatischen Verfahren nicht ermittelt würden».

[21] È il caso di osservare come l’elemento volontaristico rappresenti un fattore di particolare problematicità rispetto all’inquadramento giuridico dell’intelligenza artificiale. Come è stato rilevato, il profilo della volontà dell’amministrazione viene in considerazione, tramite il § 35a VwVfG, rispetto alla scelta di ricorrere alla procedura automatizzata, di modo che la norma soccorre rispetto ad un problema di attribuzione (Zurechnungsproblem) e non per surrogare una dichiarazione di volontà (Willenserklärung): sul punto, cfr. J. Ziekow, Das Verwaltungsverfahrensrecht in der Digitalisierung der Verwaltung, in Neue Zeitschrift für Verwaltungsrecht, 2018, p. 1170.

[22] In particolare, si è posto il problema in ordine all’ammissibilità di procedure completamente automatizzate che utilizzino algoritmi di autoapprendimento (cd. machine learning): sul punto la risposta offerta dalla dottrina appare affermativa, sebbene si metta in luce come permanga un limite, alla luce dei principi di legittimazione democratica e del Rechtsstaat, giacché il sistema di IA impiegato non può giungere a determinare quali risultati siano indesiderati indipendentemente dalle determinazioni normative e dell’autorità responsabile del procedimento (sul punto cfr. in part. U. Stelkens, op. cit., numero a margine 47).

[23] Il punto è chiarito anche in W. Hoffmann-Riem, Artificial Intelligence as a Challenge for Law and Regulation, in T. Wischmeyer-T. Rademecher (a cura di), Regulating artificial intelligence, Cham, 2020, p. 13.

[24] Sulle origini e sui caratteri della soft regulation cfr. M. Ramajoli, Soft law e ordinamento amministrativo, cit., p. 99 ss.; cfr. anche M. Ramajoli, Self regulation, soft regulation e hard regulation nei mercati finanziari, p. 53 ss., rispetto alla natura cripto-hard della soft regulation. Per un’analisi incentrata sui profili comparati nell’uso del soft law, cfr. B. Boschetti, Soft law e normatività: un’analisi comparata, in questa Rivista, 2016, p. 32 ss.

[25] J. Turner, Robot Rules. Regulating Artificial Intelligence, Cham, 2019, p. 68.

[26] Il comitato etico era composto da 14 membri, di cui tre professori di diritto, tre professori di etica e due professori di discipline tecniche, due rappresentanti delle case automobilistiche, il presidente dell’associazione dei gruppi di tutela dei consumatori, il presidente del club automobilistico tedesco ADAC, un vescovo cattolico e un ex procuratore generale. Il presidente era Udo di Fabio, già giudice del Tribunale costituzionale federale tedesco. Inoltre, sono state condotte audizioni con altri esperti di discipline tecniche, giuridiche ed etiche, nonché un esame di guida con diverse automobili (semiautomatiche) a guida autonoma.

[27] Come è noto, la regulatory capture (figura concettualizzata nel dibattito statunitense, con il contributo fondamentale di G.J. Stigler, The Theory of Economic Regulation, in Bell Journal of Economic and Management Science, 1971) rappresenta uno dei rischi riconducibili a meccanismi di partecipazione o contitolarità del potere regolatorio, nella misura in cui i privati possono influenzare l’esercizio del potere regolatorio. Sulla cattura del regolatore, cfr., in part., M. De Benedetto-M. Martelli-N. Rangone, La qualità delle regole, Bologna, 2011, p. 137 ss.; L. De Lucia, La regolazione amministrativa dei servizi di pubblica utilità, Torino, 2002, p. 82 ss.; A. La Spina-G. Majone, Lo Stato regolatore, Bologna, 2000, p. 122 ss.; più recentemente, P. Lazzara, La regolazione amministrativa: contenuto e regime, in Dir. amm., 2018, p. 360 ss.; G. Napolitano, La logica del diritto amministrativo, Bologna, 2014, pp. 43-44.

[28] Cfr. il documento Antrag der Fraktionen CDU/CSU, SPD, FDP und DIE LINKE. Einsetzung einer Enquete-Kommission “Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale”, reperibile al link http://dip21.bundestag.de/
dip21/btd/19/029/1902978.pdf.

[29] Prima di addivenire al documento finale, il governo federale ha pubblicato un altro documento recante i punti chiave del governo federale per una strategia in materia di intelligenza artificiale (Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz). Su questi punti chiave è stato avviato un processo di consultazione che ha coinvolto perlopiù attori istituzionali e operatori del mercato e ha portato poi alla redazione del documento strategico finale (Strategie Künstliche Intelligenz der Bundesregierung, d’ora in avanti Strategie KI).

[30] Strategie KI, pp. 4-5. È bene notare come nei i punti chiave del governo federale per una strategia in materia di intelligenza artificiale non vi era alcuna presa di posizione riguardo alla nozione di intelligenza artificiale. Sollecitato nel corso delle consultazioni, il governo federale ha deciso di far riferimento alla nozione di IA debole (schwache KI, weak AI): mentre la nozione forte di IA (starke KI, strong AI) allude al fatto che i sistemi di IA hanno le stesse abilità intellettuali degli esseri umani, la nozione debole si concentra sulla soluzione di problemi applicativi concreti sulla base di metodi matematici e informatici, per mezzo dei quali i sistemi di IA sono in grado di auto-ottimizzarsi.

[31] Va comunque segnalato che la misura degli investimenti si mostra piuttosto esigua, se comparata con quella che la Cina intende investire nell’IA, ammontante a circa 150 miliardi. Il punto è stato sollevato dalle opposizioni in occasione del dibattito parlamentare inerente alla strategia del governo federale (una sintesi del dibattito è disponibile al seguente link: https://www.bundestag.de/dokumente/textarchiv/2019/kw07-de-kuenstliche-intelligenz-strategie-590730).

[32] Strategie KI, p. 8.

[33] Strategie KI, p. 9.

[34] Ibidem.

[35] Il punto riaffiora con riferimento ai singoli settori di azione previsti nella strategia: cfr. Strategie KI, p. 12 ss.

[36] Questo profilo, in particolare, segna uno scostamento tra l’impostazione della strategia tedesca rispetto a quella cinese. Il governo cinese, infatti, sebbene non si disinteressi ai profili etici è molto più focalizzata sui vantaggi della tecnologia per lo sviluppo sociale ed economico del proprio Paese nella strategia nazionale. In questo senso cfr. S. Wegner-S. Fischer, Künstliche Intelligenz in Deutschland und China – Vergleich der nationalen Strategien und Handlungsempfehlungen, in Y. Zhang (a cura di), China und Deutschland: 5.0 Herausforderung, Chance und Prognose, Berlin, pp. 157-158.

[37] Il fatto che la regolazione possa assumere anche la forma di misure a carattere non autoritativo di incentivazione è coerente con l’accettazione dell’accezione di regolazione che valorizza «il ruolo (generale e specifico) di correzione delle dinamiche spontanee della realtà in ordine all’allocazione di risorse affidate alla regolazione». Cfr. in tema M. Cammelli, Crisi dei meccanismi regolativi e supplenza giudiziale, in L. Violante (a cura di), Storia d’Italia. Annali 14. Legge diritto giustizia, Torino, 1998, p. 555 ss., ora in C. Barbati-M. Dugato-G. Piperata (a cura di), Amministrazioni pubbliche e nuovi mondi. Scritti scelti, Bologna, 2019, p. 205 ss., spec. p. 208.

[38] Con riferimento al profilo formativo è d’uopo osservare come nel 2019 sia stato sottoscritto il DigitalPakt Schule 2019-2024, un accordo amministrativo (Verwaltungsvereinbarung) – cui si faceva cenno nella strategia (Strategie KI, pp. 30-31) attraverso cui il governo federale concede ai Länder un’assistenza finanziaria ai sensi dell’art. 104c Grundgesetz per investimenti significativi a livello nazionale per accrescere l’efficienza del sistema dell’istruzione sul piano digitale.

[39] Nella strategia (Strategie KI, p. 13) si fa espresso riferimento alla necessità di prevedere degli accordi tra Federazione e Stati (Bund-Länder-Vereinbarung) per garantire un finanziamento stabile e a lungo termine rispetto alle iniziative di ricerca relative all’IA.

[40] Strategie KI, p. 13.

[41] Anche tale profilo differenzia la strategia tedesca da quella cinese: quest’ultima, infatti, appare maggiormente orientata a considerare il piano nazionale, a discapito di quello internazionale. Con riferimento ai paesi europei, prevale, in generale la considerazione dei profili di cooperazione europea e internazionale. Così, ad esempio, nella strategia svedese National approach to artificial intelligence, p. 10. Un caso a parte è quello del Regno Unito dove la Brexit pare stia orientando verso una cooperazione più forte con gli Stati Uniti (così si legge in O. Groth, et alii, Vergleich nationaler Strategien zur Förderung von Künstlicher Intelligenz. Teil 1. Konrad – Adenauer-Stiftung, disponibile al link https://www.kas.de).

[42] Strategie KI, p. 15.

[43] Cfr. Strategie KI, p. 21. Ai sensi dell’art. 107, par. 3, lett. b) TFUE la Commissione può considerare compatibili con il mercato interno gli aiuti di Stato finalizzati a promuovere la realizzazione di un importante progetto di comune interesse europeo (IPCEI). Va segnalato che, con decisione del 18 dicembre 2018 C (2018) 8864 final, la Commissione europea ha accolto la proposta di aiuti avanzata congiuntamente da Francia, Germania, Italia e Regno Unito per il sostegno ad un importante progetto di interesse comune europeo sulla microelettronica.

[44] Cfr. in merito il documento Eckpunkte der Agentur zur Förderung von Sprunginnovationen, reperibile al seguente link https://www.bmbf.de/files/Eckpunkte%20der%20Agentur%20zur
%20F%C3%B6rderung%20von%20Sprunginnovationen_final.pdf.

[45] Strategie KI, p. 43.

[46] Strategie KI, p. 37.

[47] Cfr. Empfehlungen der Datenethikkommission für die Strategie Künstliche Intelligenz der Bundesregierung del 9 ottobre 2018, p. 2.

[48] Secondo la definizione contenuta in A. La Spina-G. Majone, op. cit., p. 67, la fissazione di standard (o standard-setting) consiste nella produzione di «regole concernenti una data categoria di prodotti o processi produttivi, che richiedono in forma universale la presenza o l’assenza di certi requisiti nei prodotti, o l’adozione di certe condotte da parte delle imprese produttrici»; ivi, si pone in luce anche che il processo di standard-setting, coinvolgendo una vasta platea di soggetti, pubblici e privati, si mostra lungo e complicato, oltreché caratterizzato da una natura compromissoria.

[49] Strategie KI, p. 41

[50] D’altronde, il tema della regolazione dei dati personali e dell’IA sono fra loro connessi sotto più profili: in primo luogo, vi sono forme di IA che fanno un uso consistente di dati personali (si pensi, ad esempio, ai sistemi di riconoscimento facciale); in secondo luogo, le regole in tema di dati personali possono fungere anche da modello per la regolazione dell’IA (cfr. sul punto W. Hoffmann-Riem, Artificial Intelligence as a Challenge for Law and Regulation, cit., p. 12).

[51] Strategie KI, p. 33.

[52] Strategie KI, p. 39.

[53] Sul punto si tornerà infra.

[54] Strategie KI, p. 26

[55] Strategie KI, p. 40.

[56] La preoccupazione è stata peraltro posta in luce nel documento redatto dall’European Group on Ethics in Science and New Technologies e denominato Statement on Artificial Intelligence, Robotics and “Autonomous” Systems, 2018, p. 14, ove si rileva la necessità di un quadro di regolazione a carattere sovranazionale proprio per fronteggiare il fenomeno del forum shop­ping (più precisamente, si parla di ethics shopping). In tema cfr. anche M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 268.

[57] Cfr. le riflessioni svolte supra sub par. 1.

[58] Sul punto si tornerà più approfonditamente infra sub par. 5.

[59] È questa l’impostazione condivisa nei vari contributi raccolti in T. Wischmeyer-T. Rademecher (a cura di), op. cit.

[60] Si fa riferimento all’impostazione di T. Wischmeyer, Regulierung intelligenter Systeme, cit., p. 18 ss., recepita anche in W. Hoffmann-Riem, Artificial Intelligence as a Challenge for Law and Regulation, cit., p. 11.

[61] Cfr. M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 157 ss.

[62] Il punto è posto in luce in N. Marsch, Artificial Intelligence and the Fundamental Right to Data Protection: Opening the Door for Technological Innovation and Innovative Protection, in T. Wischmeyer-T. Rademecher (a cura di), op. cit., p. 34, il quale osserva che «[I]nsofar as personal data are processed, the national legislators are primarily bound by European data protection law, namely the General Data Protection Regulation»; in termini analoghi cfr. anche M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., pp. 248-249.

[63] Cfr. T. Wischmeyer, Artificial Intelligence and Transparency: Opening the Black Box, in T. Wischmeyer-T. Rademecher (a cura di), op. cit., p. 80 ss., ove vengono posti in luce i diversi pro­blemi che presentano gli algoritmi sotto il profilo della loro conoscibilità.

[64] T. Wischmeyer, Artificial Intelligence and Transparency: Opening the Black Box, cit., p. 78

[65] Si pensi al problema dato dagli algoritmi dotati di in-built feedback loops: tali algoritmi sono in grado di correggere le loro decisioni successive in base ai risultati prodotti attraverso le decisioni già svolte. In tal modo, si compromette parzialmente la prevedibilità delle risultanze riannodabili alla decisione algoritmica. Cfr. T. Wischmeyer, Artificial Intelligence and Transparency: Opening the Black Box, cit., p. 82.

[66] M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 354.

[67] Cfr. W. Hoffmann-Riem, Artificial Intelligence as a Challenge for Law and Regulation, cit., pp. 13-14.

[68] Ci si riferisce alla proposta avanzata in A. Tutt, An FDA for algorithms, in Administrative Law Review, 2017, p. 83 ss., per l’istituzione di un’autorità di vigilanza sugli algoritmi sul modello della Food and Drug Administration.

[69] Per maggiori informazioni su tali profili cfr. M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 274 ss.

[70] La legge sula responsabilità da prodotto difettoso (Gesetz über die Haftung für fehlerhafte Produkte, ProdHaftG) al § 1 (4) dispone che spetta al danneggiato l’onere di provare l’esistenza del difetto, del danno e del nesso causale tra il difetto e il danno.

[71] Il problema principale è dato dal fatto che l’apprendimento degli algoritmi non segue regole di tipo causale, sicché non solo è complesso o talvolta impossibile stabilire come l’algoritmo si comporterà, ma tale complessità o impossibilità si riverbera sulla capacità di spiegare in termini causali come l’algoritmo ha agito. Cfr. in tema M. Ebers, Autonomes Fahren: Produkt– und Produzentenhaftung, in H. Oppermann-J. Stender-Vorwachs (a cura di), Autonomes Fahren. Rechtsfolgen, Rechtsprobleme, technische Grundlagen, München, 2017, p. 97 ss.; F. Molnár-Gábor, Artificial Intelligence in Healthcare: Doctors, Patients and Liabilities, in T. Wischmeyer-T. Rademecher (a cura di), op. cit., p. 340. Cfr anche M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 60 ss., ove si precisa come la regola in tema di IA sia la correlazione in luogo della causalità.

[72] Sul codice tedesco di Corporate Governance cfr., in part., M. Rondinelli, Il Deutscher Corporate Governance Kodex, in Contr. e impr./Eur., 2006, p. 865 ss.; W. Wegmann, Der Deutsche Corporate Governance Kodex. Gesteuerte Selbstregulierung im Aktienrecht, in M. Ludwigs (a cura di), op. cit., p. 477 ss. Sull’esperienza tedesca si è modellata anche l’esperienza italiana dell’autodisciplina nel governo societario: sul modello italiano, si veda, in part., C. Pistocchi, Appunti sul codice di autodisciplina delle società quotate, in Giur. comm., 2016, p. 171 ss.

[73] Come si legge in M. Rondinelli, op. cit., p. 865 nei primi quattro anni di operatività il Kodex è stato aggiornato con cadenza annuale.

[74] La rilevanza del principio in parola, specie se rapportato al dovere di motivazione è posto in luce in M. Ramajoli, Soft law e ordinamento amministrativo, cit., pp. 109-110.

[75] Cfr. M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 359.

[76] Come si osserva in F. Cafaggi, Regolazione transnazionale e trasformazioni dello Stato: un’introduzione, in Id. (a cura di), Regolazione transnazionale e trasformazioni dello Stato, Roma, 2016, p. 45 ss., la regolazione transnazionale tende usualmente a rientrare nei paradigmi di regolazione a carattere privatistico.

[77] Siffatta prospettiva appare coerente con l’impostazione avanzata in S. Cassese, Dalle regole del gioco al gioco con le regole, in Mercato Concorrenza Regole, 2002, p. 268 ss., rispetto al superamento delle diverse impostazioni unidirezionali proprie del rapporto tra regolatori e regolati, tenendo conto dei differenziali di convenienza: come è stato evidenziato, una simile impostazione ha anche una significativa incidenza sulla disciplina procedurale della regolazione (cfr. in tema, per maggiori approfondimenti, E. Chiti, La disciplina procedurale della regolazione, in Riv. trim. dir. pubbl., 2004, p. 679 ss.). Con riferimento all’ordinamento tedesco, ci si richiama all’analisi svolta da P. Salje, Regulierung und Privatrecht. Privatrechtliche Instrumentarien und der Beitrag des EEG 2017, in M. Ludwigs (a cura di), op. cit., pp. 1026-1031, in relazione ai vantaggi riconducibili ad un approccio basato sulla pluralità di opzioni regolative.

[78] B. Holznagel, Regulierte Selbstregulierung im Medienrecht, in AA.VV., Regulierte Selbstregulierung als Steuerungskonzept des Gewährleistungsstaates, cit., p. 81 ss.

[79] W. Schulz, op. cit., p. 101 ss.

[80] Si fa riferimento, in particolare, a forme di regolazione autoregolata fondate sull’uso di strumenti quali il sistema di gestione ambientale EMAS o il marchio ambientale Blauer Engel. Sulla riconducibilità di tali strumenti a forme di autoregolazione regolata si veda, in part., M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., pp. 140-141. Con riferimento ai profili di regolazione autoregolata nel settore ambientale cfr. anche il fondamentale contributo di E. Brandt, Regulierte Selbstregulierung im Umweltrecht, p. 123 ss.

[81] Attraverso questa forma di regolazione si genera un effetto induttivo, per cui si mettono in moto meccanismi che inducono i privati a rispettare la regola anche se non vincolante, come spiegato efficamente da Cfr. in tema M. Schmidt-Preuß, Verwaltung und Verwaltungsrecht zwischen gesellschaftlicher Selbstregulierung und staatlicher Steuerung, in M. Schmidt-Preuß, U. Di Fabio (a cura di) Kontrolle der auswärtigen Gewalt. Verwaltung und Verwaltungsrecht zwischen gesellschaftlicher Selbstregulierung und staatlicher Steuerung, Berlin, 1997, p. 185. Sull’impostazione di Schimdt-Preuss in proposito cfr. pure W. Wegmann, op. cit., pp. 479-481.

[82] M. Eifert, Regulierungsstrategien, in W. Hoffmann-Riem-E. Schmidt-Aßmann-A. Voßkuhle (a cura di), Grundlagen des Verwaltungsrechts, I, München, 2012, numero a margine 60; W. Hoffmann-Riem, Selbstregelung, Selbstregulierung und regulierte Selbstregulierung im digitalen Kontext, cit., p. 32 ss.; M. Martini, Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, cit., p. 139.

Fascicolo 1 - 2020