Rivista della Regolazione dei MercatiE-ISSN 2284-2934
G. Giappichelli Editore

La regolazione dell'intelligenza artificiale in Germania: stato dell'arte e prospettive future (di Simone Franca)


Il presente contributo analizza la regolazione dell’intelligenza artificiale nel contesto del sistema giuridico tedesco. L’articolo è diviso in tre parti. Nella prima parte si tenta di ricostruire il quadro di riferimento in cui il tema della regolazione dell’intel­ligen­za artificiale può essere collocato, tenendo conto dei concetti generali di “regolazione” e “intelligenza artificiale”. Nella seconda parte si analizza la strategia in tema di intelligenza artificiale del governo federale tedesco, con particolare riferimento ai suoi obiettivi e all’insieme delle misure in essa previste. Nella terza parte si valuta, alla luce del dibattito della dottrina tedesca, quali siano le lacune normative ancora presenti nel quadro giuridico tedesco di regolazione. L’analisi tripartita così svolta consente di valutare un’unica esperienza – quella tedesca – come modello per affrontare adeguatamente la questione generale della regolazione dell’intelli­gen­za artificiale.

Artificial intelligence regulation in Germany: state of the art and future perspectives

The article aims at analyzing the regulation of artificial intelligence in the context of the German legal system. The article is divided into three parts. In the first part we will try to build up the framework in which the topic of regulation of artificial intelligence can be settled, taking into account the general concepts of “regulation” and “artificial intelligence”. In the second part we will focus on the artificial intelligence strategy of the German federal government, particularly on its objectives and on the set of measures hereby provided. In the third part, we will try to consider, in the light of the debate of the German legal scholarship, which kind of regulatory loopholes are still present in the German legal framework. The three-fold analysis will give us the chance to consider a single experience – the German one – as a model in order to properly tackle the general issue of regulating artificial intelligence.

Keywords: Artificial intelligence – Regulation – Self-regulation – Germany – Federal strategy

SOMMARIO:

1. Premessa - 2. Dai primi interventi di regolazione alla strategia del governo federale in tema di IA - 3. Gli obiettivi della strategia federale in tema di IA - 3.1. Le misure di regolazione per la promozione dell’IA - 3.2. Le misure di regolazione dei rischi nell’uso dell’IA - 4. Lo spazio per una regolazione “integrativa” - 5. Alcuni spunti de iure condendo: sfide e forme della regolazione dell’IA - 6. Considerazioni finali - NOTE


1. Premessa

Il tema che occupa il presente scritto impone un chiarimento preliminare relativo all’individuazione dei significati da attribuire ai termini regolazione e intelligenza artificiale (d’ora in avanti, IA) nel contesto dell’ordinamento tedesco. Il concetto di regolazione [1] assume nel diritto pubblico non solo tedesco [2] plurimi significati e, pertanto, si rende necessaria una sintetica analisi delle diverse categorie elaborate dagli studiosi per determinarne il significato. Secondo un’autorevole ricostruzione il termine regolazione (Regulierung) è suscettivo di assumere tre diverse gradazioni di significato: anzitutto, la posizione di regole funzionali all’apertura dei mercati, attraverso la correzione dei fallimenti del mercato consistenti in monopoli naturali (cd. Regulierung I); in secondo luogo, in senso più ampio, la previsione di regole per il perseguimento di obiettivi di benessere pubblico (Regulierung II); infine, in via residuale, la predisposizione di tutto quell’insieme di misure di politica economica che si estrinsecano in norme e restrizioni (Regulierung III) [3]. Alla luce di tale ricostruzione è già possibile osservare come, in astratto, all’interno della categoria della regolazione possano essere ricondotte attività dove il grado di intensità dell’intervento normativo è differente [4]. Va poi tenuto in considerazione il fatto che, in ragione delle numerose sfaccettature che caratterizzano l’attività di regolazione, si possono porre diversi modelli regolativi, in dipendenza del ruolo assunto da soggetti privati e pubblici nel procedimento regolativo. Così, si possono anzitutto individuare quattro tipologie di regolazione in ragione del differente ruolo offerto da soggetti pubblici e privati: una regolazione di stampo tradizionale definita come regolazione imperativa; una regolazione statale che riconosce elementi di autoregolazione, pur senza alterare la struttura imperativa della regolazione; una regolazione autoregolata, dove il ruolo del regolatore privato è preminente, ma pur sempre inquadrato nella cornice di una regolazione pubblica; un’autoregolazione pura [5]. Dunque, alla regolazione che si sviluppa secondo il modello del command and control – in forza del quale spetta ai soggetti pubblici porre le regole che verranno applicate ai soggetti regolati – si [continua ..]


2. Dai primi interventi di regolazione alla strategia del governo federale in tema di IA

Un primo intervento da tenere in considerazione consiste nella riforma del 2016 nell’ambito della legge di modernizzazione dei procedimenti fiscali (Gesetz zur Modernisierung des Besteuerungsverfahrens) che ha portato alla modifica della legge sul procedimento amministrativo (Verwaltungsverfahrensgesetz, VwVfG), del codice delle imposte (Abgabeordnung, AO) e del decimo libro del codice di previdenza sociale (Sozialgesetzbuch X, SGB X), introducendo la possibilità di ricorrere a procedimenti amministrativi completamente automatizzati. Prescindendo dalle differenze insite in ciascuna disciplina [15] e soffermandosi sulla disciplina contenuta nella legge sul procedimento amministrativo, si intuisce che l’intento del legislatore federale fosse sostanzialmente duplice, ovvero, per un verso, aprire alle possibilità di utilizzo di procedimenti totalmente automatizzati e, per altro verso, circondare tale possibilità di utilizzo da determinate garanzie [16]. L’esigenza di riferirsi unicamente ai procedimenti completamente automatizzati non sorprende, se si considera che anche il legislatore eurounitario, nella sua opera di regolazione uniformante in materia di protezione dei dati, ha sancito una disciplina specifica nel caso di trattamenti tramite procedimenti integralmente automatizzati all’art. 22 GDPR [17]. Nel caso della Germania, il legislatore federale ha previsto che il ricorso a procedimenti completamente automatizzati sia possibile solo laddove vi sia una espressa previsione di legge [18] e nel caso in cui il procedimento sia vincolato [19]; è poi previsto che l’amministrazione tenga conto delle informazioni pertinenti fornite dalla persona interessata che non sarebbero prese in considerazione dalla procedura automatica [20]. In questi termini, la decisione al­l’esito di un procedimento automatizzato viene assimilata alla decisione amministrativa tout court, pur in mancanza di un atto volitivo umano [21], benché rimanga dubbio in che misura le garanzie previste per l’atto amministrativo siano replicabili anche per l’atto completamene automatizzato [22]. Va però notato come la previsione di una espressa riserva di legge per il ricorso a simili procedimenti illustri una scelta ben precisa in termini di regolazione, secondo il modello della regolazione imperativa [23], nella misura in cui si subordina ad una previsione di [continua ..]


3. Gli obiettivi della strategia federale in tema di IA

Rispetto alla strategia del governo federale giova anzitutto precisare l’am­bito di applicazione e gli obiettivi della strategia. Con riguardo all’ambito di applicazione, la strategia accoglie una nozione per quanto possibile onnicomprensiva di IA, intendendo disciplinare fenomeni quali il machine learning, le applicazioni relative alla robotica, il deep learning, etc. [30]. Quanto agli obiettivi, la strategia ne individua sostanzialmente tre. Il primo obiettivo è quello di rendere la Germania e l’Europa dei poli di eccellenza nell’ambito dell’utilizzo dell’intelligenza artificiale. Dietro lo slogan dell’IA “made in Germany” emerge una visione ben precisa, volta a indirizzare quantità ingenti di finanziamenti pubblici (circa 3 miliardi sino al 2020) [31] su attività di ricerca sul tema dell’intelligenza artificiale e su forme di sostegno alle start-up o ad altri soggetti privati, in modo da creare modelli di business impegnati nello sviluppo di applicazioni concrete dell’intelligenza artificiale [32]. Il secondo obiettivo mira a individuare uno sviluppo e un utilizzo responsabile dell’IA, funzionalizzato rispetto al bene della collettività. In questa prospettiva, la strategia mira a mantenere lo sviluppo relativo all’intelligenza artificiale nel perimetro dei principi etici e giuridici dello Stato democratico, cercando, al tempo stesso, di sensibilizzare i vari stakeholders (dagli sviluppatori agli utenti) rispetto ai limiti etico-giuridici all’utilizzo dell’IA [33]. Infine, il terzo obiettivo, ambisce a integrare l’intelligenza artificiale nella società, nel contesto di un più ampio dialogo sociale, che ponga al centro l’uomo e le sue esigenze. In questo ambito si tratta di combinare lo sviluppo del­l’intelligenza artificiale con altri interessi rilevanti, quali quelli alla sicurezza, alla tutela della salute e all’ambiente [34]. Già dalla lettura degli obiettivi, emerge la tensione verso un approccio che non vuole ostacolare o limitare l’implementazione delle tecnologie di IA, ma anzi intende incentivarle, pur nell’ambito di un quadro regolativo sufficientemente definito. La strategia del governo federale, infatti, si concentra principalmente sulla allocazione di risorse per lo sviluppo di progetti innovativi che coinvolgono l’uso [continua ..]


3.1. Le misure di regolazione per la promozione dell’IA

Analizzando la strategia del governo federale è possibile isolare diverse tipologie di misure regolative riconducibili ai diversi soggetti istituzionali che intervengono nell’attività di regolazione. Anzitutto, possono essere isolate delle misure che non disciplinano direttamente l’implementazione di tecnologie di IA, quanto piuttosto le forme di coordinamento che fungono da presupposto per l’implementazione di siffatte tecnologie [37]. Rispetto al livello nazionale, vi è un’attenzione particolare al coordinamento tra il livello federale e il livello statale. Con riguardo a tale forma di coordinamento, il governo federale, nel testo della strategia, richiama lo strumento del­l’accordo fra Bund e Länder: l’accordo viene evocato al fine di strutturare un framework all’interno del quale è possibile garantire linee di finanziamento stabili, in particolare nei settori della formazione [38] e della ricerca [39], incentivando anche iniziative di partenariato pubblico-privato, in grado di favorire la diffusione di modelli di cooperazione per garantire un transito più fluido di idee dal mondo della ricerca al mondo del business [40]. Va poi evidenziato che la necessità di sviluppare nuove forme di coordinamento non viene presa in considerazione nella prospettiva meramente nazionale, venendo in rilievo anche profili transnazionali [41]. In primo luogo, il governo federale intende sostenere lo sviluppo di una for­ma di cooperazione transnazionale con la Francia: questa forma di coordinamento è finalizzata alla conduzione di linee condivise di ricerca e alla creazione di canali comuni attraverso cui i prodotti della ricerca possano essere facilmente tradotti in beni e servizi concretamente erogabili [42]. Essa rappresenta, in prospettiva, il punto di partenza rispetto ad una forma di cooperazione di tipo europeo che, secondo il governo federale, è suscettiva di approdare alla formulazione di un importante progetto europeo di interesse comune [43]. Sempre nella prospettiva di incentivazione, la strategia federale ha previsto l’istituzione della Agentur für Sprunginnovationen. Nonostante il nome possa lasciar intendere che si tratti di un’autorità pubblica, la Agentur für Sprunginnovationen è stata concepita come una società a responsabilità limitata – il cui [continua ..]


3.2. Le misure di regolazione dei rischi nell’uso dell’IA

Con riferimento a misure di regolazione relative alla gestione dei rischi riconducibili alle tecnologie di IA, la strategia federale pare muoversi, prevalentemente, nell’ambito di un modello di autoregolazione regolata, lasciando i profili di regolazione imperativa più sullo sfondo. L’attenzione al profilo di autoregolazione affiora in più passaggi. Anzitutto, emerge nel riferimento contenuto nella strategia al principio di ethics by, in and for design. Stando al documento strategico, tale principio va a determinare un approccio nei confronti dell’IA, con riferimento particolare al suo sviluppo e alla sua implementazione, nonché all’utilizzo, alla gestione, al controllo e alla governance delle applicazioni dell’IA [46]. L’idea, che originariamente è stata suggerita dalla commissione etica sui dati, è di considerare i principi etici non tanto come limiti all’implementazione dell’IA: piuttosto, le con­siderazioni a carattere etico possono consentire di sostenere le applicazioni tecnologiche nella misura in cui sono integrate nel loro processo di sviluppo fin dall’inizio [47]. L’approccio basato sull’autoregolazione regolata emerge anche rispetto all’individuazione di standard [48] di natura tecnica (relativi, ad esempio, al grado di automazione dei sistemi IA e possibili rischi nell’uso di simili sistemi) e di natura etica: anche a questo riguardo, infatti, il governo federale riconosce un ruolo fondamentale agli operatori del mercato rispetto alla loro individuazione, riconoscendo allo Stato il ruolo di fissazione degli standard una volta elaborati dagli operatori [49]. Rispetto alla possibilità di predisporre pro futuro misure di regolazione imperativa, il governo federale non si concentra direttamente su misure concernenti l’IA, quanto piuttosto su misure riguardanti i dati personali che potrebbero essere utilizzati da tecnologie di IA [50]. Qui l’obiettivo della regolazione è duplice: da un lato, assicurare una tutela sufficiente dei dati (personali e non) con riferimento alla loro raccolta, al loro impiego e al loro trasferimento e, dal­l’al­tro lato, favorire la circolazione di simili dati e la creazione di piattaforme in grado di immagazzinarli per usi ulteriori [51]. Per bilanciare le due contrapposte esigenze è prevista una revisione del quadro [continua ..]


4. Lo spazio per una regolazione “integrativa”

Nonostante dalla strategia del governo federale si possa evincere almeno l’intenzione di predisporre diverse misure a carattere regolativo e benché la strategia, come già rilevato, si occupi, in prima battuta, di incentivare la diffusione dell’IA, essa mostra come lo stato della regolazione del fenomeno del­l’IA nell’ordinamento tedesco versi ancora in uno stadio preliminare e, in particolare, che misure di regolazione stringente sono guardate con maggiore cautela. Sicuramente su tale approccio cauto incide la consapevolezza che una regolazione più intensa potrebbe disincentivare gli investimenti e, in particolare, dare luogo a fenomeni di forum shopping [56]: una regolazione poco permissiva potrebbe spingere gli operatori economici a preferire di stabilirsi in zone dove il quadro regolativo è meno stringente e ciò in contrasto con il già richiamato obiettivo di fare della Germania (e anche dell’Europa) un polo attrattivo di investimenti in materia di IA. Un altro fattore di incidenza sulla scelta regolativa del governo federale può rinvenirsi nell’impossibilità di prevedere, allo stato, una disciplina unitaria e uniforme dell’IA. Da un lato, ciò è dovuto al fatto che, come già rilevato, il problema della regolazione delle varie applicazioni tecnologiche va riguardato, in prima battuta (benché, come si è avuto modo di precisare in apertura, non esclusivamente), come un problema del singolo settore di regolazione [57]. Dall’altro lato, i rischi (così come i benefici) potenzialmente riannodabili all’implementazione di tecnologie di IA sono ancora ben lungi dall’essere interamente noti e ciò non consente di addivenire ad una disciplina generale completa dell’IA. Un ulteriore dato di complessità è dato dall’intreccio tra livelli istituzionali differenti. Il punto emerge in particolare dal punto di vista della regolazione dei dati: qui evidentemente la disciplina federale si intreccia con quella eurounitaria riducendo i margini di intervento del legislatore [58]. Pur alla luce di tali circostanze e tenendo in considerazione che, come anticipato, è stata istituita una commissione di inchiesta sul tema della disciplina dell’IA all’interno del Bundestag, pare difficile negare che vi sia spazio per una regolazione di completamento [continua ..]


5. Alcuni spunti de iure condendo: sfide e forme della regolazione dell’IA

Il tema della regolazione dell’intelligenza artificiale nella prospettiva de lege ferenda è tutt’altro che trascurato nel dibattito dottrinale tedesco e, anzi, presenta diversi spunti di interesse. Dal momento che nell’economia del presente scritto sarebbe impossibile passare in rassegna tutti i problemi ricollegabili all’uso dell’IA e tutte le proposte avanzate per superarli, sembra corretto seguire l’approccio, avanzato da alcuni studiosi [60], basato sull’individuazione di alcune linee guida che possano dirigere l’azione regolatoria pro futuro. A questo riguardo, si può fare riferimento ad una recente ricostruzione dottrinale che permette di isolare alcuni macro-problemi, distinguendo quattro “momenti” regolativi dell’IA [61]. In primo luogo, una forma di regolazione preventiva, che agisce sull’asimmetria informativa attraverso la previsione di obblighi di informazione, di motivazione e, più in generale, misure atte a garantire la trasparenza delle decisioni. In secondo luogo, si può avere una regolazione “accompagnatoria” che, tenuto conto della natura dinamica dell’intelligenza artificiale, capace di auto-innovarsi e di apprendere dai propri errori, segue la procedura della decisione algoritmica attraverso controlli sui risultati e poteri di controllo in capo all’autorità pubblica. In terzo luogo, si può avere una regolazione ex post, che mira cioè a disciplinare le conseguenze giuridiche di eventuali violazioni riconducibili alle tecnologie di IA. Infine, si ha una regolazione autoregolata, che si giustappone alle altre, nella misura in cui si prevede il ricorso a strumenti autoregolativi come i codici di condotta, successivamente trasfusi a livello di norme di diritto statale. a) In riferimento ai profili di regolazione preventiva, uno snodo problematico da cui non si può prescindere attiene alla gestione dei dati strumentali al funzionamento delle tecnologie di IA. Come si è avuto modo di anticipare il problema della regolazione dei dati si intreccia a quello della regolazione dell’IA e pone in luce un connotato fondamentale dell’algoritmo, ovvero la sua opacità (e. mancanza di trasparenza), circostanza che complica fortemente il controllo esercitabile sull’algoritmo, anche rispetto a possibili rischi discriminatori. Da questo angolo visuale, la [continua ..]


6. Considerazioni finali

L’analisi dello stato dell’arte e delle prospettive regolative nell’ordinamento tedesco restituisce un quadro piuttosto articolato, ma pure piuttosto indefinito, ove si inserisce anche un contributo significativo da parte della dottrina. La regolazione dell’intelligenza artificiale in Germania è ancora in divenire. Rispetto a precedenti interventi normativi aventi carattere episodico, attraverso la predisposizione della strategia federale che si è avuto modo di analizzare, l’ordinamento tedesco si avvia a porre il tema dell’intelligenza artificiale al centro della propria attività di regolazione. Le indicazioni che si possono desumere dalla strategia federale ci permettono di tratteggiare una regolazione basata in prevalenza sul modello del­l’au­toregolazione regolata, anche se non mancano aperture rispetto a forme di re­golazione tradizionale. Ci si può attendere che il legislatore federale assumerà un ruolo significativo nei prossimi tempi in seguito alla conclusione del lavoro della commissione di inchiesta recentemente istituita, quantomeno nell’indirizzare l’ordinamento tedesco verso determinate scelte regolative. In questa prospettiva è da ritenere che le proposte emerse nel dibattito dottrinale possano assumere un rilievo vieppiù significativo rispetto alle varie possibilità di regolazione. L’individuazione di una soluzione omogenea in ordine ai quesiti inerenti all’an e al quomodo della regolazione si rivela inevitabilmente semplicistica se coincide con l’individuazione di opzioni regolative a carattere univoco. Le difficoltà rispetto all’individuazione di un quadro regolativo unitario e completo, così come l’aspirazione ad una regolazione unicamente sul piano transnazionale [76] possono condurre al rischio che i bisogni regolativi vengano colmati da una regolazione di soft law o da principi a carattere etico dal carattere vago. In questa prospettiva si intuisce come la regolazione dell’intelligenza artificiale – che pure abbisogna di un apporto significativo da parte dei destinatari della medesima, ossia di coloro che programmano e pongono in circolazione gli algoritmi – richiede il riconoscimento di un ruolo centrale al regolatore pubblico. Benché anche in tale prospettiva non vengano meno rischi significativi rispetto al corretto esercizio della [continua ..]


NOTE
Fascicolo 1 - 2020