Rivista della Regolazione dei MercatiE-ISSN 2284-2934
G. Giappichelli Editore

Algoritmi e regolazione. Circa i limiti del principio di neutralità tecnologica (di Francesca Mattassoglio)


Recent years have seen a flurry of algorithms employed by financial market.

This situation is caused by financial technology innovation (FinTech), which is defined as «technology enabled innovation in financial services that could result in new business models, applications, processes or products with associated material effects on the provision of financial services».

Moreover, as some scholars have already underlined, algorithms perform a key function for FinTech: in other words, they characterize FinTech areas (payment system, robo-advisor, crypto-currencies, and so on).

Such kind of algorithms and analysis’ models could not only improve the system efficiency but they could also involve unpredictable risks and hazards for financial market stability, for investment and for investors/savers. In particular, according to some scholars, from the perspective of an individual, automated decision-making and profiling could place new opportunities for discriminatory, biased or erroneous decisions.

In this context, the aim of this paper is to analyse the European financial legal framework, in order to verify its capability to tackle this issue.

   

SOMMARIO:

1. Delimitazione del tema di indagine - 2. Algoritmi, Big Data e machine learning: alcune indicazioni di ca­rattere generale - 2.1. Gli algoritmi profilanti - 3. Gli algoritmi e il mercato finanziario - 3.1. La negoziazione ad alta frequenza - 3.2. La consulenza finanziaria automatizzata - 3.3. La valutazione del merito creditizio - 4. Alcune considerazioni circa i limiti del principio di neutralità tecnologica - 5. Algo-governance e risk based regulation - 6. Algo-governance e controllo delle performance - 7. Algo-governance e product based regulation - 8. Alcune osservazioni necessariamente non conclusive - NOTE


1. Delimitazione del tema di indagine

Il variegato fenomeno della c.d. Finanza Tecnologica (Fintech [1]) può dirsi caratterizzato dall’impiego di algoritmi complessi [2], che si avvalgono di tecniche di machine learning e intelligenza artificiale [3], in sostituzione del giudizio umano [4]. Le ragioni di una simile evoluzione sono note. L’applicazione dell’innovazione tecnologica [5], nell’ambito dei mercati finanziari, consente di offrire nuove tipologie di servizi, prodotti, modelli di business (o di modificarne le modalità di offerta) grazie alla possibilità di effettuare milioni di operazioni al secondo [6], con una conseguente significativa riduzione dei costi, un aumento dei profitti e un’ottimizzazione dei prodotti, senza incorrere in errori o bias umano [7]. Tuttavia, il diffondersi di una simile “algocrazia” [8] alimenta, di pari passo, dubbi e diffidenze. Anche senza aderire a visioni particolarmente negative [9] nei loro confronti – in attesa di prove incontrovertibili di pericolosità [10] – è indubbio che gli algoritmi e il loro funzionamento sollevino molteplici interrogativi [11] e timori [12], date le dirompenti potenzialità. A questo riguardo, è necessario chiarire fin d’ora un profilo fondamentale. Già da anni la tecnologia e, più precisamente, gli algoritmi sono abitualmente impiegati dagli operatori finanziari per agevolare e supportare l’offerta di servizi (ad esempio, per le negoziazioni, la consulenza e la valutazione del rischio creditizio); ultimamente però la situazione è mutata. In primo luogo, i nuovi algoritmi presentano “potenzialità” di elaborazione inimmaginabili fino a poco tempo fa, grazie all’“innesto” con il fenomeno dei c.d. Big Data [13]. Inoltre, sempre più spesso, la componente algoritmica sta assumendo un ruolo predominante nell’ambito del processo decisionale, in cui non è più presente l’intermediazione di una persona fisica. In altre parole, l’elemento tecnologico si sta evolvendo da mero strumento ancillare a vero e proprio sostituto del giudizio umano. Di conseguenza, è naturale che le autorità europee [14] e internazionali [15] di settore guardino al fenomeno con [continua ..]


2. Algoritmi, Big Data e machine learning: alcune indicazioni di ca­rattere generale

Come si è anticipato, il fenomeno FinTech spesso si avvale di un’inno­va­zione tecnologica applicata all’elaborazione dei dati. Il perno su cui poggia detto sistema è l’algoritmo [24] che – sebbene in senso ampio possa essere definito come «qualunque schema o procedimento siste­matico di calcolo» [25] –, oggi, per lo più, identifica un software costituito, a sua volta, dai c.d. codici sorgenti o linguaggio sorgente, che rappresentano le istruzioni, fornite dagli operatori umani [26] per eseguire una certa funzione o risolvere un determinato problema [27]. Dette istruzioni possono essere assimilate a scatole (box) nelle quali vengono inseriti i dati necessari a ottenere i risultati voluti. Naturalmente, non esiste un solo tipo di procedimento di calcolo, ma infinite varianti che possono essere distinte a seconda della loro complessità. Impiegare modelli automatizzati, in altre parole, è un po’ come utilizzare una ricetta gastronomica [28]: non esiste un solo modo per cucinare un piatto, ma ingredienti e quantità possono variare a seconda del cuoco. In alcuni casi, ad esempio, l’algoritmo può essere di tipo semplice, ossia il suo modello operativo è completamente o parzialmente determinato dello stesso operatore nel momento della sua creazione, per impiegare un numero limitato di dati, secondo il modello della c.d. scatola bianca [29]. Nel caso della c.d. scatola grigia, invece, il risultato, pur non essendo completamente predeterminato, può essere facilmente predetto e compreso al termine del processo. Per la c.d. scatola nera [30], al contrario, i risultati sono molto difficili o addirittura impossibili da comprendere per qualsiasi persona fisica coinvolta nella sua azione. Secondo questa classificazione, inoltre, sarebbe altresì possibile individuare due ulteriori tipologie di algoritmo ancora più evoluto e complesso: un c.d. senziente, ossia in grado di superare il c.d. Test di Turing [31] e quindi “equi­parabile” al funzionamento dell’intelligenza umana; e uno dotato di “singolarità”, capace cioè di apprendere e migliorarsi, senza alcun intervento esterno (in altre parole una sorta di super-intelligenza [32]). I procedimenti di calcolo – che sempre [continua ..]


2.1. Gli algoritmi profilanti

Le potenzialità delle nuove tipologie di algoritmi diventano particolarmente evidenti nel momento in cui vengono impiegati per monitorare i comportamenti degli individui, al fine di consentire una maggior segmentazione granulare della clientela sulla base [59] dei loro comportamenti e gusti [60]. Detta distinzione, infatti, ormai costituisce un elemento fondamentale in tutti i mercati e soprattutto in quello finanziario ove le caratteristiche del cliente/in­vestitore sono un requisito imprescindibile per l’offerta di prodotti e servizi [61]. Di conseguenza, è evidente che l’utilizzo di algoritmi profilanti, sempre più performativi, possa apportare grandi benefici alle strategie di business delle imprese di settore [62]. Tra i vantaggi devono senz’altro richiamarsi gli effetti legati alla capacità di meglio adeguare la qualità di prodotti e servizi alle esigenze dei clienti [63], oltre all’impatto sull’attività di marketing e di fidelizzazione della clientela. Le più ampie informazioni sul cliente, inoltre, possono consentire alle imprese di definire con maggior precisione il giusto prezzo dei prodotti finanziari, per evitare pericolosi fenomeni di adverse selection e free riding [64]. Nell’ambito della valutazione del rischio di credito, ad esempio, recenti studi hanno messo in luce come il ricorso a tecniche di BDA possa migliorare l’accuratezza dei giudizi, utilizzando nuovi modelli di reti connesse (correlation network) [65] che si riferiscono al soggetto richiedente aumentando le informazioni a disposizione del finanziatore. Dalla specifica prospettiva dei consumatori, poi, un’informazione più granulare può consentire di individuare un maggior numero di prodotti e servizi adatta al proprio profilo [66], oltre che garantire un’eventuale riduzione dei costi [67]. Nello stesso tempo, però, simili pratiche presentano notevoli profili problematici, primo fra tutti l’impatto sulla tutela della privacy dei singoli assoggettati al procedimento di profilazione [68]. Come è già stato più volte sottolineato, infatti, l’attuale GDPR non sembra in grado di tutelare effettivamente i dati dei singoli [69]. Inoltre, come ha messo in luce lo stesso Financial Stability Board, le modalità [continua ..]


3. Gli algoritmi e il mercato finanziario

Già da queste brevi osservazioni emerge come gli algoritmi in generale, e quelli profilanti ancor più, sembrerebbero richiedere attenzioni particolari per la gestione delle caratteristiche e dei rischi loro propri. Una posizione che sembra cominciare a essere condivisa anche dalle autorità preposte alla regolazione e alla vigilanza del mercato finanziario al di là del più volte richiamato principio di neutralità tecnologica.


3.1. La negoziazione ad alta frequenza

Un primo settore, ove si può cogliere la tendenza alla regolazione e al controllo del procedimento algoritmico, è senz’altro la negoziazione algoritmica ad alta frequenza (High Frequency Trading o HFT) [79] – intesa come sottoinsieme della più ampia categoria di trading che poggia su ordini gestiti in modo automatico – in cui le sequenze sono elaborate ad altissima velocità (es. 7 mila operazioni in un istante) [80]. L’HFT è generalmente utilizzato per negoziazioni per conto proprio, basate su algoritmi, finalizzati a realizzare profitti tramite arbitraggi tra diversi mercati e con tempi di esecuzione infinitesimali, che sfruttano l’intervallo tra ordine ed esecuzione («latency») [81]. Gli algoritmi di gestione quantitativa sono programmati per svolgere una serie elevatissima di transazioni, secondo diverse strategie di investimento che poggiano sulla lettura di un’ampia mole di informazioni, per garantire la maggior profittabilità possibile. Come è noto, il fenomeno si è imposto all’attenzione dell’opinione pubblica a seguito del c.d. Flash Crash del 2010 [82], che portò a cancellare in pochi minuti oltre mille miliardi di dollari e costituisce, secondo opinione condivisa, l’u­nico caso di “errore algoritmico accertato”, risolto, peraltro, dall’algoritmo stesso che ha provveduto a bloccarsi grazie a un ordine di arresto previsto dagli stessi programmatori. L’attività di HFT costituisce un’evoluzione radicale del servizio di negoziazione per conto proprio che gli intermediari possono svolgere senza l’ausilio algoritmico. Al di là, infatti, della strategia attuata e della complessità dell’algoritmo impiegato per realizzarla, le operazioni comportano una velocità di esecuzione imparagonabile rispetto alle negoziazioni effettuate dalle persone fisiche e, proprio per questo, presentano una serie di peculiarità e di rischi che sono loro propri [83]. Una dimostrazione della correttezza di questo assunto è costituita dalle regole ad hoc, che sono oggi contenute nella direttiva 65/2014 c.d. MIFID 2 [84], così come recepite nelle norme di attuazione nazionale. In particolare, le banche e le Sim, che svolgono negoziazione algoritmica, nonché le sedi di [continua ..]


3.2. La consulenza finanziaria automatizzata

Un altro ambito Fintech, ove negli ultimi anni si è diffuso il ricorso ad algoritmi e dove si comincia a intravede la medesima tendenza alla loro regolazione e controllo, è costituito dalla c.d. consulenza finanziaria automatizzata (o robo-advice). Con questo termine si suole fare riferimento a quella multiforme categoria, a cui possono essere ricondotte diverse fattispecie, tutte caratterizzate dalla presenza di piattaforme on-line che creano, gestiscono, ribilanciano e controllano portafogli di investimento da consigliare agli investitori [86]. Il rapporto tra robot advisor e consulente, peraltro, può essere totalmente o parzialmente automatizzato (c.d. ibrido) a seconda della possibile interazione di una persona fisica. La componente algoritmica – in questo caso finalizzata alla profilazione – è stata finora considerata dalle autorità sia internazionali [87], sia europee [88] quale mera modalità alternativa di offerta del tradizionale servizio di consulenza, in apparente pieno ossequio del principio di neutralità tecnologica [89]. Ad essa, infatti, si ritiene debbano essere per lo più applicate le regole generali oggi contenute negli artt. 21 e 24-bis TUF, relative agli obblighi di informazione preventiva del cliente e di condotta in capo all’intermediario. Tuttavia, l’ESMA [90] non ignora i rischi legati all’automazione del servizio di consulenza e, più precisamente, paventa i pericoli connessi all’uso di algoritmi non solo per il difficile accesso alle informazioni e alla capacità di processarle da parte del consumatore, ma soprattutto per eventuali difetti nel funzionamento dell’algoritmo dovuti a errori, manipolazioni o hackeraggio. Senza dimenticare i problemi legati al difficile riparto di responsabilità. Questo atteggiamento ambivalente trova conferma nelle sue linee guida sull’adeguatezza nella prestazione dei servizi di consulenza in materia di investimenti e di gestione di portafoglio recentemente adottati [91]. L’autorità europea, infatti, sebbene non abbia introdotto uno specifico statuto dedicato ai c.d. robo-advice – come invece aveva proposto nel documento di consultazione – è comunque costretta a precisare che «L’applicazione di alcuni orientamenti è [continua ..]


3.3. La valutazione del merito creditizio

La tendenza alla regolazione della componente algoritmica trova conferma anche nel terzo settore oggetto della nostra indagine, ossia nella valutazione del merito creditizio, inteso come il vaglio, attraverso la raccolta di informazioni, dell’affidabilità e della probabilità di default di un determinato richiedente un prestito [100]. Anche in questo caso, infatti, è proprio il ricorso a tecniche sempre più complesse di analisi che pare aver indotto la Banca centrale europea a intervenire in un momento tradizionalmente lasciato alla discrezionalità dell’inter­mediario. Con le nuove linee guida della Banca Centrale Europea sulle autorizzazioni è stata introdotta una fase di valutazione addizionale relativa alla governance e alla struttura del processo decisionale creditizio [101], per le sole Fintech Banks, ossia per quegli istituti di credito caratterizzati da «technology-enabled innovation in financial services that could result in new business models, applications, processes or product with an associated material effect on the provision of finacial services» [102]. Una simile scelta è legata a timori per la stabilità finanziaria del singolo istituto di credito e del sistema finanziario nel suo complesso. In particolare, proprio con riferimento alla valutazione del merito creditizio, la decisione muove dalla consapevolezza che simili soggetti abbiano spesso un difficile accesso alle informazioni sui potenziali debitori e, per questo motivo, tendano a esternalizzare verso terzi il compito di svolgere detta valutazione, ovvero utilizzino “alternative sources of data” e “alternative credit-scoring methodologies”, pur in assenza al momento di dati certi circa la loro affidabilità. A fronte di simili rischi, la BCE ha deciso di adottare regole procedurali specifiche. In particolare, le Fintech Banks, che pur utilizzano metodi tradizionali di valutazione del merito, devono dimostrare di avere un efficace processo di approvazione dei prestiti, che consenta altresì l’eventuale correzione e aggiornamento dei dati anche in caso di rinegoziazione dei contratti. Nello specifico, il finanziatore deve rendere noti la tipologia dei dati utilizzati nel procedimento di valutazione (ivi inclusa la provenienza) nonché le modalità approntate per garantire la qualità di [continua ..]


4. Alcune considerazioni circa i limiti del principio di neutralità tecnologica

Alla luce delle osservazioni che precedono, appare evidente come in tutti e tre i settori, le autorità abbiano inserito specifiche regole circa il procedimento algoritmico, che devono essere seguite dall’intermediario che se ne avvale. Anzi, potremmo dire che l’algoritmo sembra divenire motivo di interventi ad hoc per disciplinare aspetti/fasi che in precedenza erano lasciati alla sostanziale discrezionalità dei singoli operatori. Naturalmente, i settori presentano un livello di maturazione molto diverso. Nell’HFT, infatti, sono già presenti regole di rango primario, mentre gli altri due ambiti sono ancora in una fase “embrionale” con norme di soft law, che già delineano però una linea di tendenza. L’utilizzo di algoritmi complessi nell’offerta di servizi finanziari sembra incidere in maniera rilevante sulle modalità con cui il servizio finanziario viene offerto, inverando una serie di nuovi rischi – connessi all’operatività altamente performativa dell’algoritmo, soprattutto quando connesso all’uso dei big data – che devono essere tenuti in considerazione da tutte le parti in causa. Un simile assunto comporta, pertanto e prima di tutto, di ammettere i limiti del principio di neutralità tecnologica con riferimento alla regolazione della componente algoritmica. Come del resto hanno già messo in luce alcune autorità di settore [107], sarebbe necessario adattare alla nuova tecnologia anche le regole tecniche di vigilanza. Sebbene, infatti, le imprese assumano un ruolo di primo piano nel­l’attività di monitoraggio e controllo sui loro processi, grazie all’introduzione di best practices, tuttavia, è indubbio che anche le autorità di vigilanza debbano implementare le loro capacità per verificare la tecnologia e i modelli di business da queste ultime impiegate. In particolare, è necessario che esse acquisiscano la capacità di vagliare sia il profilo relativo ai dati impiegati sia il risultato ottenuto, soprattutto nel caso di algoritmi profilanti che incidono in modo rilevante sulla situazione dei singoli. L’autorità francese, in particolare, suggerisce che il regolatore debba acquisire la capacità di “review alghoritms” «as part of the vetting process of authorization» [108]. In questa [continua ..]


5. Algo-governance e risk based regulation

Tuttavia, a ben guardare, anche riconoscere la necessità di peculiari forme di “controllo” e “regolazione” degli algoritmi, lascia irrisolta l’annosa questione relativa alle modalità con cui ottenere detto risultato [114]. La loro attitudine a imparare, infatti, li rende intrinsecamente diversi dai fenomeni finora considerati dal legislatore e richiede una seria riflessione circa le possibili soluzioni [115]. Non a caso, al momento, tutti e tre gli esempi più sopra richiamati adottano un approccio di risk based regulation [116], ossia non introducono regole specifiche (circa le modalità di funzionamento dell’algoritmo), ma lasciano alle autorità il compito di vigilare (ex ante oppure ex post) sui sistemi ideati direttamente e liberamente dagli operatori. In questi casi, «il regolatore … riveste … un ruolo di auditor, con responsabilità di monitoraggio e incentivazione dei sistemi di regolazione adottati dalle imprese e dagli organismi regolati» [117]. Il solo punto su cui, del resto, le opinioni [118] generalmente concordano riguarda la necessità di imporre, alle imprese che si avvalgono di siffatte procedure, una maggior accountability [119]. Con riferimento a questo profilo, diviene fondamentale individuare un punto di equilibrio tra le esigenze di riservatezza degli operatori e quelle di trasparenza [120]. Come però si è cercato di mettere in luce in questa sede, ciò è tutt’altro che semplice. È proprio il funzionamento dell’algoritmo che può opporsi ai tentativi di comprensione dell’autorità di vigilanza [121], anche se con livelli di difficoltà diversi a seconda che ci si riferisca ai dati utilizzati ovvero alla metodologia con cui sono elaborati. Imporre, infatti, alle imprese una maggior trasparenza circa la tipologia dei dati, utilizzati nell’ambito dei procedimenti algoritmici, non presenta profili di particolare criticità. Le stesse linee guida della BCE e dell’ESMA prevedono l’obbligo di rendere noti la tipologia di dati e le fonti di cui ci si avvale per procedere all’ana­li­si [122], consentendo così all’autorità di vigilanza e al privato di verificare su quali dati minimi sia avvenuta la valutazione. Nel caso [continua ..]


6. Algo-governance e controllo delle performance

Preso atto di queste difficoltà, un possibile controllo sui sistemi di elaborazione e sugli algoritmi in essi impiegati potrebbe essere al momento attuato, più efficacemente, attraverso una prima verifica dei dati utilizzati e, in seguito, del risultato prodotto. La questione relativa alla modalità di funzionamento della scatola nera dell’algoritmo [129] potrebbe, invece, essere tralasciata (evitando così di addentrarsi in questioni estremamente tecniche e che coinvolgono altresì problemi di tutela proprietaria). Seguendo questo approccio, le autorità di vigilanza potrebbero limitarsi a verificare se l’algoritmo risponde alle finalità che gli sono state assegnate, con un’alta capacità di previsione – ad esempio, individuazione del livello di creditworthiness del singolo consumatore o adeguatezza del portafoglio di investimento selezionato –, senza dar luogo a condotte lesive (ad esempio, realizzando un effetto discriminatorio o penalizzante per certe categorie di soggetti) [130]. Naturalmente, per effettuare questa stima, è necessario prima di tutto individuare la finalità che deve essere perseguita dall’algoritmo e, poi, monitorare costantemente la sua performance, tenendo una cronistoria dell’anda­mento, durante tutto il ciclo di attività seguendo le indicazioni che del resto sono già contenute nelle linee guida dell’ESMA. Qualora l’autorità, all’esito della verifica, riscontri errori nelle performance degli algoritmi, essa dovrebbe avere il potere di imporre la sospensione/revi­sione e l’eventuale correzione del suo funzionamento, anche attraverso l’intro­duzione di correttivi e filtri da applicare agli output. Questa soluzione è assimilabile all’ipotesi delle c.d. “Second Order Rules”, ossia filtri che possono essere inseriti dopo il processo di elaborazione dei dati dal programmatore per correggere eventuali malfunzionamenti (o meglio risultati che rischiano di produrre un bias per il singolo o violare una disposizione di legge) del processo di elaborazione dei dati [131]. Così facendo l’algoritmo non dovrebbe essere modificato, ma solo limitato [132]. Adottando questa modalità, sembra possibile vigilare sul funzionamento del sistema di elaborazione e intervenire, [continua ..]


7. Algo-governance e product based regulation

Qualora poi, nel prossimo futuro, il regolatore scelga di non limitarsi a un approccio risk based ma decida di passare a un modello product based, potrebbe prevedere una serie di standard e requisiti di qualità relativi ai dati utilizzati e agli algoritmi impiegati nel processo di analisi, finalizzati a renderlo più efficace, efficiente e trasparente. Per quanto riguarda i dati, ci si potrebbe, innanzitutto, interrogare sull’op­portunità o meno di limitare la tipologia di informazioni utilizzate soprattutto nell’ambito degli algoritmi profilanti. Ad esempio, potrebbe essere imposta la necessità di un collegamento tra la situazione economico-finanziaria del singolo e le informazioni utilizzate, oppure si potrebbe continuare a ritenere possibile anche l’utilizzo di dati di natura diversa (quali i negozi in cui si preferisce fare la spesa, le abitudini nel tempo libero, etc.) ovvero quelli di tipo social o inferiti cui già si è fatto cenno. È evidente che decidere di limitare il ricorso all’una piuttosto che all’altra categoria di informazioni può dipendere, in primo luogo, da una verifica circa l’efficacia e la predittività di ciascuna tipologia di dato ai fini del processo in cui viene inserito; oltre che da considerazioni di ordine più generale. Al di là della capacità predittiva, infatti, l’utilizzo di dati che appartengono alla sfera personale del singolo, come nel caso di dati relativi ad amicizie o della stessa reputazione social, implica anche e necessariamente un risvolto sul piano etico, circa il sistema di valutazione che si ritiene “accettabile”. Proprio con riferimento a questo profilo, una parte della dottrina americana ha, ad esempio, già proposto di vietare, per lo meno a fini di credit scoring, l’uso dei dati social anche in ragione dei loro potenziali effetti discriminatori [135]. Più precisamente, alcuni hanno proposto l’introduzione di un vero e proprio “right to be unnetworking”, ossia il diritto di essere disconnesso, salvo talune limitate eccezioni [136]. Così facendo, l’uso delle informazioni “social” diventerebbe una sorta di nuova categoria di dati sensibili, accomunabile, quanto a disciplina, a quella riservata dal diritto USA ai dati sanitari, che per espressa previsione [continua ..]


8. Alcune osservazioni necessariamente non conclusive

L’indagine ha cercato di mettere in luce la radicale rivoluzione che i nuovi algoritmi finanziari stanno apportando nell’ambito dei processi decisionali e i conseguenti limiti del principio di neutralità tecnologica. Nel prossimo futuro, le autorità di vigilanza e il regolatore dovranno attuare un profondo cambio di prospettiva per riuscire a rendere il sistema più trasparente e accountable. Detta tecnologia richiede, infatti, un ripensamento degli istituti tradizionali del diritto quali, in primis, le norme che si riferiscono alla vigilanza, alla responsabilità, al controllo sui processi, ai principi generali a tutela dei dati personali nonché alle regole finalizzate alla tutela della concorrenza, solo per citare alcuni dei profili di maggior rilievo. È assai probabile, infatti, che, nel prossimo futuro, le nuove metodologie si diffondano in modo capillare tra tutti gli operatori finanziari aprendo, indubbiamente, nuove prospettive e opportunità in questo settore, ma, nello stesso tempo, esponendo il sistema a nuovi rischi, derivanti da un processo decisionale algoritmico che potrebbe essere inferenziale oltre che inconoscibile. Proprio per questo motivo, si ritiene indispensabile che l’ordinamento si accosti criticamente al fenomeno, al fine di meglio comprenderlo per introdurre la disciplina più idonea per governarlo. Imperativo dovrà diventare, pertanto, in questo contesto, la ricerca di un equilibrio tra le diverse istanze. In particolare, una grande attenzione dovrà essere posta sia sulla tipologia di dati utilizzabili, sia sulla metodologia con cui processarli. In attesa che il regolatore e l’autorità di vigilanza riescano a trasformare questa tecnologia in un vantaggio per l’intero mercato finanziario (e non solo per pochi), l’unica protezione del singolo sembra, al momento, essere costituita dalla conoscenza circa la sua operatività. Una conoscenza che parte, prima di tutto, dalla consapevolezza che qualsiasi informazione prodotta e condivisa nel word wild web potrà essere in futuro utilizzata per alimentare sempre più nuovi e performanti algoritmi finanziari.


NOTE