Di Michele Gorga, avvocato e componente osservatorio per il coordinamento dei DPO di AIDR
Valutando il percorso dell’umanità dall’origine sino ai giorni nostri possiamo giungere ad una certezza ossia che la nostra realtà di sviluppo tecnologico non è lineare, ma esponenziale[1] e ciò in forza della legge fondamentale che va sotto il nome di legge dell’accelerazione dei ritorni. Una legge, quest’ultima, che può essere compresa solo se uniamo dei punti su un piano cartesiano: sull’asse delle ascisse la x (orizzontale) poniamo il tempo, sull’asse delle ordinate (verticale) la y il livello del progresso tecnologico raggiunto a una certa data. La risultanza non è però una linea retta più o meno inclinata ma una curva esponenziale e in base alla tendenza che ne possiamo ricavare, possiamo ritenere che in pochi anni la stessa diventerà una retta parallela all’ordinata. Quindi non vi sarà più alcun punto di contatto con l’ordinata e la conseguenza sarà che non sapremo più rispetto l’ascissa dove in ogni singolo momento ci troviamo e, quindi, balzeremo nella condizione che la fisica quantistica chiama singolarità[2].
Per “singolarità” intendiamo quella condizione nella quale operano le quattro forze fondamentali della natura ossia: la gravità; l’elettromagnetismo; la forza forte quella che unisce i protoni nel nucleo nell’atomo; la forza debole che governa il principio del decadimento radioattivo. Queste forze le possiamo identificarle con le quattro lettere corrispondenti ossia la G di genetica[3]; la R di robotica[4]; la N[5] di nano tecnologia; la I di intelligenza artificiale[6].
Procedendo con ordine, la G di “genetica” ci consente di identificare, di tutti gli esseri viventi, il codice genetico ci consentirà di migliorare la razza secondo il normotipo che in un dato momento storico la morale e l’ideologia vigente ne consentirà l’approdo e il poter essere, per l’uomo, quello che desidera essere, a prescindere di quello che si è, e quindi, organismi geneticamente modificati sulla base di ciò che la morale e la politica consentirà nel periodo storico relativo. Passando alla R di “Robotica” per essa dobbiamo intendere, non ciò che oggi è la robotica, ma macchine evolute che avranno sia le cognizioni di spazio che del tempo e in grado di assumere aspetti umani, Androidi, capaci di avere coscienza emotiva[7]. Quindi robotica non solo come macchine a guida intelligenza o assistenti di lavoro, ma entità capaci di relazionarsi in attività professionali con l’Uomo. La conseguenza che la robotica avrà sulla società e sulla politica saranno movimenti sociali volti a far riconoscere diritti civili agli Androidi e in generale a tutto il creato al mondo animale e vegetale all’ambiente ecc., anche in questo caso la morale e la politica sarà costretta a prendere posizione.
Passando alla N per “nano tecnologia” per essa dobbiamo intendere la tecnologia infinitamente micro, elementi liquidi che istantaneamente sono in grado di cambiare l’esterno e l’interno della realtà sostituendo e modificando lo stesso spazio dell’esistenza dell’uomo. Infine per I di “intelligenza artificiale” intendiamo ciò che storicamente può essere paragonato al Santo Graal, – nel senso di IA come algoritmo di vita e conoscenza eterna – o Deus ex-machina[8], la tecnologia più pericolosa e, per gli scenari futuri, una tecnologia così invasiva da minare il sistema dei valori e le fondamenta della civiltà umana e dell’uomo come storicamente è venuta nel tempo a determinarsi.
L’Intelligenza Artificiale si basa, infatti, su algoritmi i quali possono essere di dominio, di controllo, di arrivismo, di consumismo, di competizione, tutte tecnologie fulminanti per la senescenza umana e che potrebbero minare la stessa esistenza dell’umanità. Ed è proprio l’intelligenza artificiale che, più di ogni altra tecnologia, si sta sviluppando rapidamente nella nostra società e di conseguenza sta cambiando la nostra vita migliorando i servizi dell’assistenza sanitaria, aumentando l’efficienza dell’agricoltura, contribuendo a mitigare i cambiamenti climatici e a migliorare l’efficienza dei sistemi di produzione mediante l’analisi predittiva[9] con aumento degli aspetti legati alla sicurezza. Al tempo stesso l’intelligenza artificiale, però, porta con sé nuovi rischi che sono connessi a meccanismi decisionali opachi[10], alle possibili discriminazioni basate sul genere, intrusioni nelle vite private o l’utilizzo di dispositivi in uso per scopi criminali. La tecnologia della IE è potente perché è diventata trasparente, e tutti ci affidiamo ai dispositivi che possiamo definire oramai come nostre protesi tecnologiche e cognitive[11]. Per questo motivo siamo diventati più vulnerabili, da chi usa la tecnologia per scopi non etici o per scopi criminali.
Sono questi i motivi che hanno spinto verso la necessità di un coordinamento europeo per la disciplina della IE e ciò sia in ragione delle implicazioni umane ed etiche, insite nell’intelligenza artificiale, con la necessità di una profonda riflessione per migliorare l’uso dei big data per l’innovazione, che per la necessità di una disciplina normativa cogente e investimenti volti a realizzare un duplice obiettivo ossia quello di promuovere, da un lato, l’utilizzo capillare dell’IA e, dall’altro, di mitigare tutti i possibili rischi associati alla nuova tecnologia digitale.
Queste le ragioni profonde che sono alla base delle comunicazioni del 25 aprile 2018 e del 7 dicembre 2018, con le quali la Commissione europea ha esposto la propria visione sull’ intelligenza artificiale (IA), battezzata come “IA ‘made in Europe’ etica, sicura e all’avanguardia”[12]. La visione della Commissione si fonda su tre pilastri: 1) aumentare gli investimenti pubblici e privati nell’IA per promuoverne l’adozione, 2) prepararsi ai cambiamenti socioeconomici e 3) garantire un quadro etico e giuridico adeguato a rafforzare i valori europei. Per sostenere l’attuazione di tale visione, la Commissione ha istituito il gruppo[13] di esperti ad alto livello sull’intelligenza artificiale, un gruppo indipendente incaricato di elaborare due documenti: 1) gli orientamenti etici per l’IA e 2) le raccomandazioni sugli investimenti e la politica.
Per il gruppo, per quanto riguarda il documento sugli orientamenti etici per l’IA, occorre tenere presente che i sistemi di IA, pur offrendo vantaggi concreti agli individui e alla società, comportano comunque anche dei rischi e avere effetti negativi, anche difficili da prevedere, ad esempio sulla democrazia, sullo Stato di diritto, sulla giustizia distributiva o sulla stessa mente umana. Ecco perché è necessario, per secondo il gruppo di esperti, adottare provvedimenti adeguati volti ad attenuare i rischi, in modo proporzionato alla loro portata e prendere in considerazione metodi volti a garantirne l’attuazione. In primis per gli esperti occorre favorire la ricerca e l’innovazione a sostegno della valutazione dei sistemi di IA e del raggiungimento del rispetto dei requisiti, diffonderne i risultati, per formare una nuova generazione di esperti in etica dell’IA. Di conseguenza informare in modo chiaro i portatori di interessi in merito a quelle che sono le capacità e i limiti del sistema. Essere trasparenti, agevolare la tracciabilità e la verificabilità dei sistemi di IA, in particolare in contesti o situazioni critiche, diventa essenziale così come coinvolgere i portatori di interessi durante l’intero ciclo di vita del sistema di AI e promuovere la formazione e l’istruzione affinché tutti i portatori di interessi siano formati e informati in merito all’IA affidabile. Proprio muovendo da quest’ultima, ossia l’esigenza di avere una AI affidabile, occorre sottolineare che per le persone e le società l’affidabilità rappresenta un prerequisito per lo sviluppo, la distribuzione e l’utilizzo di sistemi stessi. Diversamente l’utilizzo delle relative tecnologie ne potrebbe risultare ostacolata e così verrebbero rallentati i possibili benefici sociali ed economici. La fiducia, quindi, nello sviluppo, nella distribuzione e nell’utilizzo dei sistemi di
IA non riguarda solo le proprietà intrinseche della tecnologia, ma anche le qualità dei sistemi tecnici e sociali. Il gruppo di lavoro ha così fissato, nel relativo primo documento gli orientamenti per una intelligenza artificiale, affidabile prevedendo che la stessa dovrebbe basarsi su tre componenti. Queste sono state individuate: a) nella legalità, l’IA ossia una Intelligenza Artificiale sottomessa a tutte le leggi e ai regolamenti applicabili nella specifica materia; b) eticità, l’IA da intendere come l’insieme delle norme del codice etico e dei relativi principi e valori etici da tenere sempre presente; c) robustezza, dal punto di vista tecnico e sociale poiché anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali. Ora ciascuna delle predette componenti per sé è necessaria ma tuttavia non sufficiente per una Intelligenza Artificiale affidabile. Queste tre componenti sono innanzitutto rivolta ai portatori di interessi e sono indicazioni cogenti su come i predetti principi etici possano essere resi operativi in sistemi sociali e tecnici.
Muovendo dall’approccio basato sui diritti fondamentali vengono individuati, anzitutto, i principi etici e i valori correlati che devono essere rispettati nello sviluppo e nella distribuzione e nell’utilizzo dei sistemi di IA per passare, poi, alle indicazioni su come realizzare un’IA affidabile mediante la declinazione dei sette requisiti che i sistemi di IA dovrebbero soddisfare e per la cui attuazione possono essere utilizzati metodi tecnici e non tecnici e che vengono individuati: 1)- nello intervento e sorveglianza umani; 2)- nella robustezza tecnica e di sicurezza, 3)- nella riservatezza e governance dei dati, 4)-nella trasparenza, 5)-nella diversità, non discriminazione ed equità, 6)-nel benessere sociale e ambientale e 7)-nell’accountability. Infine il gruppo degli esperti[14] ha proposto una lista di controllo per la valutazione dell’affidabilità dell’IA[15] che può aiutare a rendere operativi i sette requisiti appena elencati. Nella sezione finale del documento, infine, sono stati illustrati esempi di opportunità vantaggiose e di serie preoccupazioni che i sistemi di IA[16] suscitano pur nella consapevolezza che l’Europa gode di un vantaggio esclusivo, che deriva dal suo impegno a porre il cittadino al centro delle proprie attività.
NOTE
[1] Tra i primi a notare la velocità esponenziale con la quale avanza il processo tecnologico, vi è l’informatico statunitense Gordon Moore che già nel 1965 elaborò un’interessante teoria con la quale sosteneva che, con riferimento ai microcircuiti, i transistor stampabili su un circuito integrato raddoppiano ogni 18 mesi, raddoppiandone altresì la performance. Tale teoria, poi, nonostante non si riferisca espressamente al processo tecnologico, ha importanti implicazioni.
[2] Convegno Camera dei deputati: Relazione Marco Antonio Attisani – Roma 2020.
[3] Peter D. Snustad, Michael J. Simmons Principi di genetica – Edises; G. Binelli e D. Ghisotti Genetica 20 set. 2017.
[4] Calzolaio Ermanno La decisione nel prisma dell’intelligenza artificiale – Editore CEDAM 2020.
[5]Gianni Manzone Morale artificiale. Nanotecnologie, intelligenza artificiale, robot. Sfide e promesse – Editore EDB 2020.
[6]Ugo Ruffolo Intelligenza artificiale. Il diritto, i diritti, l’etica – Editore Giuffrè 2020.
[7] C. Trevisi, La regolamentazione in materia di Intelligenza artificiale, robot, automazione a che punto siamo, in www.medialaws.eu, 2, 2018.
[8] Marcus Du Sautoy (Tradotto da Daniele Didero) Il codice della creatività. Il mistero del pensiero umano al tempo dell’intelligenza artificiale – Editore Rizzoli 2019 –
[9] Roberto Marmo Algoritmi per l’intelligenza artificiale. Progettazione dell’algoritmo, dati e machine learning, neural network, deep learning – Editore HOEPLI 2020 – “L’algoritmo predittivo utilizza dati storici per prevedere i trend futuri. In un’epoca di social media e di economia digitale, le informazioni possono viaggiare in tutto il mondo in pochi secondi e i desideri delle persone possono cambiare molto velocemente. In un contesto così complesso, cercare di capire le esigenze di potenziali clienti risulta indispensabile per le aziende al fine di anticipare i loro bisogni e superare la concorrenza. L’analisi predittiva avviene attraverso algoritmi di machine learning, elaborati da una A.I. (Artificial Intelligence) che apprende dai dati che acquisisce.”
[10] Artificial Intelligence and life in 2030, One hundred year study on Artificial Intelligence”, Stanford University, 2016.
[11] Anna Gina Perri – Dispositivi Elettronici Avanzati – Edizioni Progedit – Bari, 2011.
[12] COM(2018) 237 finale COM(2018) 795 final. Il termine “made in Europe” è utilizzato in tutta la comunicazione della Commissione.
[13] Ben 52 sono stati i membri del gruppo di esperti che si sono riuniti e che hanno discusso e dialogato, nel rispetto di “uniti nella diversità”. Per il gruppo l’IA può trasformare la società. L’IA non rappresenta un fine in sé, ma piuttosto un mezzo promettente per aumentare la prosperità umana, migliorando così il benessere individuale e sociale che il bene comune nonché favorire il progresso e l’innovazione. I sistemi di IA possono in particolare contribuire a facilitare il conseguimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite, come la promozione dell’equilibrio di genere e la lotta ai cambiamenti climatici, la razionalizzazione dell’uso delle risorse naturali, il miglioramento della salute, della mobilità e dei processi produttivi e il sostegno al monitoraggio dei progressi compiuti rispetto agli indicatori di sostenibilità e coesione sociale.
[14] Ulteriori informazioni sul gruppo di esperti ad alto livello sull’intelligenza artificiale sono disponibili online (https://ec.europa.eu/digital-single-maret/en/high-level-expert-group-artificial-intelligence).La politica relativa al riutilizzo dei documenti della Commissione europea è disciplinata dalla decisione 2011/833/UE (GU L 330 del 14.12.2011, pag. 39). Per utilizzare o riprodurre foto o altro materiale libero da copyright dell’UE, occorre l’autorizzazione diretta del titolare del copyright.
[15] Russell, S., e Norvig, P., “Artificial Intelligence: A Modern Approach”, Prentice Hall, 3ª edizione, 2009.
[16] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni – L’intelligenza artificiale per l’Europa, Bruxelles, 25.4.2018, [COM (2018) 237 final].