Nel testo elaborato lo scorso 16 febbraio, il Parlamento Europeo ha definito una serie di raccomandazioni “concernenti norme di diritto civile sulla robotica”. Si tratta, in pratica, di indicazioni che, pur non avendo nessun valore giuridico, dovranno servire come base legislativa al Parlamento Europeo. Al di là di alcun articoli fantasiosi, pubblicati sui mass media, l’ambito su cui si concentra l’attenzione è quello dei “robot intelligenti” che, per essere tali devono avere le seguenti caratteristiche:
– | ottenimento di autonomia grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l’analisi di tali dati; | |
– | autoapprendimento dall’esperienza e attraverso l’interazione (criterio facoltativo); | |
– | almeno un supporto fisico minore; | |
– | adattamento del proprio comportamento e delle proprie azioni all’ambiente; | |
– | assenza di vita in termini biologici; |
In questo ambito viene suggerito di introdurre “un sistema globale dell’Unione per la registrazione dei robot avanzati nel mercato interno dell’Unione”. Da qui la necessità del “riconoscimento reciproco nell’utilizzo transfrontaliero dei robot e dei sistemi robotici”. “Il collaudo, la certificazione e l’autorizzazione all’immissione nel mercato dovrebbero essere richiesti soltanto in uno Stato membro. Tale approccio dovrebbe essere accompagnato da un’efficace vigilanza del mercato”.
L’Europa deve finanziare i robot
Nel paragrafo dedicato alla ricerca e all’innovazione viene ribadito che “molte applicazioni robotiche sono ancora in fase sperimentale” ed è importante che “che l’Unione e gli Stati membri, per mezzo dei finanziamenti pubblici, restino leader nella ricerca in ambito della robotica e dell’intelligenza artificiale”, arrivando a “rafforzare gli strumenti finanziari per i progetti di ricerca nella robotica e nelle TIC, compresi i partenariati pubblico-privati, e ad attuare nelle rispettive politiche di ricerca i principi della scienza aperta e dell’innovazione etica responsabile”.
Da qui l’invito esplicito alla “Commissione e gli Stati membri a promuovere i programmi di ricerca, a incentivare la ricerca sui possibili rischi e sulle possibili opportunità a lungo termine dell’intelligenza artificiale e delle tecnologie robotiche e a promuovere quanto prima l’avvio di un dialogo pubblico strutturato sulle conseguenze dello sviluppo di tali tecnologie”.
Dalla tecnologia all’etica
Un’attenzione particolare viene ovviamente riservata agli aspetti etici, soprattutto in relazione alla “sicurezza delle persone e della loro salute, della libertà, la vita privata, l’integrità, la dignità, dell’autodeterminazione e la non discriminazione nonché della protezione dei dati personali”. Esigenze che inducono a ritenere necessario un adeguamento dell’attuale quadro giuridico dell’Unione anche inserendo “principi etici di orientamento che riflettano la complessità della robotica e delle sue numerose implicazioni sociali, mediche, bioetiche”.
In particolare viene posto l’accento sul “principio della trasparenza, nello specifico sul fatto che dovrebbe sempre essere possibile indicare la logica alla base di ogni decisione presa con l’ausilio dell’intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone; ritiene che debba sempre essere possibile ricondurre i calcoli di un sistema di intelligenza artificiale a una forma comprensibile per l’uomo; ritiene che i robot avanzati dovrebbero essere dotati di una “scatola nera” che registri i dati su ogni operazione effettuata dalla macchina, compresi i passaggi logici che hanno contribuito alle sue decisioni”;
Diritti di proprietà intellettuale e flusso di dati
Accanto agli indirizzi generali, il documento pone l’accento sul fatto che “non esistono disposizioni giuridiche che si applichino specificamente alla robotica, ma che ad essa possono essere facilmente applicati i regimi e le dottrine giuridici esistenti, sebbene alcuni aspetti richiedano una considerazione specifica”.
Allo stesso tempo occorre prestare attenzione ai principi di privacy e riservatezza. Viene infatti ribadito che “la libera circolazione dei dati è indispensabile per l’economia digitale e lo sviluppo nel settore della robotica e dell’intelligenza artificiale”. Inoltre “un elevato livello di sicurezza dei sistemi della robotica, compresi i loro sistemi di dati interni e i flussi di dati, è fondamentale per un utilizzo adeguato dei robot e dell’intelligenza artificiale”. Devono però essere “garantita la protezione delle reti di robot e intelligenza artificiale interconnessi onde prevenire eventuali violazioni della sicurezza”. Da qui anche la “responsabilità dei progettisti di robot e di intelligenza artificiale di sviluppare prodotti sicuri e adatti agli scopi previsti”.
Posti persi o creati?
Un passaggio del documento richiama l’attenzione sulla previsione della Commissione secondo cui “entro il 2020 l’Europa potrebbe trovarsi ad affrontare una carenza di professionisti delle TIC fino a 825.000 persone e il 90 % dei posti di lavoro richiederà per lo meno competenze digitali di base”. Da qui la necessità di adeguati investimenti formativi “in modo da garantire la corrispondenza tra le strategie delle conoscenze e le esigenze dell’economia della robotica”. In particolare viene sollecitata la necessità di “avviare un numero maggiore di giovani donne a una carriera nel digitale e inserire un maggior numero di donne nel mercato del lavoro digitale”
Il documento, seppur presentato come un atto d’accusa nei confronti dei robot, in realtà sottolinea “le grandi potenzialità offerte dalla robotica per migliorare la sicurezza sul posto di lavoro mediante il trasferimento di alcuni compiti pericolosi e dannosi dagli esseri umani ai robot, ma rileva nel contempo che può creare anche una serie di nuovi rischi, dovuti al numero crescente di interazioni fra esseri umani e robot sul luogo di lavoro; sottolinea, al riguardo, l’importanza di applicare norme rigorose e lungimiranti alle interazioni fra esseri umani e robot al fine di garantire la salute, la sicurezza e il rispetto dei diritti fondamentali sul luogo di lavoro”;
Chi è responsabile?
Oltre ai principi etici, i robot sono comunque delle macchine che, nel corso della propria attività, possono causare incidenti. Per questo viene ribadito come “la responsabilità civile per i danni causati dai robot sia una questione fondamentale”. Senza trascurare il fatto che “lo sviluppo della tecnologia robotica richiederà una maggiore comprensione per trovare il terreno comune necessario ai fini dell’attività congiunta umano-robotica, che dovrebbe basarsi su due relazioni interdipendenti essenziali, quali la prevedibilità e la direzionalità”. Da qui la richiesta esplicita alla “Commissione di presentare, sulla base dell’articolo 114 TFUE, una proposta di atto legislativo sulle questioni giuridiche relative allo sviluppo e all’utilizzo della robotica e dell’intelligenza artificiale prevedibili nei prossimi 10-15 anni”. In questo ambito, si legge nel documento, “il futuro strumento legislativo, a prescindere dalla soluzione giuridica che applicherà alla responsabilità civile per i danni causati dai robot in casi diversi da quelli di danni alle cose, non dovrebbe in alcun modo limitare il tipo o l’entità dei danni che possono essere risarciti, né dovrebbe limitare le forme di risarcimento che possono essere offerte alla parte lesa per il semplice fatto che il danno è provocato da un soggetto non umano”;
Da qui il fatto che “in linea di principio, una volta individuati i soggetti responsabili in ultima istanza, la loro responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore. Nella determinazione della responsabilità reale per il danno causato, le competenze derivanti dalla “formazione” di un robot non dovrebbero essere confuse con le competenze che dipendono strettamente dalle sue abilità di autoapprendimento; osserva che, almeno nella fase attuale, la responsabilità deve essere imputata a un essere umano e non a un robot”.
In arrivo l’assicurazione obbligatoria
Anche per questa ragione viene suggerito “un regime di assicurazione obbligatorio, come già avviene, per esempio, con le automobili”. Anche se “a differenza del regime assicurativo per i veicoli a motore, che copre azioni o errori umani, l’assicurazione dei robot dovrebbe tenere conto di tutte le potenziali responsabilità lungo la catena. Tale regime assicurativo potrebbe essere integrato da un fondo per garantire la possibilità di risarcire i danni in caso di assenza di copertura assicurativa; invita il settore assicurativo a elaborare nuovi prodotti e tipologie di offerte in linea con i progressi della robotica”.