Seleziona una pagina

Le nuove frontiere verso le quali la scienza si spinge pongono interrogativi di natura etica. Molti, la Chiesa in primo luogo, mettono le mani avanti, cercando di mantenere bilanciato, o sbilanciato a seconda dei punti di vista, il rapporto uomo-scienza, a favore dell’uomo.

L’intelligenza artificiale è un tema su cui scienziati, sociologi, politici e religiosi si interrogano. Fino a che punto è lecito spingersi senza che una macchina evoluta e intelligente “sorpassi” l’uomo? Come può una macchina essere intelligente? Può esserlo? Difficile rispondere. Come già è stato detto in questa sede, i giuristi stanno studiando la materia e le sue complessità.

Lo scorso anno la Commissione Europea ha elaborato una bozza di codice etico sull’uso dell’intelligenza artificiale. Si tratta di una serie di linee guida per la progettazione di sistemi di intelligenza artificiale affidabili, nel rispetto della centralità dell’essere umano. Bruxelles ha chiamato 52 esperti internazionali provenienti dal mondo dell’industria, dall’accademia e dalle istituzioni per redigere un testo pubblicato nel dicembre 2018. Diversamente dai codici densi di principi generali sul tema, questo scende più nel dettaglio, con indicazioni utili all’applicazione pratica dei principi fondamentali del diritto europeo nello sviluppo dei sistemi intelligenti. Il documento raccomanda da una parte “robustezza e sicurezza dei sistemi”, ma dall’altra punta alla centralità dell’essere umano nel rapporto con l’AI. Priorità, dunque, alla dignità e alla libertà dell’uomo, la cui autonomia deve sempre prevalere su quella artificiale. A questo scopo deve essere sempre garantito il potere di supervisione da parte dell’uomo sulla macchina, così da poterne limitare le decisioni.

Le nuove frontiere del diritto? Far conciliare robot, AI e diritti fondamentali

Questa bozza di documento suscita molti dubbi. Pur essendo le linee guida elencate positive, per molti analisti il limite resta nel fatto che si tratta di una serie di regole aperte a cui si può aderire volontariamente. Governi, ricercatori o aziende possono attenersi a queste norme, ma non sono vincolati a farlo. «Non è un difetto, è una dichiarazione d’intenti da parte dell’Unione europea per sviluppare un piano coordinato sullo sviluppo dell’AI. Sarebbe piuttosto un po’ prematuro avere qualcosa di vincolante», spiega Marta Fasan, dottoranda presso l’Università di Trento, studiosa della regolamentazione della robotica e dell’AI e delle relative implicazioni etiche e giuridiche. «C’è ancora incertezza sulle potenzialità di queste nuove tecnologie e su come fonderle all’interno della società. Bisogna capire come utilizzarle e, di conseguenza, capire anche come l’Ue può intervenire secondo le sue competenze al fine di regolare questa materia in Europa, ma la volontà degli Stati membri a livello nazionale dev’essere sempre rispettata. Il passaggio di un documento non vincolante è necessario. Non sono contraria all’adozione di un atto unico vincolante, ma bisogna capire che tipo di atto l’Ue intende adottare in virtù delle competenze che i trattati attribuiscono alle istituzioni europee. Al momento però è giusto che si passi attraverso una semplice dichiarazione d’intenti. Sarebbe complesso intervenire e regolare di punto in bianco l’uso di queste tecnologie, ma proprio perché non si tratta di uso così diffuso».

Nel documento viene affrontato il tema della privacy, molto caro all’Ue. Il timore è infatti il rischio che la tecnologia venga usata per attuare sistemi di sorveglianza di massa. Per l’Ue, la differenza tra quest’ultima e l’identificazione di un individuo, è «cruciale per il raggiungimento di un’AI degna di fiducia». Per questo, secondo il GDPR (Regolamento generale per la protezione dei dati), l’elaborazione dei dati è lecita solo se ci sono validi requisiti legali. «Già oggi rinunciamo alla nostra privacy nel momento in cui diamo il consenso all’uso dei cookies, mentre navighiamo in rete, ad esempio. Non è mai veramente un consenso informato, raramente si leggono tutte le disposizioni sull’utilizzo dei dati. Quindi già noi ci autotuteliamo poco. Ma l’aspetto della privacy sarà sempre tenuto in considerazione: l’approccio europeo, a differenze di quello americano ad esempio, è molto attento ai diritti fondamentali. Nel documento si ribadisce la necessità di investire sullo sviluppo dell’AI, soprattutto per fini produttivi, ma a patto che si tengano presente i principi etici e giuridici che stanno alla base del sistema europeo». L’uomo resta al centro; robotica e AI sono concepiti in funzione collaborativa. «C’è ancora un grande divario tra l’AI e l’intelligenza umana. Robot con AI applicata, seppur avanzati, non riescono a svolgere certe attività, al contrario dell’uomo. Un gap che non è ancora stato colmato. Ecco perché al momento è difficile attribuire la responsabilità alle macchine».

Una materia, quella delle norme che regolano l’uso di nuove tecnologie, in continua evoluzione e aggiornamento. «Questo è il problema tra diritto e sviluppo scientifico. Il diritto ha il dovere di garantire un livello minimo di certezza, ma la scienza va molto più veloce, soprattutto negli ultimi anni. Non bisogna arrivare a una legislazione troppo restrittiva che disincentiverebbe la ricerca scientifica». Si corre il rischio di avere leggi retroattive, contravvenendo un caposaldo del diritto? «Non è semplice, ma la cooperazione tra giuristi e studiosi di AI e anche della società per capirne le paure, può essere la soluzione vincente. La comunità giuridica ha colto la sfida e affronta il tema, cercando di aggiornarsi».