Big Data
Blog_Ethics_Al

Ecco un quiz cinematografico rapido e abbastanza facile: in quale film un protagonista afferma:

"Gli scienziati erano così preoccupati di poterlo fare che non hanno pensato se lo dovevano fare."

Se serve un aiuto, era Jeff Goldblum, nei panni del Dottor Ian Malcom in Jurassic Park. 

Si tratta di una questione filosofica ben presentata che, come gli animali robotizzati protagonisti del film, ha acquisito alcuni aspetti dominanti con l'arrivo dell'intelligenza artificiale (IA). Parliamo infatti di una tecnologia che ha un vero e proprio impatto culturale, sociale ed economico.

È in corso un ampio dibattito sul futuro del lavoro, sul suo significato per la privacy, per la giustizia e, per ragionare a un livello più profondo, anche per l'umanità stessa. È per questo che i responsabili delle normative stanno girando in cerchio, come gli pterodattili*, per cercare di definire alcuni principi etici sull'utilizzo dell'intelligenza artificiale, con l'Unione Europea alla guida delle specie più evolute.

Al momento, tra le dichiarazioni più interessanti in materia ci sono quelle dell'High-Level Expert Group on Artificial Intelligence (AI HLEG) dell'Unione Europea nel report Ethical Guidelines for Trustworthy AI.

Queste linee guida etiche sull'intelligenza artificiale definiscono sette requisiti chiave che, secondo il gruppo, i sistemi di intelligenza artificiale devono soddisfare per essere ritenuti affidabili: 

•    Intervento umano e sorveglianza 
•    Sicurezza e affidabilità dal punto di vista tecnico, incluse resilienza agli attacchi e protezione
•    Privacy e governance dei dati, incluso accesso ai dati 
•    Trasparenza, incluse tracciabilità, "giustificabilità" e comunicazione 
•    Diversità, assenza di discriminazione ed equità
•    Benessere sociale e ambientale, incluse sostenibilità, società e democrazia 
•    Responsabilità, incluse possibilità di controllo e riduzione al minimo degli impatti negativi

A prima vista è un elenco ragionevole, anche se ogni punto può giustificare un'intera serie di blog. Quello che vogliamo sottolineare qui è l'esistenza di questo elenco e del report che lo contiene.

È un esempio di organizzazione politica che prende posizione su una tecnologia specifica, e questo è significativo. Altrettanto importante è il fatto che il pensiero del Dottor Malcolm viene approfondito.

Ci sono enormi quantità di contenuti relativi alla questione "intervento umano e sorveglianza" perché, in sostanza, è un modo piuttosto formale ed edulcorato di esprimere la paura viscerale che le macchine finiranno per prendere il controllo. Nei principali media il dibattito sull'intelligenza artificiale ruota proprio intorno a questo punto.

Il gruppo di esperti dell'Unione Europea ritiene infatti che non possiamo lasciare che degli sgradevoli algoritmi gestiscano le nostre vite se non siamo certi di cosa stiano combinando, per non finire come gli esseri anonimi di un altro capolavoro filosofico del cinema, Matrix.

Le altre questioni etiche sono altrettanto importanti, o per certi aspetti anche di più, perché presentano problematiche più autentiche e immediate da discutere. 

Siamo d'accordo che ai giudici vengano proposti consigli sulle sentenze elaborati da bot? Vogliamo che il nostro curriculum rischi di essere rifiutato da un sistema digitale del reparto risorse umane prima che qualcuno possa avere l'opportunità di esaminare tutte le sfumature che contiene? Siamo sicuri che il nostro voto digitale non possa essere falsificato?

Sono queste le domande a cui il report dell'Unione Europea cerca di dare una risposta, perché la Commissione Europea afferma chiaramente di volere che le organizzazioni e i singoli individui possano sfruttare i vantaggi offerti dall'intelligenza artificiale. L'obiettivo che si vuole raggiungere è quello di rendere l'intelligenza artificiale sicura per tutti noi.

Ma se si distribuiscono tecnologie di intelligenza artificiale, automazione robotica dei processi o altre tecnologie associate, compreso l'Internet delle cose (IoT), la prima domanda che sorge non riguarda la tecnologia stessa, ma i dati che sono alla base della tecnologia.

Si applica, anche in questo caso, il vecchio detto di informatica: la qualità dell'output dipende dall'input. E che il bot debba controllare un carrello elevatore o un sistema di pompaggio chimico, un risultato scadente non è comunque accettabile.

Non c'è quindi da stupirsi se, in preparazione alla rivoluzione dell'intelligenza artificiale, i nostri clienti investono sempre di più nella modernizzazione dei data center, negli strumenti di analisi e in nuovi approcci più organici alla sicurezza informatica. Sanno che per garantire sicurezza ed efficacia all'intelligenza artificiale, è necessario saper usare i nuovi fiumi di dati provenienti dai dispositivi mobili, dai sensori IoT e dagli altri innumerevoli sistemi connessi.

Naturalmente, i rischi di cui il personaggio di Jeff Goldblum è preoccupato sono ben lontani da una virgola decimale nella posizione sbagliata o un lettore di documenti inceppato, che ad oggi sono verosimilmente i problemi più gravi che possono derivare dall'intelligenza artificiale e dall'automazione.

Tuttavia, è essenziale continuare a discutere dell'aspetto etico della tecnologia e dobbiamo essere felici che organismi come l'Unione Europea stiano dimostrando il loro interesse. È un segno che il nostro settore è ritenuto molto più di un semplice servizio di pubblica utilità per la società. Sta trasformando le nostre abitudini di vita, influendo sui nostri valori e principi e abbattendo le divisioni. 

Col tempo, potremmo accorgerci che ci ha resi più genuinamente umani di quanto non fossimo in passato. 
*Naturalmente non dobbiamo presupporre che gli pterodattili girassero in cerchio. Il Dottor Malcolm non apprezzerebbe.