Blog_Ethics_Al
 

Petit quiz pour les cinéphiles. Quel est le film dans lequel le personnage principal déclare :

« Vos savants étaient si préoccupés par ce qu’ils pourraient faire ou non qu’ils ne se sont pas demandé s’ils en avaient le droit. »

Vous donnez votre langue au T-Rex ? Eh oui, il s’agissait évidemment du Dr. Ian Malcom, incarné par Jeff Goldblum, dans Jurassic Park. 

Cette question philosophique ne date pas d’hier. Rabelais la soulevait déjà lorsqu’il écrivait « science sans conscience n'est que ruine de l'âme ». Mais aujourd’hui, l’avènement de l’intelligence artificielle (IA) attise plus que jamais le débat. Rien d’étonnant à cela car l’impact culturel, sociétal et économique de l’IA est déjà énorme.

Tellement énorme que des penseurs de tous bords s’interrogent sur l’avenir du travail, le respect de la vie privée, l’équilibre de la justice, voire même les risques pour la survie de l’humanité. Et là où il y débat, le régulateur n’est jamais très loin. C’est là que l’Union européenne entre en action.

Parmi ses principaux travaux sur l’IA, on citera notamment les Directives éthiques pour une IA digne de confiance rédigées par un groupe d’experts.

Ce rapport définit sept exigences essentielles que les systèmes d’IA devraient respecter : 
•    Facteur humain et contrôle humain 
•    Robustesse et sécurité techniques, notamment résistance face aux attaques
•    Respect de la vie privée et gouvernance des données, notamment accès aux données 
•    Transparence, notamment traçabilité, « explicabilité » et communication 
•    Diversité, non-discrimination et équité
•    Bien-être sociétal et environnemental, notamment en termes de société, de démocratie et de développement durable
•    Responsabilisation, notamment obligation à rendre des comptes et réduction de l’impact négatif

À première vue, cette liste semble tomber plus ou moins sous le sens, même si chacun des points pourrait à lui seul faire l’objet d’une série d’articles. Ce qui nous intéresse ici, c’est le simple fait ce cette liste existe.

C’est un point important car il s’agit d’un exemple emblématique d’une entité politique qui tente de s’emparer d’une question technologique. Autre point tout aussi important, le rapport entame une réflexion profonde sur la thématique du « ce n’est pas parce qu’on peut le faire, qu’on doit le faire », que nous évoquions en introduction.

Le débat autour du facteur humain et du contrôle humain fait en effet couler beaucoup d'encre, car il exprime avec plus ou moins de retenue cette peur viscérale de la victoire de la machine sur l’homme. C’est d’ailleurs à ce niveau-là que se situe le débat dans les médias. 

En fait, le message que le groupe d’experts de l’UE tente de faire passer, c’est que nous ne pouvons pas laisser ces fichus algorithmes prendre le contrôle de nos vies, à moins de savoir exactement ce qu’ils ont derrière la tête. Il ne faudrait surtout pas finir comme simples figurants dans cette autre saga cinémato-philosophique, Matrix.

Les autres questions éthiques sont tout aussi importantes, peut-être même plus, car elles présentent les problématiques plus concrètes et immédiates dont il faut débattre. 

Sommes-nous d’accord pour que les juges se voient présenter des recommandations de peines calculées par des robots ? Souhaitons-nous que notre CV soit rejeté par un système RH numérique avant que quiconque ait eu l’occasion d’en apprécier toutes les nuances ? Sommes-nous sûrs à 100 % que le vote électronique est infalsifiable ?

Voilà les questions auxquelles le rapport de l’UE cherche à répondre. La Commission n’est pas anti-IA. Elle indique même clairement son souhait de voir l’IA profiter à toutes les personnes physiques et morales. L’encadrement qu’elle tente de mettre en place vise simplement à rendre l’IA plus sûre pour chacun d’entre nous.

Mais qu’il s’agisse d’IA, d’automatisation des processus par la robotique (RPA) ou de toute autre forme de technologie associée ¬– l’Internet des objets étant bien évidemment présent en toile de fond – la première question à se poser ne concerne pas la technologie en elle-même, mais les données qui l’alimentent.

Si vous travaillez dans l’informatique, l’expression « garbage in, garbage out » ne vous est certainement pas étrangère. L’idée est simple : si les données en entrée sont mauvaises, le résultat en sortie le sera tout autant. Lorsque l’on ramène ce concept à un chariot-élévateur robotisé ou un système de pompage de produits chimiques, le « garbage out » n’est évidemment pas envisageable.

À l’heure où nos clients se préparent à la révolution de l’IA, ils investissent massivement dans la modernisation de leurs data centers, outils analytiques et systèmes de cybersécurité. Cela n’a rien de surprenant. Les entreprises savent pertinemment que pour rendre l’IA sûre et efficace, elles doivent d’abord donner un sens aux torrents de données issues de appareils mobiles, capteurs IoT et toute une multitude de systèmes connectés.

Pour ce qui est des menaces pour la survie de notre espèce, nous n’avons encore pas trop de souci à nous faire. Pour l’heure, tout ce que nous risquons est une contrariété occasionnelle : décimale mal placée, plantage d’un assistant conversationnel, etc.
Cela ne remet nullement en cause l'importance et la légitimité du débat éthique. Le fait que des institutions comme l’UE s’emparent de la question de l’IA est plutôt une bonne nouvelle. Elle est signe de l’impact sociétal des nouvelles technologies, au-delà d’un simple rôle d’outil. Elle transforme notre manière de vivre, influence nos valeurs et nos principes, et gomme nos divisions. 

Peut-être qu’avec le temps, nous parviendrons même à la conclusion que l’intelligence artificielle nous a rendus éminemment plus humains.