Menu
S'identifier

E-Tourisme

Intelligence Artificielle et Ethique : une cohabitation complexe

Publié le : 11.03.2020 I Dernière Mise à jour : 11.03.2020

Image

Le cahier Tendance du Welcome City Lab


On n’a jamais autant parlé des données que maintenant et ce n’est qu’un début ! L’intelligence artificielle se répand. Elle s’appuie sur l’analyse massive de données, les nôtres, au profit d’opérations privées tout aussi massives. D’où la nécessité d’assurer des cadres juridiques et légaux qui bordent les conditions de leurs utilisations.
Mais cela ne suffit pas : l’éthique entre en ligne de compte. L’intelligence artificielle est-elle, peut-elle, être éthique ? I-Tourisme poursuit la publication du cahier Tendance du Welcome City Lab
L’intelligence artificielle nous conduit-elle vers une terra incognita sur le sujet ? Les données respectent-elles l’ensemble des droits fondamentaux dont les notions diffèrent selon les régions du monde ? L’éthique peut-elle être partagée entre machines et humains ? Autant de questions et bien d’autres encore qui laissent augurer des mondes nouveaux pouvant conduire vers une dictature des données et des algorithmes prédictifs qui tendent (tout au moins pour l’instant) par des biais d’interprétation vers la définition de citoyens et consommateurs “calculés”. Ce chapitre aborde sous des regards différents ce vaste sujet en recherche d’un équilibre entre ressorts de l’innovation et protection.
Par Pascal Montagnon Directeur Chaire de Recherche Digital innovation et Intelligence artificielle INSEEC
Le développement des intelligences artificielles pose de nombreuses questions sociétales dont notamment le besoin de construire une approche éthique pour mieux limiter les éventuelles dérives.
 « Science sans conscience n’est que ruine de l’âme » telle est la formule utilisée par Rabelais dans Pantagruel. S’il est un domaine auquel cette citation pourrait faire du sens, c’est bien à l’intelligence artificielle. Car le développement de l’IA suscite de l’intérêt, de l’enthousiasme, mais aussi des inquiétudes légitimes alimentées par des approches issues de représentations relevant de scénarios de science-fiction.
Le domaine applicatif de l’IA présente des risques qu’il faut prévenir. Il s’agit donc d’identifier ces risques potentiels, d’adopter des principes débouchant sur des processus pour les maîtriser sur la durée afin de s’assurer que le développement de l’IA s’effectue réellement au service et non au détriment de l’homme.
Des voitures autonomes à la reconnaissance faciale ou vocale, l’intelligence artificielle connaît une progression spectaculaire. La généralisation des algorithmes nourrit nos imaginaires, fascinés par la promesse d’un monde meilleur, où la puissance de calcul des ordinateurs pourrait éliminer bien des aléas de la vie quotidienne. Pour autant les conséquences possibles (probables) des solutions proposées par les applications utilisant des IA nous amènent à nous questionner sur leurs véritables usages et impacts sur la société, d’où la nécessité de réguler l’utilisation des technologies issues de l’IA.

Une réelle prise de conscience quant à la nécessité de rapprocher la notion d’éthique à l’IA.

Les tentatives pour apporter un éclaircissement sur les notions de biais et «d’exploitabilité» des algorithmes d’intelligence artifi-cielle foisonnent avec plus ou moins de pertinence. D’ailleurs la notion « d’explicabilité » n’est pas prévue par ce réseau de neurones dit artificiel ou profond qu’on appelle le Deep Learning.
Jusqu’où peut-on laisser aux algorithmes et à ceux qui les développent le contrôle de nos comportements ? Comment protéger nos vies privées de l’appétit de machines alimentées par la collecte des données personnelles ? Comment se préparer aux bouleversements que l’intelligence artificielle va entraîner dans tous les secteurs professionnels ?

ÉVITER L’OPACITÉ DES SYSTÈMES

Certains risques ont déjà été identifiés. Parmi eux, l’opacité des systèmes utilisés, et la difficulté à expliquer leur fonctionnement. Et comme la plupart des algorithmes actuels ne sont pas open source, nous sommes dans l’incapacité de connaître dans quelle mesure l’information reçue par une IA est suffisamment complète pour l’analyse qu’on lui demande et si toutes les variables possibles ont été prises en considération.
Nous sommes en train de vivre une transition qui consiste à passer d’une informatique où les logiciels devaient suivre des règles écrites à des systèmes construits sur la base d’algorithmes que l’on entraîne à partir de données massives. Il devient extrêmement compliqué d’expliquer, de comprendre comment ces nouveaux systèmes sont à même de générer tel ou tel type de réponse. Cette situation est aujourd’hui un frein au développement des IA, notamment dans certains secteurs critiques, comme l’aéronautique.

Toutes les IA développées en l’état actuel des connaissances relèvent de l’IA faible.

Au sein de la Chaire de Recherche Digital & Intelligence Artificielle de l’INSEEC, nous mettons au cœur de nos travaux de recherche le fait que l’intelligence artificielle n’existe pas pour remplacer l’humain, mais pour compléter, assister, optimiser et étendre les capacités des Hommes, tout en ayant à l’esprit en permanence que tout système d’intelligence artificielle imaginé, créé et activé doit être le plus impartial possible.
Bon nombre d’exemples récents ont montré le caractère discriminant des IA utilisés notamment dans le recrutement (Amazon), dans la reconnaissance faciale, et dans le domaine prédictif notamment au sein de la police américaine (récidive pour un individu). Cela nous amène à prendre en considération que le développement de l’intelligence artificielle doit se faire dans des environnements multidisciplinaires et avec une approche multiculturelle. Mais avec le temps, et les milliards de données qui seront collectées, les biais auront tendance à se réduire de façon significative.

L’ÉTHIQUE ET L’INTELLIGENCE ARTIFICIELLE PEUVENT-ELLES COHABITER ?

La question telle que posée peut susciter des réponses avec des lectures multiples. Pourtant, s’il ne fait aucun doute, que l’éthique, qui s’invite dans le débat sur le développement de l’IA, est devenue une nécessité, la question initiale est de savoir comment s’y prendre et avec quel(s) allié(s) ?
Aujourd’hui, on peut distinguer trois approches bien différentes qui résument à elles seules les difficultés à se mettre d’accord sur les bases de principes éthiques dans l’IA. Très schématiquement, on peut distinguer :
  • Les Etats-Unis qui considèrent les données comme un élément commercial
  • la Chine qui considère la donnée comme un élément du pouvoir afin de définir les « bons citoyens »
  • L’Europe qui, avec le RGPD essaie de protéger la donnée et ses citoyens.

On l’aura compris, la compétition mondiale se passe sur d’autres continents qu’en Europe. Pour exister, l’Europe fixe sa priorité sur la définition de process éthiques qui visent à protéger la data, et donc la vie personnelle. Antoine Petit, Directeur du CNRS lors de la présentation du rapport Villani à l’occasion de la conférence AI For Humanity en mars 2018 où était présenté le rapport Villani, nous alertait sur une direction à éviter : « Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business.
Quoiqu’il en soit, l’éthique et l’intelligence artificielle ne s’opposent pas du tout. Simplement en fonction des valeurs, l’éthique et la morale peuvent évoluer d’un pays à l’autre. D’ailleurs, le RGPD européen envoie un signe important en ce sens obligeant les GAFAM et autres intervenants à se conforter aux règles édictées, au moins pour l’Europe.

L’ÉTHIQUE PEUT-ELLE ÊTRE UNE OPPORTUNITÉ POUR DÉVELOPPER LA COMPÉTITIVITÉ ?

Tout le monde est convaincu que disposer de règles éthiques est indispensable. Pour autant, c’est intéressant de constater que quand bien même les limites de l’éthique seraient élargies, cela ne résoudrait pas nécessairement tout.
S’il est un aspect qui peut sembler être un élément essentiel sur le sujet, c’est le comportement des consommateurs qui sont en aucun doute, le talon d’Achille de l’intelligence artificielle de demain. En s’appuyant sur l’éthique, le consommateur possède une arme redoutable entre ses mains. On peut imaginer que ces derniers exigeront, à un moment donné, de se voir proposer des produits et services avec un label éthique qui respectera leur vie privée et leurs données. Peut-être même qu’ils seront disposés à payer un peu plus cher pour que leurs données ne soient plus utilisées que pour une amélioration des services et pas à des fins commerciales.

L’Europe et la France, ont donc une carte concurrentielle à jouer

Il s'agit de prendre une posture éthique, de services tout aussi efficaces et respectueux. Mais ne perdons pas de temps car le monde change, s’adapte, s’organise à l’image de la Déclaration de Montréal pour un « développement responsable de l’IA » présentée en décembre 2018, initiée par l’université de Montréal. Ce document pose dix grands principes éthiques : respect de l’autonomie des utilisateurs, protection de l’intimité et de la vie privée, prudence dans le développement de nouveaux outils, responsabilité laissée aux humains dans la prise de décision, etc. Maintenant reste à savoir si cette charte sera appliquée de façon homogène par tous les développeurs en IA sur la planète…
L’éthique oui, mais pas n’importe comment et surtout ne nous trompons pas de combat. Ne tombons pas dans des phénomènes de modes qui consisteraient à associer systématiquement IA et Ethique tout en connaissant pertinemment les limites du discours.

Auteur

  • Rémi Bain-Thouverez

Div qui contient le message d'alerte

Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire

Mot de passe oublié

Déjà abonné ? Créez vos identifiants

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ? Remplissez les informations et un courriel vous sera envoyé.

Div qui contient le message d'alerte

Envoyer l'article par mail

Mauvais format Mauvais format

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format

Div qui contient le message d'alerte

Contacter la rédaction

Mauvais format Texte obligatoire

Nombre de caractères restant à saisir :

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format