Suivez-nous grâce à nos newsletters S'inscrire

I-Tourisme

Ethique et intelligence artificielle

Image
L'application STOPCOVID ne fait pas l'unanimité, mais suscite néanmoins l'approbation d'une majorité de Français (59% de favorables versus 41% d'opposés).

C’est ce que révèle l’étude Harris Interactive à la demande de Data Publica qui nous apprend également qu'il y a autant de fervents soutiens (21% « tout à fait favorables ») que de nets opposants (21% de « tout à fait opposés »)
La tribune de Adrien Bouhot Co-fondateur & Chief Data Valid&Go, issue du cahier tendance du Welcome City Lab, prend tout son sens :
Les données font partie intégrante de notre quotidien. Depuis maintenant de nombreuses années, elles servent à concevoir des algorithmes, qui s’invitent ensuite parmi tous les secteurs d’activité de nos sociétés modernes, remodelant en profondeur nos méthodes de travail et de pensée. Mais l’éthique est souvent perçue et invoquée comme une contrainte. Peut-on analyser la situation de manière plus avantageuse ?
Des exemples démontrent que les algorithmes se sont frayés un chemin dans le monde de la finance, de la justice, du commerce, de la santé, dans le but d’améliorer chacun de ces services, de les personnaliser en fonction des usagers, mais aussi de largement limiter la prise de risques. Leur influence est globale, grandissante, et logiquement, ce sont nos décisions individuelles qui se retrouvent de plus en plus souvent impactées.
Quelques exemples pour mieux visualiser l’omniprésence de l’intelligence artificielle :
Le « score d’octroi » permet à nos banques de calculer pour chaque client leur probabilité de rembourser un crédit, chiffre qui servira à décider si oui ou non, votre prêt doit vous être accordé.
Le « reciblage publicitaire », bien connu de tout utilisateur d’Internet, permet de vous retrouver directement sur les différentes pages que vous visitez, pour afficher la publicité d’un site marchand précédemment visité.
La « recommandation produit » détermine quels articles vous ont intéressé sur un site de vente, et se charge de vous en proposer d’autres, de nature similaire.
La « note de récidive » est un outil utilisé par les juges pour établir le profil d’un condamné, et décider si ce dernier mérite une éventuelle remise de peine.
L’« analyse de scanner », peut notamment servir à détecter les cancers du poumon, en passant au crible des centaines de coupes compilées en une seule image globale, offrant un immense gain de temps en plus d’une grande précision.

 L’ÉTHIQUE FAIT CONSENSUS

A tout domaine en expansion doivent être associés une direction, et un cadre. Ce dernier a désormais trouvé un nom :
l’intelligence artificielle « éthique ». Le terme, inévitable dans le débat public, semble parfaitement englober nos attentes collectives face aux dangers posés par l’invasion des données. La France, par exemple, se l’est appropriée par l’intermédiaire du rapport Villani, publié en 2018, qui préconise la création d’une instance justement dédiée à ce principe éthique.
Le respect de la vie privée des usagers, la transparence quant aux méthodes de création des algorithmes et l’élimination systématique des biais, créateurs de stigmatisation, sont quelques-uns des objectifs de ce principe éthique.
Un cahier des charges validé par les pouvoirs publics, mais que les pouvoirs privés n’hésitent pas non plus à revendiquer, les plus grandes entreprises s’alignant à travers un rassurant discours commun.
Les points deux, quatre et cinq de la charte sur l’intelligence artificielle de Google stipulent : « ne pas créer ou renforcer des biais injustes », « être responsable face aux personnes », « intégrer des principes de conception et de respect de la vie privée ». Le géant américain va même plus loin. Prabhakar Raghavan, son vice-président du secteur publicité, considère que la firme devrait progressivement utiliser le moins possible de données pour le ciblage publicitaire. « Celui qui dominera le marché [dans cinq ans] sera celui en qui l’on aura le plus confiance. Si nous pouvons maintenir cette confiance, nous pouvons rester un leader du marché ». Au nom de l’éthique, Google affiche donc un désir clair de se faire moins intrusif, et de s’engager sur le chemin de la confiance et de la transparence.
Facebook n’est pas en reste, après avoir annoncé en janvier 2019 la création d’un centre de recherche sur l’éthique, situé à Munich. Nommé « Institut pour l’éthique de l’intelligence artificielle », ce centre, bien que financé par l’entreprise américaine, sera entièrement indépendant dans ses choix et méthodes de recherche, c’est ce qu’affirme Joaquin Quiñonero Candela, directeur de l’apprentissage automatique appliqué chez Facebook. L’installation en Europe n’est pas non plus anodine. Toujours selon Candela, il est essentiel que les recherches ne soient pas menées uniquement d’un point de vue américain. « L’Europe ouvre la voie sur la régulation, avec le RGPD par exemple, sur la protection des données. »
Nous le savons, Europe et entreprises américaines de pointe sont régulièrement en conflit sur le sujet de la régulation et donc, de l’éthique. Des déclarations et initiatives comme celles évoquées ci-dessus démontrent une volonté d’apaisement, ainsi qu’une tendance générale à développer l’intelligence artificielle de manière responsable.

L’ENVERS DU DÉCOR

On comprend que Facebook essaye de se racheter une conduite, suite notamment au scandale Cambridge Analytica, société ayant siphonné les données en provenance du réseau social sans l’accord ou même la connaissance de ses utilisateurs. Mais une autre affaire, similaire, a un peu moins fait parler. Gmail, la messagerie électronique de Google, est en effet régulièrement scrutée par des développeurs d’applications tierces, qui récoltent à l’intérieur de nos échanges privés les données nécessaires à la création de leurs algorithmes. De l’heure d’envoi du mail à l’identité des contacts, l’intégralité des correspondances est accessible. Google se défend en arguant qu’il s’agit d’opérations contrôlées, et que quelques réglages dans les options permettent aux usagers d’autoriser ou non l’accès à leur compte. Mais qui, parmi les usagers de Gmail, est au courant de ce recueil de données, ou du moyen de s’en prémunir ? Malgré sa charte, l’entreprise est donc coupable soit de non-respect de la vie privée, soit d’opacité absolue concernant ses méthodes.
La marque Apple, elle aussi concernée par le principe éthique, a désiré se démarquer de la concurrence avec le développement d’une future version de son système d’exploitation iOS, permettant à l’utilisateur de se connecter aux applications sans céder au passage ses données personnelles, comme c’est le cas sur Facebook. Une idée louable, sauf si l’on considère une enquête du Washington Post qui pointe l’App Store du doigt, dans lequel de nombreuses applications ont la capacité d’absorber nos données en toute discrétion. Les usagers seraient donc protégés des abus des tiers, mais pas de ceux d’Apple eux-mêmes, désireux de verrouiller la collecte à leur compte.
De manière générale, et c’est l’objet d’une plainte de l’ONG Noyb.eu devant la CNIL notamment, il n’existe pas de rapport réel entre la raison d’être d’une plate-forme et sa collecte intempestive des données. Selon cette ONG, Facebook n’a pas besoin de toutes ces données pour vous permettre de garder le contact avec vos proches, tout comme Linkedin par exemple n’en a pas besoin non plus pour garantir la mise en relation professionnelle de ses utilisateurs. La collecte massive est simplement permise par la signature de contrats unilatéraux avec ces différents sites : si vous usez de leurs services, vous acceptez d’emblée l’ensemble de leurs méthodes, connues des propriétaires seuls, sans aucune possibilité de moduler l’une ou l’autre condition.
Car une chose demeure certaine : les données doivent être collectées, d’une manière ou d’une autre. Le développement de l’intelligence artificielle et des algorithmes est une course, dont il faut bien tirer profit avant la concurrence, évidemment féroce. Les enjeux d’éthique ne peuvent que passer au second plan derrière les enjeux économiques, car qui a le temps de s’intéresser à la transparence de son nouvel algorithme, quand plusieurs versions concurrentes sont sur le point de sortir ?
Inévitable dans la prise de parole mais contraignante en termes de profit, l’éthique devient alors fatalement une source de double discours, et le symbole d’une certaine hypocrisie.
 

Auteur

  • Rémi Bain-Thouverez
Div qui contient le message d'alerte

Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire
Mot de passe oublié

Déjà abonné ? Créez vos identifiants

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ? Remplissez les informations et un courriel vous sera envoyé.

Div qui contient le message d'alerte

Envoyer l'article par mail

Mauvais format Mauvais format

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format

Div qui contient le message d'alerte

Contacter la rédaction

Mauvais format Texte obligatoire

Nombre de caractères restant à saisir :

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format