Recevez les dernières nouvelles mises à jour continuellement sur les sujets les plus suivis avec NewsHub. Installez-le maintenant.

La ruée vers l'éthique de l'intelligence artificielle

15 janvier 2019 13:23
376 0

ENQUÊTE - Depuis cinq ans, les études et initiatives consacrées aux enjeux éthiques et à l'impact de l'intelligence artificielle se multiplient. Le futur « GIEC de l'intelligence artificielle », annoncé début décembre par la France et le Canada, permettra-t-il d'y voir plus clair ?

Ce n'est pas tous les jours qu'une réunion des membres du G7 se tient dans une ancienne usine textile reconvertie en pépinière de start-up et laboratoires high-tech. C'est là, début décembre, dans les locaux d'Element AI, au coeur d'un ancien quartier industriel de Montréal en pleine reconversion, que Justin Trudeau a prononcé un discours mêlant fascination et inquiétude. « Nous devons reconnaître qu'avec l'intelligence artificielle, nous entrons dans des territoires inconnus. Aussi excitant que cela paraisse, cela s'accompagne de nombreux défis, et c'est pour cela qu'il faut s'attaquer aux questions éthiques que soulèvent ces technologies », mettait en garde le Premier ministre canadien.

Il y avait déjà le GIEC pour le changement climatique , il y aura donc bientôt le G2IA (ou IPAI en anglais) pour étudier les bouleversements liés à l'intelligence artificielle. Cette nouvelle institution, dont les contours devraient être précisés d'ici à l'été, rassemblera des représentants de la communauté scientifique, de l'industrie, des gouvernements et de la société civile.

Maintenant qu'elles peuvent battre les humains au jeu de go ou les radiologues pour détecter des tumeurs, les machines risquent-elles de nous dépasser dans tous les autres domaines ? Les algorithmes, désormais capables d'apprendre, vont-ils mettre au chômage des bataillons de cadres, de chauffeurs routiers ou de codeurs ? Faut-il laisser des outils aussi potentiellement dangereux que des voitures, des avions ou des armes sous le seul contrôle de logiciels et de processeurs ?

Toutes ces questions, qui ont longtemps relevé de la science-fiction, sont désormais discutées le plus sérieusement du monde par un nombre croissant de chercheurs en intelligence artificielle, d'économistes, de philosophes ou de gouvernants. Ces dernières années, les rapports, livres blancs, groupes d'études et autres initiatives sur l'intelligence artificielle et l'éthique se sont multipliés, portés par les progrès spectaculaires des technologies d'apprentissage automatique profond (« deep learning »).

L'une des premières alertes, bruyamment relayée par Elon Musk ou Stephen Hawking, est venue en 2014 d'un philosophe et chercheur de l'université d'Oxford, Nick Bostrom. Dans un essai intitulé « Superintelligence : paths, dangers and strategy », il imaginait les conséquences - potentiellement dévastatrices - d'une intelligence artificielle devenue supérieure à celle des humains.

Ce scénario catastrophe est en réalité très loin d'être partagé par les experts de l'IA, en dehors de quelques fervents transhumanistes comme le futurologue américain Ray Kurzweil. En juin 2017, dans un entretien aux « Echos », Nick Bostrom se disait lui-même « plutôt optimiste sur les bénéfices à attendre de l'intelligence artificielle ». Son livre a cependant contribué à lancer un débat mondial sur les enjeux éthiques de l'IA. Il a inspiré une lettre ouverte appelant les développeurs à tout faire pour que les futurs systèmes d'intelligence artificielle soient « à la fois robustes et bénéfiques pour l'humanité ». Publiée en janvier 2015, elle a été signée par plus de 8.000 experts et personnalités, dont les « pères fondateurs » du deep learning, Geoffrey Hinton, Yann LeCun et Yoshua Bengio.

Six mois plus tard, des centaines de chercheurs reprenaient la plume, cette fois pour demander l'interdiction des « robots tueurs » , ces armes autonomes capables de faire feu sans intervention humaine. Les discussions sur l'avenir de ces armes, , n'ont guère progressé depuis, mais le mouvement contre une utilisation militaire de l'IA a eu des répercussions jusque dans la Silicon Valley.

Mais les questions éthiques et sociales posées par l'intelligence artificielle vont bien au-delà d'un scénario à la Terminator. Il y a d'abord, sur le plan macro-économique, toutes les questions liées à l'avenir du travail. Là encore, l'alerte a été donnée par des chercheurs d'Oxford, Carl Benedikt Frey et Michael A. Osborne , qui estimaient dans un article publié en 2013 que « 47 % des emplois américains étaient en danger » à cause de l'automatisation et des progrès de l'IA.

Depuis, des rapports venus de l'OCDE, du Forum économique mondial ou du FMI sont venus relativiser ces chiffres, en appelant à prendre en compte également les emplois créés ou modifiés par ces technologies. Reste qu'aujourd'hui, la majorité des experts s'accordent sur l'idée que l'intelligence artificielle va au minimum déplacer des emplois, et que la quasi-totalité des systèmes éducatifs actuels ne sont pas adaptés aux besoins de remise à niveau qui se profilent. D'où les réelles craintes de déclassement exprimées par les classes moyennes occidentales.

L'arrivée d'outils d'intelligence artificielle dans notre quotidien a aussi fait émerger des inquiétudes plus techniques. Par exemple, sur la responsabilité en cas d'accident causé par un véhicule autonome , et sur la façon dont on devra le programmer - le système doit-il, pour ne citer qu'un exemple, protéger dans tous les cas le propriétaire et les passagers de la voiture au détriment des autres ?

Un autre enjeu, moins spectaculaire mais néanmoins majeur, concerne les données, et en particulier les biais qu'elles reflètent, et que la machine peut reproduire sans discernement : si l'on entraîne un moteur de recherche à reconnaître des cadres d'entreprise à partir de photos d'hommes blancs, il ne montrera jamais de femmes ou de personnes de couleur quand on lui posera la question par la suite.

Autre problème régulièrement pointé du doigt : l'opacité des systèmes utilisés, et la difficulté à expliquer leur fonctionnement. Le passage d'une informatique où les logiciels devaient suivre des règles écrites à des algorithmes que l'on entraîne à partir de données massives fait qu'il peut être impossible d'expliquer, de comprendre comment ils aboutissent à des réponses. Ce qui peut freiner l'adoption de ces outils dans certains secteurs critiques, comme l'aéronautique.

Bien avant l'annonce de la création du GIEC de l'IA, les géants du secteur avaient commencé à réfléchir à ces questions : en septembre 2016, poussés par certains de leurs chercheurs, Google, Amazon, Facebook, IBM et Microsoft ont annoncé la création et le financement d'une organisation à but non lucratif , Partnership on AI (PAI), pour « formuler les meilleures pratiques » et « chercher à garantir que les technologies d'IA bénéficient au plus grand nombre ». Deux ans plus tard, ce partenariat compte près de 80 membres, dont un géant chinois de l'Internet, Baidu. Mais à ce jour, il n'a encore produit aucune règle ou liste de recommandations. « Les premières publications devraient intervenir en 2019, ou au plus tard en 2020 », assurait début décembre aux « Echos » la directrice exécutive de PAI, Terah Lyons.

D'autres initiatives ont, elles, progressé, à l'image de la « Déclaration de Montréal pour un développement responsable de l'IA » , présentée en décembre dernier, en marge de NeurIPS. Lancé par l'université de Montréal avec le soutien de son chercheur le plus célèbre, Yoshua Bengio , ce document d'une vingtaine de pages, fruit d'une année de débats publics, pose dix grands principes éthiques : respect de l'autonomie des utilisateurs, protection de l'intimité et de la vie privée, prudence dans le développement de nouveaux outils, responsabilité laissée aux humains dans la prise de décision, etc.

Quasiment au même moment, la Commission européenne livrait elle aussi un texte très attendu : la première version des règles éthiques mises au point par un groupe de 52 experts , réunis depuis le printemps dernier. « L'idée n'est pas de créer un cadre contraignant, mais d'aboutir à un développement durable de l'IA », explique Nozha Boujemaa, vice-présidente du groupe d'experts.

Si l'Europe et le Canada se mobilisent sur l'éthique, c'est aussi parce qu'ils y voient une chance de se distinguer dans un secteur où les Etats-Unis et la Chine ont une très grande longueur d'avance. En effet, les Américains ne sont pas insensibles aux questions éthiques (dans un récent sondage, 82 % estimaient que l'IA devait être manipulée avec précaution) mais misent avant tout sur l'autorégulation des entreprises ; les Chinois, eux, considèrent l'IA avant tout comme un moyen d'augmenter leur puissance.

D'où la mise en avant d'une « troisième voie ». Reste que le G2IA, voulu par la France et le Canada, va très vite devoir relever un premier défi de taille : pour devenir une autorité mondiale aussi importante que le GIEC, il lui faudra attirer des chercheurs et des institutions bien au-delà de ses deux pays fondateurs...

Source: lesechos.fr

Partager sur les réseaux sociaux:

Commentaires - 0