L’Intelligence Artificielle a-t-elle besoin d’un attaché de presse ?
Intelligence Artificielle

L’Intelligence Artificielle a-t-elle besoin d’un attaché de presse ?

Insatisfait de la couverture médiatique de l’Intelligence Artificielle, le chercheur Zachary C. Lipton a lancé le blog Approximately Correct pour faire entendre une voix dissonante. Selon lui, de nombreux articles consacrés au sujet pêchent par approximation et relaient des prophéties spectaculaires au détriment des véritables enjeux. Explications.

Dans un article baptisé “Ai’s PR problem” (« Le problème de relations-presse de l’Intelligence Artificielle »), Jerry Kaplan, entrepreneur, écrivain et futuriste installé à San Francisco, affirme que l’Intelligence Artificielle est aujourd’hui victime d’un certain nombre de fantasmes, exagérations et inexactitudes en tous genres. Selon lui, les récents progrès opérés dans ce domaine suscitent un emballement médiatique qui donne au public une fausse image de l’IA. Des performances techniques aussi diverses que le logiciel AlphaGo, les voitures autonomes et les assistants virtuels à commande vocale, comme Siri ou Alexa, seraient assimilées à tort avec le développement progressif d’une super-intelligence en passe de surpasser l’esprit humain.

« S’il est vrai que les machines d’aujourd’hui peuvent accomplir de nombreuses tâches autrefois réservées aux humains (jouer aux échecs, conduire une voiture), cela ne signifie pas pour autant que les machines deviennent plus intelligentes et ambitieuses. Cela veut simplement dire qu’elles font ce pour quoi nous les avons construites. » écrit Jerry Kaplan.

Pour lui, les récents succès obtenus dans le domaine de l’IA sont imputables à différentes techniques bien distinctes (qu’il regroupe en deux catégories : approche traditionnelle et apprentissage machine, ou machine learning dans la langue d’Alan Turing), mais « aucune de ces approches ne constitue le Saint-Graal de l’Intelligence Artificielle. »

Fantasmes et approximations

Un constat partagé par Zachary Chase Lipton, chercheur spécialisé dans l’Intelligence Artificielle, qui occupera à partir de la rentrée prochaine une chaire de professeur assistant en apprentissage machine à la prestigieuse Carnegie Mellon University. Lassé de lire un flot incessant d’erreurs et d’approximations dans le traitement médiatique de son domaine d’études, le jeune chercheur a créé le blog « Approximately Correct » afin d’aborder l’Intelligence Artificielle d’une manière à la fois sérieuse et accessible au grand public. Selon lui, de nombreux articles consacrés au sujet misent sur le sensationnalisme et font écho aux fantasmes nourris par la science-fiction et la culture populaire dans l’esprit des lecteurs. Quitte à sacrifier au passage une partie de la réalité.

« Récemment, OpenAI [association de recherche à but non lucratif consacrée à l’IA, fondée par Elon Musk et Sam Altman] a publié un papier de recherche consacré à une approche baptisée “stratégie évolutive”. Il s’agit d’une variante des réseaux neuronaux, qui utilise une technique différente, vaguement inspirée de la théorie de l’évolution, pour améliorer l’algorithme au fil du temps. Cette approche est très intéressante, mais elle ne signifie nullement que nous sommes en train de développer des agents artificiels autonomes, évoluant comme des organismes vivants et susceptibles d’échapper à tout contrôle. C’est pourtant ce que laissaient entendre certains articles de presse consacrés au papier d’OpenAI. »

intelligence-artificielle-robots

Selon le chercheur, de nombreux journalistes mettent, en outre, sur le même plan études académiques sérieuses et affirmations grandiloquentes sans grands fondements scientifiques.

« Lorsqu’un sujet tourne autour de l’Intelligence Artificielle, on prend rarement la peine de mettre en doute la validité ou l’exactitude du propos. Une prophétie de Ray Kurzweil est ainsi mise sur le même plan que les derniers travaux d’un groupe de chercheurs. »

Grande figure du mouvement transhumaniste, Ray Kurzweil a contribué à populariser la notion de Singularité, qu’il a empruntée à l’auteur de science-fiction Vernor Vinge.

ray-kurzweilCette théorie postule l’avènement, dans un futur plus ou moins lointain, de machines superintelligentes, dépassant largement les capacités de l’esprit humain, et notre fusion programmée avec ces ordinateurs, inaugurant l’ère de la post-humanité. Ray Kurzweil est également réputé pour ses nombreuses prédictions quant à l’évolution des nouvelles technologies, développées au fil de ses différents ouvrages. Certaines se sont avérées exactes (explosion de la sphère Internet, prédite dès la fin des années 1980), d’autres quelque peu ambitieuses (des voitures autonomes déployées massivement dès 2009), certaines totalement fausses (disparition du livre papier). Dans son ouvrage Le Mythe de la Singularité, le chercheur français Jean-Gabriel Ganascia lui reproche le manque de sérieux de ses prédictions concernant la Singularité technologique, basées selon lui sur une extrapolation abusive de la loi de Moore à l’évolution du vivant. Selon Zachary C. Lipton, la théorie de la Singularité cristallise un certain nombre de problèmes qui touchent au traitement médiatique de l’Intelligence Artificielle. Spectaculaire, faisant appel à des images ancrées dans l’imaginaire collectif par la science-fiction, elle est souvent la garantie d’un article populaire, largement lu et partagé sur les réseaux sociaux. Elle n’a pourtant pas la même validité scientifique que de nombreuses recherches menées sur l‘Intelligence Artificielle, moins médiatisée, car moins vendeuses.

Algorithmes prédictifs, robots tueurs et automatisation

Ce qui nous amène au coeur du problème. Pour Zachary C. Lipton, cette tendance à véhiculer une vision fantasmagorique de l’IA a pour principal inconvénient de masquer aux yeux du public les véritables enjeux posés par le développement de cette technologie. S’inquiéter du risque posé par une superintelligence informatique en passe de prendre le contrôle sur l’humanité mène ainsi, selon lui, à sous-estimer, voire occulter des risques aujourd’hui bien réels. Le premier consiste dans les algorithmes de prise de décision, sources potentielles de discrimination. Ces derniers sont aujourd’hui omniprésents. Ils sélectionnent le contenu qui apparaît dans le fil d’actualité d’un utilisateur de Facebook, fournissent aux recruteurs les CVs de candidats ayant les bonnes qualifications pour un emploi donné, et suggèrent même à la police américaine si un suspect est potentiellement trop dangereux pour être remis en liberté en attendant son procès.

Selon le chercheur, il est donc capital que ces algorithmes fonctionnent de manière optimale et non biaisée. Or, nous ne sommes pas certains que ce soit le cas.

« D’abord, l’expert chargé de concevoir l’algorithme peut être lui-même biaisé. Si les données sont labellisées d’une manière qui reflète ce biais (par exemple, un préjugé raciste), alors le modèle, qui apprend à imiter l’expert, sera lui aussi biaisé. L’objectif fixé à l’algorithme peut en outre ne pas être le bon : par exemple, un algorithme chargé de sélectionner les meilleurs articles parus la veille sur Internet peut être chargé de sélectionner les plus lus au détriment des plus qualitatifs. Enfin, les systèmes d’apprentissage machine peuvent se montrer discriminants à l’encontre des minorités, car elles ne sont pas bien représentées dans les données utilisées pour entraîner l’algorithme. En conséquence, les prédictions concernant les membres de ces minorités seront moins précises que celles visant la majorité de la population. Cela peut avoir des conséquences négatives si le but de l’algorithme est d’associer l’individu à des opportunités d’emploi, ou à vérifier sa solvabilité. »

Dans son ouvrage Weapons of Math Destruction, la scientifique des données Cathy O’Neil pointe ainsi le risque posé par les algorithmes prédictifs, affirmant qu’ils tendent à renforcer discriminations et inégalités.

Autre danger potentiel de l’Intelligence Artificielle, qui suscite l’inquiétude de Zachary C. Lipton : les armes robotiques, dont certaines sont déjà utilisées.

« Les drones militaires font déjà des victimes. Ils sont aujourd’hui contrôlés par des humains, mais une partie du processus peut être facilement automatisée. Maintenir la stabilité du drone en vol, par exemple, ne requiert pas d’intervention humaine. On peut ainsi imaginer des drones patrouillant au-dessus d’une région, équipés de logiciels de reconnaissance faciale leur permettant d’identifier et éliminer leurs cibles. Cette technologie est d’ores et déjà faisable aujourd’hui, et de nouvelles recherches sont en cours. Il n’est pas difficile d’imaginer les dérives potentielles : course aux armes autonomes, drones soumis aux mêmes biais que les algorithmes, sans parler des questions éthiques soulevées par des robots recourant à un calcul statistique pour décider qui mérite ou non de vivre. »

banner-drone

Enfin, Zackary Chase craint l’impact que les développements de l’Intelligence Artificielle pourraient avoir sur l’emploi.

« Ce sera progressif. Dans un futur proche, il est probable que robots et logiciels remplacent les humains dans l’industrie, la conduite et les centres d’appel. À plus long terme, le secteur médical (et notamment la radiologie) pourrait également être concerné par l’automatisation. »

Sur ce dernier point, selon le futuriste Jerry Kaplan, le problème n’est pas, comme on l’entend souvent, le nombre potentiel d’emplois détruits, mais la vitesse à laquelle ils pourraient l’être.

« Plus de la moitié des emplois qui existaient il y a cent ans aux États-Unis ont aujourd’hui disparu. Comme pour le réchauffement climatique, le problème n’est donc pas le phénomène en lui-même, mais sa rapidité, et la vitesse à laquelle nous pourrons nous adapter. »

D’où la nécessité, pour James Bessen, auteur de l’ouvrage Learning by doing: the real connection between innovation, wealth and wage, d’adapter l’éducation à cette nouvelle donne, en formant des individus polyvalents, capables d’acquérir rapidement de nouvelles compétences, plutôt que des spécialistes d’un seul domaine. Il faudra également, selon lui, permettre à chacun d’apprendre tout au long de son existence, en développant la formation professionnelle et les cours en ligne.

Zachary C. Lipton, de son côté, a entamé la rédaction d’une série d’articles destinés à déconstruire les principaux fantasmes autour de l’Intelligence Artificielle. Dont, pour le premier avril, un article satirique moquant gentiment les tenants de la Singularité, qui mérite d’être lu.

Des réactions ? N’hésitez pas à nous laisser un commentaire !