Vous êtes ici : Accueil > Actualités > Intelligence artificielle : faut-il avoir peur du Terminator ?

Idées et débats | Actualité | Focus | Intelligence artificielle | Nouvelles technologies

IDEES & DEBATS - REGARDS CROISES

Intelligence artificielle : faut-il avoir peur du Terminator ?


Yann LeCun, lauréat du prix Turing 2018, vice-président et Chief AI Scientist de Facebook et Etienne Klein, philosophe des sciences et physicien au CEA, partagent leurs points de vue sur l’intelligence artificielle.


Publié le 28 janvier 2022

On dit souvent de l’intelligence qu’elle est
« l’ensemble des processus de pensée d’un être vivant qui lui permettent de comprendre, d’apprendre ou de s’adapter à des situations nouvelles ». Quelle est votre propre définition de l’intelligence ? Et est-elle identique selon qu’on parle d’intelligence humaine ou d’intelligence artificielle ?

Yann LeCun : Il n’existe pas de très bonne définition de l’intelligence mais on pourrait dire qu’il s’agit de la capacité d’acquérir et d’appliquer des connaissances et des compétences pour atteindre un but précis. Ce n’est pas l’intelligence elle-même qui nous dicte ce but, elle nous en donne seulement les moyens. De même, on peut parler d’intelligence pour les espèces biologiques et animales qui s’adaptent du mieux qu’elles peuvent aux variations de leur environnement. Plutôt que d’intelligence artificielle, expression qui a intégré le langage commun aujourd’hui, je préfère parler d’intelligence machine ou d’intelligence des machines. Aujourd’hui, celles-ci peuvent être entraînées à effectuer des tâches très précises mais elles n’ont pas l’intelligence de faire autre chose ; autrement dit, elles n’ont pas de sens commun et ne relient pas ce qu’elles font à la réalité du monde. Par exemple, si je vous dis « Pierre prend son sac et sort de la salle », vous êtes capable de visualiser la séquence - il tend le bras pour prendre son sac, s’en saisit, marche vers la porte, ouvre la porte et sort ; les machines, non ! Elles n’ont aucune connaissance du monde réel mais elles en disposeront un jour. Nous arriverons à ce qu’on appelle l’Artificial General Intelligence, c’est-à-dire des machines égales à l’homme, aussi intelligentes que lui.

Pour l’instant, nous en sommes très loin, à la fois scientifiquement et technologiquement ! Même si des machines peuvent déjà créer des compositions de sons ou d’images (ces dernières n’étant, après tout, qu’un assemblage de pixels), elles restent incapables de manipuler et a fortiori de créer des concepts ! Autre exemple, celui d’AlphaZero : s’il peut battre le meilleur joueur de go du monde, c’est parce qu’on a entraîné ses réseaux de neurones avec des milliers et des milliers de parties, bien plus qu’un être humain ne pourrait en jouer durant sa vie entière ! C’est sa capacité à traiter très rapidement un volume vertigineux de données qui lui confère son efficacité, donc sa maîtrise du jeu.

Dans le domaine de la recherche, on utilise déjà de grandes quantités de données pour dégager des modèles phénoménologiques qui aident à identifier les descriptions les plus proches de ce qu’on observe, tout en réduisant drastiquement le nombre de calculs. C’est le cas, par exemple, en chimie pour prédire les propriétés de certaines molécules ou en physique pour simuler les premiers mois de l’Univers. Mais ils ne se substituent en rien à la théorie, qui reste un pilier de la science.

Etienne Klein :L’expression « intelligence artificielle » nous vient de l’anglais. Or, le mot « intelligence » n’a pas exactement le même sens en anglais qu’en français. Dans la langue de Shakespeare, il désigne la capacité à analyser des données et à traiter des informations. En français, sa signification est beaucoup plus vaste, puisqu’elle inclut de surcroît la capacité à argumenter, à construire une méthode, à créer des concepts, à élaborer une pensée critique… L’intelligence au sens français du terme se traduirait plutôt en anglais par cleverness ou smartness, voire par  imagination.

L’intelligence humaine possède donc quelques longueurs d’avance sur celle des machines qui, à ce jour, n’ont pas créé le moindre concept ni émis le moindre avis critique sur leur propre production… Reste que, régulièrement, nous apprenons que l’intelligence artificielle « bat » l’intelligence humaine dans certains secteurs ou dans certaines activités, comme les jeux, le diagnostic médical ou la surveillance de processus complexes ou distribués. En d’autres termes, le silicium écrase parfois le neurone. Cela nous rend à la fois fiers – car c’est nous qui avons inventé les machines – et penauds – car ces machines nous dépassent, voire nous ridiculisent. En 1956, le philosophe Günther Anders avait qualifié de « prométhéenne » la honte « qui s’empare de l’homme devant l’humiliante qualité des choses qu’il a lui-même fabriquées ». Le degré de performance atteint par certaines de nos technologies nous persuade en effet que nous ne saurions plus être « à leur hauteur ». Ce constat ouvre sur une question fascinante : pourrions-nous être tentés d’abandonner notre idéal d’autonomie en déléguant une partie de nos choix à des machines toujours plus performantes, qui pourraient choisir et décider à notre place ? Ou, au contraire, veillerons-nous à davantage cultiver notre humanité « irréductible », c’est-à-dire tout ce qui nous différencie des machines ?

Sans attendre que nous répondions à cette interrogation, l’intelligence artificielle nous conduit déjà à repenser nos métiers et à adapter nos activités professionnelles. Comment le travail humain va-t-il évoluer dans un régime de mise en concurrence de plus en plus explicite avec les machines ? J’ai récemment discuté avec des artisans des Compagnons du devoir qui travaillent à la restauration de Notre-Dame. Ils m’ont dit la fierté qu’ils ressentent à accomplir des tâches qu’aucune machine ne peut réaliser. Cela me semble indiquer une loi assez générale : un travail est considéré comme épanouissant lorsqu’il permet, entre autres choses, de faire l’expérience de son efficacité personnelle et de l’émotion qui l’accompagne. De tels questionnements ont été discutés au sein du CEA dans le cadre d’un groupe de travail que j’ai présidé sur les enjeux et les impacts des technologies numériques.


Si, comme vous le dites, les ordinateurs, un jour, sont aussi intelligents que nous, pensez-vous qu’ils éprouveront également de la douleur, de la joie, de l’empathie, des émotions humaines ?

Yann LeCun : Absolument ! Les machines ne seront plus prédéterminées comme aujourd’hui. En éprouvant des émotions ou de l’empathie, elles gagneront en autonomie et disposeront d’une liberté d’action qui est aujourd’hui une des pierres angulaires de l’intelligence humaine. Si vous aviez un assistant virtuel pour gérer votre vie, ne serait-il pas plus efficace en éprouvant des émotions, par exemple de l’inquiétude lorsque vous êtes vraiment en retard ?

Etienne Klein : Je ne pense pas qu’un robot puisse acquérir une
« conscience de soi », ni même une conscience des autres. Or, sans conscience de soi, les notions d’émotion, de douleur, de joie n’ont plus guère de sens. Mais un robot pourra sans doute imiter et détecter nos propres émotions, et peut-être préférerons-nous alors nous entourer de robots sympathiques et prévenants plutôt que de personnes désagréables ! Mais finalement, même si pareille hypothèse ne m’enchante guère, nos émotions ne seraient-elles pas le résultat d’une algorithmique interne dont nous ignorons la programmation ?


Doit-on avoir peur de l’intelligence artificielle ?

Yann LeCun : On peut en avoir peur ou pas mais si vous parlez de prise de contrôle du monde par les machines, je crois que nous dramatisons ! Nous avons tendance à confondre intelligence et domination, ce qui est compréhensible car, au cours du temps, les humains ont utilisé leur intelligence pour asseoir leur domination sociale ; de même que des cornes, des griffes acérées ou encore des ailes facilitent la survie de bien des espèces animales. Les systèmes IA n’étant pas confrontés à l’épreuve de la sélection naturelle, ils n’auront pas besoin d’élaborer de stratégie de survie. Et comme intelligence et survie ne sont pas liées, l’intelligence se concentrera sur les objectifs que nous lui aurons assignés. Donc je l’affirme : n’ayons pas peur du Terminator !

IA

© phonlamaiphoto - Fotolia.com



Etienne Klein : Je n’ai pas peur de l’intelligence artificielle en elle-même, mais je m’interroge sur notre capacité à nous en servir… intelligemment ! On voit d’ores et déjà que la numérisation a permis l’avènement d’une nouvelle condition de l’individu contemporain : dès lors qu’il est connecté, celui-ci peut désormais façonner son propre accès au monde et, en retour, être façonné par les contenus (articles, vidéos, argumentaires) qu’il reçoit en permanence de la part des algorithmes. Il se configure ainsi une sorte de monde sur mesure, de « chez-soi idéologique » qui correspond à ce qu’il aime croire et penser. Cette tendance se trouve favorisée par nos propres cerveaux qui, n’appréciant guère d’être contredits, ont tendance à déclarer vraies les idées et les informations qui leur plaisent. Pourraient donc se mettre en place ce qu’Alexis de Tocqueville appelait des « petites sociétés » rassemblant des individus qui ont des convictions et des pensées très homogènes : ces sortes de clans ne seraient nullement des lieux de réflexions ou de débats contradictoires comme les salons du XVIIIe siècle, mais les chambres d’échos des croyances et pensées de groupes particuliers. Dans une telle configuration, il ne semblerait plus nécessaire aux yeux des citoyens, enfermés dans leur « bulle cognitive », qu’ils s’accordent sur un « contrat social » (au sens de Jean-Jacques Rousseau), ni même sur les conditions de la coexistence commune. Chacun défendrait les valeurs et les idéaux de sa communauté numérique, considérés comme plus importants que ceux qu’incarnent les institutions républicaines. Se mettrait ainsi en place une individualisation du contrat social, c’est-à-dire une sorte de primauté du soi connecté sur l’ordre politique.


Comment faire face à ces problèmes éthiques ?

Etienne Klein : Un exemple de problème à la fois éthique et pratique que pose l’IA est celui dit de « l’explicabilité ». De plus en plus d’avis ou de recommandations sont proposées par les machines, sans que celles-ci puissent expliquer comment elles les ont élaborés. Par exemple, quand vous êtes dans votre voiture, un logiciel vous recommande un certain itinéraire, mais vous ne savez pas comment ce logiciel – et lui non plus – a pu vous proposer cet itinéraire plutôt qu’un autre. Si vous lui faites confiance, vous choisirez de suivre sa recommandation. Dans le cas contraire, vous déciderez de l’ignorer. Mais dès lors que ce logiciel ne peut pas expliquer comment il a abouti à sa proposition, vous ne pouvez pas faire usage d’un véritable esprit critique à son endroit. La machine a beau avoir été « éduquée », notamment par le  deep learning, elle donne son résultat sans jamais dire comment elle l’a trouvé. En d’autres termes, l’intelligence artificielle ne sait pas rendre compte de sa propre intelligence, encore moins l’expliquer.

Ce problème pouvant se retrouver dans une multitude de situations autrement plus conséquentes qu’un simple trajet automobile, on est en droit de se poser la question de savoir dans quelle mesure l’intelligence humaine conservera toujours le contrôle. Un système informatique ne comprend pas le sens de ses actions ni la portée de ses décisions. Dès lors, comment faire en sorte que l’humain garde la main sur ce que font les machines ?

gps.jpg

© Unplash


Conscientes de ces enjeux, les agences de financement exigent désormais une évaluation éthique et un suivi des projets de recherche par un comité d’éthique dit « opérationnel ». Ce qualificatif est important : il signifie qu’un tel comité ne se limite pas à la seule publication de rapports, qu’il n’a pas vocation à discuter d’éthique de façon « hors-sol », mais au contraire qu’il est en interaction directe et permanente avec les responsables des projets. Une telle structure permet de réaliser (au moins) trois ambitions : accompagner et pérenniser le questionnement éthique autour du numérique ; déployer au plus près des équipes cette démarche qui participe à la construction de la confiance ; mettre en œuvre des recommandations lors de la conception des projets ou de la mise en œuvre des technologies numériques. L’intelligence artificielle n’est pas elle-même programmée : ce qui va advenir d’elle dépend pour partie de ce que nous allons en faire.

Haut de page

Haut de page