Vous êtes ici : Accueil > Actualités > Qui est réellement l’IA ?

Actualité | Idées et débats | Focus | Nouvelles technologies | Intelligence artificielle

Idées & débats - Regards croisés

Qui est réellement l’IA ?


Omniprésente dans nos activités sur internet, tout autant dans la recherche que dans l’industrie, l’intelligence artificielle (IA) fascine et interroge. Comment l’humain organisera-t-il son rapport avec elle ? Et de quoi parle-t-on d’ailleurs ? Echange entre François Terrier, directeur de recherche et du programme Intelligence artificielle du CEA-List et Raphaël Granier de Cassagnac, auteur et directeur de la chaire Sciences et jeux vidéo de l’Ecole polytechnique.


Publié le 10 novembre 2022
​Cet article est l’extrait d’un échange qui s'est tenu dans le cadre du cycle de rencontres « Science toi-même ! », organisées par le CEA et CENTQUATRE-PARIS.

Quelle est votre définition de l'intelligence artificielle ?

François Terrier : Selon l’OCDE, l’intelligence artificielle (IA) est un ensemble de techniques permettant de faire réaliser à une machine des tâches habituellement réservées aux êtres humains. Le terme « habituellement » est intéressant car il induit que la perception de l’IA peut évoluer au cours du temps. Cette définition introduit la notion d’IA spécifique (ou IA faible) qui est ciblée sur une problématique pour laquelle on cherche à dépasser les capacités de l’être humain au niveau de sa rapidité, de son endurance. Elle conduit à un autre concept, celui d’IA généraliste (IA forte) fondée sur le mythe du système doté de qualités humaines, fonctionnelles et émotionnelles. Pour en revenir au concret, l’une des technologies d’IA spécifique est l’apprentissage machine (ou deep learning) qui consiste à corréler les données entrées dans un système avec les tâches qu’il exécutera. Si je vous disais corrélation automatique plutôt qu’IA, vous vous poseriez moins de questions !

Raphaël Granier de Cassagnac : Dans mes romans, j’opère la même distinction, en nommant « intelligence artificielle » l’IA faible et « conscience artificielle » l’IA forte. Cette dernière calquant le comportement humain dans toute sa variété et complexité. « Mes » scientifiques développent cette conscience en reproduisant le fonctionnement du cerveau dans le silicium ; alors que l’IA est plutôt un logiciel conçu pour des tâches spécifiques qui assiste l’humanité. J’aime beaucoup également la relativité temporelle évoquée par François car, à l’époque, on aurait pu considérer une calculatrice comme étant une IA, mais plus maintenant !

L'IA pourra-t-elle selon vous égaler l'humain voire prendre le pouvoir à l'instar de nombreux scénarios de science-fiction ? 

Raphaël Granier de Cassagnac : Dans la science-fiction, l’IA forte a tendance à se retourner contre son concepteur, ce qui véhicule des fantasmes de peur. Dans le film 2001, l’odyssée de l’espace de Stanley Kubrick ou, même avant, dans Alphaville de Jean-Luc Godart, la machine a peur d’être débranchée, à l’instar de l’humain et de sa peur de la mort. Je note aujourd’hui un glissement optimiste : dans le film Her de Spike Jonze, l’IA collabore harmonieusement avec l’humain. Elle est multiple, redondante et comme elle est dans le cloud et non plus dans un ordinateur, elle ne craint plus la mort ! Mais cela reste de la fiction car je doute que l’on soit capable de développer dans quinze ans un cerveau en silicium.

François Terrier : Je souscris totalement car je peine à considérer que l’intelligence ne soit que du calcul et du rationnel. Quid des aspects cognitif, émotionnel et psychique ? Certes, la technologie permet de donner l’illusion d’une machine humaine, pourvu que l’on soit en visio-conférence et avec un son brouillé ! Même les meilleurs chatbots (robots conversationnels sur internet) ne tiennent pas sur la longueur : si la discussion se poursuit, on se rend compte que l’IA n’a pas compris correctement les premières questions, qu’elle ne prend pas en compte leur sémantique ni vraiment leur signification.

Pourquoi l'IA suscite-t-elle votre intérêt ?

François Terrier : L'IA développée pour internet ne m’intéresse pas outre mesure. Mais les systèmes conçus pour l’industrie ou pour la recherche sur les maladies rares sont bien plus motivants : l’IA sur des enjeux compliqués, que les grands groupes n’ont pas développé justement parce que c’est compliqué, est un défi scientifique passionnant.

Pourquoi le biais en IA est-il crucial ?

François Terrier : Dans une IA à base d’apprentissage, on programme un algorithme pour qu’il corrèle des données d’entrée à une exécution par le système. Mais les données ne sont pas introduites dans leur état brut ni par hasard. Elles sont mises en forme et annotées, c’est-à-dire que l’humain décrit ce qui s’y trouve. Ce n’est pas la machine qui invente le concept du chat – à trouver dans une image – si on ne lui indique pas qu’il y a un chat. Cette étape d’annotation induit le risque d’introduction de biais. Par exemple, l’Etat hollandais avait mis en place un système de détection des fraudes aux aides sociales. Au bout de quelques mois, il a dû faire marche arrière suite à une avalanche de procès car l’IA avait créé un biais statistique vis-à-vis des personnes étrangères, du fait d’avoir mis l’accent sur une particularité des données plutôt que sur l’ensemble des critères renseignés. C’est pourquoi il est impératif de qualifier les systèmes avant de les exploiter. Il s’agit de vérifier toutes les annotations, analyser ce qui a été appris, détecter des phénomènes inattendus et des grandes tendances pour décider si cela convient. C’est de la science de pointe.


Raphaël Granier de Cassagnac : Ces boucles de vérification, s’assurant en permanence que les biais observés restent éthiques, sont en effet cruciales. Un autre point fondamental est celui de savoir quels moyens accorder à l’IA et de prévoir un gros bouton rouge permettant à l’humain de stopper à tout moment la machine. Prenons le cas du véhicule autonome et de la décision que son IA prendrait en cas d’accident : tourner à gauche et mourir contre un platane ou tourner à droite et faucher un cycliste ? Qui sera responsable ?

Comment encadrer l'IA sur le plan éthique et juridique ? Quels sont les risques en l'absence d'un cadre ?

François Terrier : Nous avons la chance que l’Europe se soit emparée de cette question. Cela a commencé par une réflexion éthique et aboutit aujourd’hui à une réglementation, l’IA Act, selon laquelle la responsabilité incombe aux fabricants et aux usagers. Et ce, même si de grands groupes ont parfois milité pour que seule l’IA soit responsable (autant dire personne !). Le parlement estime en effet qu’il faut qualifier la technologie, l’algorithme mais aussi les usages et les risques potentiels, ce qui incombe à l’humain. 

Pour le CEA, la confiance en l’IA est un enjeu primordial. Dès 2017, nous avons compris qu’au-delà de son utilisation dans la recherche, l’IA se retrouverait dans les systèmes industriels et nécessiterait des garanties. C’est pourquoi nous avons lancé un grand programme en la matière. Tout comme nous avons un comité d’éthique du numérique. Certes l’Europe est en retard par rapport aux Etats-Unis et à la Chine sur le volume de données acquises et disponibles. Mais elle est à la pointe sur ces enjeux d’éthique et de confiance. Elle interdit notamment à toute IA non qualifiée pour des usages à risque de pénétrer sur le marché européen. Avec, en sous-texte, des intérêts évidents de souveraineté économique.

Raphaël Granier de Cassagnac : Ce qui pourrait devenir inquiétant, c’est si les grands entreprises conceptrices d’IA, possédant un volume colossal de données personnelles et une énorme puissance financière, s’emparaient d’un pouvoir politique. Dans l’un de mes romans, j’avance l’idée que des « sociétats » ont leur propre pays, leur propre milice… Peu après l’avoir écrit, j’ai eu la surprise de lire que Larry Page, co-fondateur de Google, appelait de ses vœux un « territoire pour expérimenter de nouvelles formes de gouvernance ». Mais je reste optimiste de voir que les citoyens s’emparent de ce débat et peuvent l’influencer, à l’image de la position européenne et même d’un réveil des consciences réelles !

Un article extrait des Défis du CEA n°250



Haut de page

Haut de page