Qu'est-ce que l'IAG et comment saurions-nous qu'elle est là ?
L'intelligence artificielle générale promet des machines capables de penser comme des humains dans tous les domaines, mais les scientifiques ne parviennent même pas à s'accorder sur la signification de l'IAG, et encore moins sur la manière de la mesurer.
Le terme que tout le monde utilise, mais sur lequel personne ne s'accorde
L'intelligence artificielle générale (IAG) est devenue l'étoile polaire de l'industrie technologique. Des entreprises comme OpenAI, Google DeepMind et Nvidia investissent des milliards dans la recherche d'une machine capable d'égaler ou de surpasser la cognition humaine dans pratiquement toutes les tâches. Pourtant, derrière le battage médiatique se cache un problème fondamental : personne ne s'accorde sur ce que signifie réellement l'IAG, et sans définition commune, les affirmations concernant sa réalisation restent impossibles à vérifier.
IA étroite vs. Intelligence générale
Chaque système d'IA utilisé aujourd'hui — des assistants vocaux aux générateurs d'images en passant par les outils de diagnostic médical — est classé comme IA étroite (également appelée intelligence artificielle étroite, ou IAE). Ces systèmes excellent dans des tâches spécifiques et bien définies, mais ne peuvent pas transférer leurs compétences à de nouveaux domaines. Un moteur d'échecs qui bat des grands maîtres ne sait rien du langage ; un chatbot qui écrit de la poésie ne peut pas conduire une voiture.
L'IAG, en revanche, serait un système capable d'apprendre, de raisonner et de s'adapter à pratiquement toutes les tâches cognitives qu'un humain peut effectuer. Il pourrait lire un mémoire juridique, diagnostiquer une maladie, composer une symphonie et négocier un accord commercial, le tout sans être spécifiquement programmé pour chaque tâche. Le concept a émergé pour décrire un système doté de la flexibilité de l'esprit humain, capable de prendre une petite quantité d'informations et de la généraliser à des situations entièrement nouvelles.
Pourquoi la définition est importante
Les enjeux de la définition de l'IAG dépassent largement le débat académique. Comme l'a documenté la revue Science, les chercheurs en informatique, en sciences cognitives, en politique et en éthique ont chacun une compréhension fondamentalement différente du concept. Certains définissent l'IAG par ses performances sur des bancs d'essai, d'autres par son fonctionnement interne, son impact économique ou, comme le notent les critiques, simplement par des « impressions ».
Cette ambiguïté a des conséquences réelles. Dans des entreprises comme OpenAI et Microsoft, les clauses contractuelles et les accords de partage des bénéfices sont liés à la question de savoir si l'IAG a été officiellement atteinte. Si la définition est suffisamment élastique pour signifier n'importe quoi, elle peut être déployée de manière stratégique — ou prématurée.
Cadres de mesure des progrès
Plusieurs organisations ont tenté d'imposer une structure au chaos. Google DeepMind a publié un cadre de « Niveaux d'IAG » qui définit cinq niveaux de performance — Émergent, Compétent, Expert, Virtuose et Surhumain — croisés avec l'étendue des capacités, de étroit (domaine unique) à général (tâches cognitives larges). Une « IAG compétente » surpasserait 50 % des adultes qualifiés dans un large éventail de tâches, tandis qu'une « IAG surhumaine » surpasserait 100 %.
Il est essentiel que DeepMind sépare la performance de l'autonomie, arguant que la capacité d'un système et son degré d'indépendance sont deux questions différentes qui doivent être évaluées séparément.
OpenAI maintient sa propre échelle interne à cinq niveaux pour suivre les progrès. Pendant ce temps, des bancs d'essai comme ARC-AGI tentent de tester la véritable capacité de raisonnement plutôt que la mémorisation de schémas — bien que les critiques soutiennent qu'aucun test unique ne peut prouver définitivement l'intelligence générale, tout comme aucun test de QI unique ne capture parfaitement la cognition humaine.
Pourquoi les sceptiques s'opposent
Les spécialistes des sciences cognitives soulignent un problème plus profond : la science n'a pas de définition rigoureuse de « l'intelligence générale », même chez les humains. L'intelligence n'est pas une quantité unique qui peut être augmentée ou diminuée, mais une intégration complexe de capacités spécialisées et générales façonnées par l'évolution, la culture et l'expérience.
Comme l'a rapporté Scientific American, les systèmes d'IA actuels hallucinent encore des faits, ont du mal avec le raisonnement nouveau et manquent d'une compréhension authentique de la manière dont les humains la construisent grâce à l'expérience vécue. Certains chercheurs, dont Yann LeCun de Meta, soutiennent que l'intelligence — même l'intelligence humaine — est fondamentalement spécialisée et optimisée pour les tâches, ce qui rend le concept d'intelligence « générale » lui-même trompeur.
La dimension de la sécurité
Que l'IAG arrive bientôt ou non, sa poursuite soulève des questions de sécurité urgentes. Les chercheurs mettent en garde contre le problème du contrôle : comment s'assurer qu'un système qui s'améliore de manière récursive continue de se comporter d'une manière conforme aux valeurs humaines. Les préoccupations vont du déplacement d'emplois et de la manipulation politique au risque existentiel, à l'extrémité.
De nombreux experts en sécurité de l'IA soutiennent que la fixation sur l'IAG comme jalon futur détourne l'attention des préjudices actuels — biais algorithmiques, désinformation par deepfake et érosion des compétences de pensée critique — qui exigent une attention immédiate, indépendamment du moment où les machines atteignent ou non un niveau de cognition humaine.
Une cible mouvante
L'évaluation la plus honnête de l'IAG est peut-être qu'elle reste une cible mouvante. Chaque fois que l'IA maîtrise une tâche que l'on pensait autrefois nécessiter une intelligence générale — jouer au Go, écrire du code, réussir des examens médicaux — les objectifs changent. Ce qui était autrefois considéré comme une preuve de l'IAG devient, avec le recul, juste une autre réalisation étroite. Tant que les scientifiques ne s'accorderont pas sur une définition, la question « Avons-nous atteint l'IAG ? » en dira peut-être plus sur la personne qui répond que sur la technologie elle-même.