¿Qué es la IAG y cómo sabríamos que ha llegado?
La inteligencia artificial general promete máquinas que piensan como los humanos en todos los ámbitos, pero los científicos ni siquiera se ponen de acuerdo sobre lo que significa IAG, y mucho menos sobre cómo medirla.
El término que todo el mundo usa, pero nadie define
La inteligencia artificial general (IAG) se ha convertido en la estrella polar de la industria tecnológica. Empresas desde OpenAI hasta Google DeepMind y Nvidia invierten miles de millones en la búsqueda de una máquina que pueda igualar o superar la cognición humana en prácticamente cualquier tarea. Sin embargo, bajo la exageración se esconde un problema fundamental: nadie se pone de acuerdo sobre lo que realmente significa IAG, y sin una definición compartida, las afirmaciones sobre su consecución siguen siendo imposibles de verificar.
IA Débil vs. Inteligencia General
Todos los sistemas de IA en uso hoy en día —desde asistentes de voz hasta generadores de imágenes y herramientas de diagnóstico médico— se clasifican como IA débil (también llamada inteligencia artificial estrecha o ANI). Estos sistemas sobresalen en tareas específicas y bien definidas, pero no pueden transferir sus habilidades a nuevos dominios. Un motor de ajedrez que derrota a grandes maestros no sabe nada sobre el lenguaje; un chatbot que escribe poesía no puede conducir un coche.
La IAG, por el contrario, sería un sistema capaz de aprender, razonar y adaptarse a prácticamente todas las tareas cognitivas que un humano puede realizar. Podría leer un informe legal, diagnosticar una enfermedad, componer una sinfonía y negociar un acuerdo comercial, todo ello sin estar específicamente programado para cada tarea. El concepto surgió para describir un sistema con la flexibilidad de la mente humana, uno que puede tomar una pequeña cantidad de información y generalizarla a situaciones completamente nuevas.
Por qué la definición es importante
Lo que está en juego al definir la IAG va mucho más allá del debate académico. Como ha documentado la revista Science, investigadores de la informática, la ciencia cognitiva, la política y la ética aportan cada uno una comprensión fundamentalmente diferente del concepto. Algunos definen la IAG por el rendimiento en pruebas de referencia, otros por el funcionamiento interno, el impacto económico o, como señalan los críticos, simplemente por "sensaciones".
Esta ambigüedad tiene consecuencias reales. En empresas como OpenAI y Microsoft, las cláusulas contractuales y los acuerdos de participación en los beneficios están vinculados a si la IAG se ha alcanzado oficialmente. Si la definición es lo suficientemente elástica como para significar cualquier cosa, puede desplegarse estratégicamente, o prematuramente.
Marcos para medir el progreso
Varias organizaciones han intentado imponer estructura al caos. Google DeepMind publicó un marco de "Niveles de IAG" que define cinco niveles de rendimiento —Emergente, Competente, Experto, Virtuoso y Sobrehumano— cruzados con la amplitud de la capacidad, desde estrecha (un solo dominio) hasta general (tareas cognitivas amplias). Una "IAG Competente" superaría el rendimiento del 50% de los adultos cualificados en una amplia gama de tareas, mientras que una "IAG Sobrehumana" superaría el 100%.
Fundamentalmente, DeepMind separa el rendimiento de la autonomía, argumentando que la capacidad de un sistema y la independencia con la que opera son dos cuestiones diferentes que deben evaluarse por separado.
OpenAI mantiene su propia escala interna de cinco niveles para seguir el progreso. Mientras tanto, pruebas de referencia como ARC-AGI intentan probar la capacidad de razonamiento genuino en lugar de la memorización de patrones, aunque los críticos argumentan que ninguna prueba única puede probar definitivamente la inteligencia general, al igual que ninguna prueba de coeficiente intelectual captura perfectamente la cognición humana.
Por qué los escépticos se oponen
Los científicos cognitivos señalan un problema más profundo: la ciencia no tiene una definición rigurosa de "inteligencia general" ni siquiera en los humanos. La inteligencia no es una única cantidad que pueda aumentarse o disminuirse, sino una compleja integración de capacidades especializadas y generales moldeadas por la evolución, la cultura y la experiencia.
Como ha informado Scientific American, los sistemas de IA actuales todavía alucinan hechos, tienen dificultades con el razonamiento novedoso y carecen de una comprensión genuina en la forma en que los humanos la construyen a través de la experiencia vivida. Algunos investigadores, incluido Yann LeCun de Meta, argumentan que la inteligencia —incluso la inteligencia humana— es fundamentalmente especializada y optimizada para tareas, lo que hace que el concepto de inteligencia "general" sea engañoso.
La dimensión de la seguridad
Llegue o no pronto la IAG, su búsqueda plantea urgentes cuestiones de seguridad. Los investigadores advierten sobre el problema del control: cómo garantizar que un sistema que se auto-mejora recursivamente siga comportándose de forma alineada con los valores humanos. Las preocupaciones van desde el desplazamiento laboral y la manipulación política hasta, en el extremo, el riesgo existencial.
Muchos expertos en seguridad de la IA argumentan que la fijación en la IAG como un hito futuro distrae de los daños actuales —sesgos algorítmicos, desinformación de deepfakes y la erosión de las habilidades de pensamiento crítico— que exigen atención ahora, independientemente de cuándo o si las máquinas alcanzan la cognición a nivel humano.
Un objetivo en movimiento
Quizás la evaluación más honesta de la IAG es que sigue siendo un objetivo en movimiento. Cada vez que la IA domina una tarea que antes se pensaba que requería inteligencia general —jugar al Go, escribir código, aprobar exámenes médicos—, los objetivos cambian. Lo que antes se consideraba una prueba de la IAG se convierte, en retrospectiva, en otro logro limitado. Hasta que los científicos se pongan de acuerdo sobre una definición, la pregunta "¿Hemos alcanzado la IAG?" puede decir más sobre la persona que responde que sobre la propia tecnología.