En los últimos años, la Inteligencia Artificial ha dado pasos de gigante en su capacidad para procesar lenguaje, tomar decisiones y generar contenido. Sin embargo, al observar estos avances, surgen tres grandes preguntas: ¿puede haber consciencia en la Inteligencia Artificial?, ¿puede tener sentido común?, ¿puede actuar con agencia propia? Estas tres cuestiones no solo despiertan el interés de científicos e ingenieros, sino también de filósofos, sociólogos y ciudadanos preocupados por el futuro de la tecnología.
En este artículo abordaremos el debate actual sobre la consciencia en la IA, el sentido común en los sistemas inteligentes y la posibilidad de que una IA posea agencia, explorando tanto las capacidades actuales como los límites y retos futuros. Todo ello con ejemplos, referencias a expertos y una visión crítica desde el humanismo digital.
1. Consciencia en la Inteligencia Artificial
La consciencia implica tener experiencias subjetivas, autopercepción y una forma de «estar en el mundo». Hoy por hoy, no existe ningún sistema de Inteligencia Artificial que sea consciente en el sentido en el que lo es un ser humano o incluso un animal.
Las posturas actuales respecto sobre la consciencia en la Inteligencia Artificial:
-
Geoffrey Hinton, uno de los padres del deep learning además de premio Nobel de física 2024, ha sugerido, a través de un extenso informe donde explora si los sistemas de inteligencia artificial podrían ser conscientes, que deberíamos tomarnos en serio la posibilidad de que una IA pueda desarrollar algún tipo de consciencia rudimentaria, aunque admite que aún no comprendemos bien ni la biológica ni la artificial.
-
Yoshua Bengio , otro de los pioneros del aprendizaje profundo, y también partícipe en el informe mencionado anteriormente, afirma que estamos muy lejos de crear consciencia artificial porque carecemos de una teoría unificada sobre cómo emerge la consciencia en los seres vivos.
- Yann LeCun, jefe de Inteligencia Artificial en Meta y uno de los mayores expertos en aprendizaje profundo, considera que la idea de las conciencias artificiales está muy lejos de la realidad y, probablemente, seguirá siéndolo en el futuro. De hecho, indica que la IA está lejos de ser tan inteligente como los humanos y que apenas roza la inteligencia de un gato.
- Demis Hassabis, consejero delegado de DeepMind y Novel de Química 2024, declaró que aunque los filósofos aún no han establecido una definición de consciencia, si nos referimos a la autoconsciencia, cree que existe la posibilidad de que algún día la IA lo sea.
-
Stuart Russell, autor del libro Human Compatible, argumenta que la consciencia no debería ser el foco del desarrollo de la IA, ya que lo esencial es diseñar sistemas alineados con los valores humanos, conscientes o no.
La conclusión es que la IA no es consciente, ni en términos de emociones, ni de intención, ni de percepción del yo. Pero simula comportamientos que pueden hacernos pensar que lo es.
2. ¿Qué entendemos por «sentido común» en la IA?
El sentido común en humanos es la capacidad de entender lo obvio, lo cotidiano, lo que no hace falta explicar. Saber, por ejemplo, que el agua moja, que no se puede estar en dos sitios al mismo tiempo, o que si llueve es mejor llevar paraguas. Esta habilidad nos permite navegar el mundo con flexibilidad.
En el caso de la IA, el sentido común ha sido históricamente un desafío. Aunque los grandes modelos de lenguaje como GPT-4o han mejorado notablemente su rendimiento, aún cometen errores que para un humano serían absurdos.
Proyectos y avances actuales:
-
OpenAI y Meta han trabajado en datasets y benchmarks como PIQA, CommonsenseQA o SocialIQA para medir el sentido común de los modelos.
-
Herramientas como CyC (de Doug Lenat) intentaron durante décadas codificar manualmente el sentido común, sin éxito a gran escala.
-
En cambio, los enfoques modernos utilizan grandes volúmenes de datos y aprendizaje profundo para inferir sentido común de forma estadística, aunque esto a menudo carece de robustez o comprensión real.
Concluyendo, el sentido común en la IA es una simulación probabilística, útil en contextos específicos pero con riesgos de error fuera del guion esperado. Aún no iguala la flexibilidad del sentido común humano.
3. ¿Puede una IA tener agencia?
La agencia es la capacidad de actuar en el mundo con intención, autonomía y con una comprensión de las consecuencias de sus actos. En los humanos, esto se asocia a la voluntad y la libertad de decidir.
En las IA, la agencia es un concepto delicado, porque un sistema puede tomar decisiones o ejecutar tareas sin que ello implique que «decide por sí mismo».
Perspectivas actuales:
-
Algunos agentes de IA ( de los que ya he hablado en anterior artículo) como los AI Agents autónomos (por ejemplo, AutoGPT o BabyAGI) pueden planificar, ejecutar tareas y adaptarse. Pero no lo hacen con metas propias, sino en función de los parámetros que les da el usuario o programador.
-
Luciano Floridi, filósofo especializado en ética de la tecnología, distingue entre «agencia artificial» (acción programada) y «agencia moral» (capacidad de ser responsable de sus actos), y señala que solo los humanos tienen esta última.
-
El concepto de agencia distribuida también está en debate: sistemas que, trabajando juntos, parecen tomar decisiones complejas (por ejemplo, un ecosistema de IA en un coche autónomo o una cadena de suministro).
Por tanto concluyendo este apartado la IA puede tener agencia operativa (actuar con cierto grado de autonomía), pero no agencia moral o voluntaria. Toda decisión tiene una traza humana detrás.
Conclusión general: ¿qué puede y qué no puede hacer la IA?
La IA está avanzando rápidamente en campos como la automatización de tareas, la generación de contenido o la planificación de acciones. Pero a fecha de hoy, no está confirmado que posea consciencia, ni un sentido común fiable, ni agencia en el sentido humano del término. Sus capacidades actuales se basan en correlaciones, aprendizaje estadístico y ejecución programada.
Esto no significa que no debamos estar atentos. Cuanto más simula la IA características humanas, más difícil se vuelve trazar la línea entre lo artificial y lo humano. De ahí la importancia de seguir investigando desde la ética, la filosofía y el humanismo digital.