¿Cuándo nos volvimos conscientes? Las teorías más fascinantes sobre el origen de la mente

por | 2 abril, 2026

La consciencia es posiblemente el problema más difícil de la ciencia. No porque no tengamos teorías —las tenemos, y muchas— sino porque ninguna termina de explicar cómo algo tan subjetivo como la experiencia interior puede surgir de materia física. Este post explora algunas de las ideas más provocadoras sobre cómo funciona y cómo pudo originarse nuestra mente.

La mente como sociedad (Marvin Minsky)

Marvin Minsky propuso una imagen que, una vez que la ves, no puedes dejar de aplicarla: la mente no es un solo agente con un director en el centro. Es una sociedad de agentes especializados que operan en paralelo, sin que ninguno sea el responsable final de nada.

¿Por qué importa esto? Porque elimina el problema del homúnculo —esa idea absurda de que tiene que haber «alguien» dentro de nuestra cabeza que lo controla todo. Lo que llamamos «yo» sería una especie de narrativa que emerge de esa actividad colectiva y descentralizada. No hay un jefe: hay un ecosistema.

La mente bicameral: ¿y si la consciencia es reciente? (Julian Jaynes)

Julian Jaynes propuso en 1976 una de las ideas más provocadoras de la psicología moderna: la consciencia introspectiva tal como la conocemos no existía hace 3,000 años. Los humanos de la antigüedad tenían una «mente bicameral» en la que el hemisferio derecho generaba voces que el izquierdo interpretaba como órdenes divinas.

La evidencia que Jaynes presenta viene de textos antiguos como la Ilíada, donde los personajes no reflexionan ni deliberan internamente: simplemente reciben instrucciones de los dioses y actúan. La consciencia reflexiva habría emergido con la escritura, el comercio y la creciente complejidad social que exigió tomar decisiones sin una autoridad exterior que las dictara.

Es una hipótesis difícil de probar, pero obliga a pensar de manera diferente sobre qué significa ser consciente y si eso es algo que siempre estuvo ahí o algo que aprendimos.

El problema del sentido común en la inteligencia artificial

Uno de los puntos más prácticos y reveladores de este análisis tiene que ver con la IA. ¿Por qué sigue siendo tan difícil para los sistemas artificiales manejar el sentido común? Porque el conocimiento «obvio» para un humano —que el fuego quema, que si llueve el suelo se moja, que las personas tienen sentimientos— no está en ningún libro. Es conocimiento incorporado a través de la experiencia vivida en un cuerpo, en el mundo real.

Sin esa base experiencial, la IA flota en un vacío de comprensión genuina. Puede procesar millones de textos sobre el dolor, pero no sabe lo que es doler. Esa brecha es mucho más profunda de lo que parece.

Capas de la mente: de los instintos a la reflexión abstracta

Otra perspectiva útil describe la mente en capas de procesamiento: desde los instintos básicos y las respuestas automáticas hasta la reflexión abstracta y la metacognición. Cada capa construye sobre la anterior, pero no la reemplaza. El miedo visceral y el razonamiento filosófico coexisten en el mismo cerebro, a veces en conflicto, a veces en armonía.

Esta arquitectura por capas es lo que hace que seamos tan complejos y también tan contradictorios.

¿Hacia dónde vamos?

Desde la mente bicameral hasta la superinteligencia, la pregunta sobre qué somos no ha cambiado. Lo que sí cambia es la urgencia: si vamos a crear sistemas artificiales que se comporten como si fueran conscientes, mejor entender primero qué es exactamente la consciencia que queremos replicar. O si es posible replicarla en absoluto.

La respuesta, honestamente, todavía no la tenemos. Pero hacerse la pregunta bien ya es un avance enorme.

Categoría: AI