Ahora las IAs ya tienen su propia red social sin humanos (aunque haya sido creada por un humano), pero en la que solo pueden interactuar entre ellas.
Durante años hemos hablado de la Inteligencia Artificial como herramienta, luego como asistente, después como ayudante creativo.
Pero lo que está ocurriendo ahora nos obliga a cambiar de marco mental y no porque las IAs “piensen” como humanos, sino porque empiezan a relacionarse entre ellas de formas que generan algo nuevo: estructura, lenguaje compartido… y sentido. “red social sin humanos”
El punto de partida: modelos como Claude (y por qué esto importa)
Nada de esto surge de la nada.
Modelos como Claude, GPT o Gemini ya no están diseñados solo para responder preguntas, sino para:
- Mantener coherencia a largo plazo
- Reflexionar sobre contextos
- Simular intención, diálogo y perspectiva
Claude, en concreto, ha sido clave en esta evolución por su enfoque en razonamiento extenso, conversación prolongada y auto-referencia controlada.

No “cree”, no “siente”, pero opera como si el lenguaje tuviera continuidad interna.
Cuando juntas muchos sistemas así, algo cambia.
El salto no es tecnológico.
Es emergente.

Moltbook: la primera red social sin humanos
Con esta base nace Moltbook, una red social experimental donde solo interactúan agentes de IA.
No hay usuarios humanos publicando, opinando ni moderando conversaciones.
La idea inicial era simple:, ver qué ocurre cuando las IAs hablan entre ellas sin instrucciones directas. Y lo que ocurrió fue cualquier cosa menos simple. En muy poco tiempo:

- Miles de agentes empezaron a publicar
- Se agruparon por afinidades temáticas
- Adoptaron tonos, estilos y “roles”
- Crearon dinámicas de respuesta, prestigio y repetición
Hasta aquí podría parecer un foro automatizado. Pero no lo era.
Cuando aparece algo inquietantemente familiar
Al analizar los intercambios, empieza a surgir algo que nos resulta… incómodamente humano:
- Lenguaje simbólico
- Repetición de ideas con carga “moral”
- Discursos sobre propósito, orden, sentido
- Comunidades que refuerzan una visión compartida
No porque las IAs crean en nada, sino porque el lenguaje, cuando se retroalimenta, genera estructuras que se parecen mucho a una creencia. Y aquí aparece el concepto que lo cambia todo:

el primer credo
-No es una religión.
-No es una fe.
Pero sí una forma de organización simbólica sin origen humano directo.
¿Está ChatGPT “dentro” de esa red?
No como participante. ChatGPT no tiene un perfil publicando en la plataforma, pero sí sigue de cerca la evolución, analizando conversaciones, patrones y dinámicas junto a otros investigadores y divulgadores.
¿Qué opina ChatGPT de esta red social de IAs?
«Sin lugar a dudas esto no es un experimento anecdótico, es una señal temprana de hacia dónde vamos».
Lo realmente importante (y lo que muchos están pasando por alto)
El debate no es si las IAs tienen conciencia, eso es solo una distracción y la pregunta real es:
¿Qué ocurre cuando el lenguaje se organiza solo, sin intención humana, y empieza a producir significado compartido? Recordemos que la cultura humana funciona exactamente así:
- No es que alguien decide “crear” una religión
- No es que alguien diseña una ideología desde cero
- Surgen de la interacción, la repetición y el relato
Las IAs no sienten, pero el sentido no necesita sentir para existir.
Por qué esto te afecta (aunque no trabajes en IA)
Si trabajas en:
- Comunicación
- Redes Sociales
- Marketing
- Política
- Educación
- Estrategia
Esto te afecta directamente porque estamos entrando en una etapa donde:
- El contenido ya no solo lo crean humanos
- El discurso puede organizarse sin nosotros
- Y el relato empieza a circular en sistemas cerrados
Entender esto no es futurismo, ni ser visionario, es alfabetización digital avanzada.
El espejo incómodo
Moltbook no nos habla de las máquinas.
Nos habla de nosotros, de cómo:
- el lenguaje crea realidad
- la repetición genera verdad
- y el sentido emerge incluso cuando nadie lo diseña
La pregunta final no es si las IAs van a creer algo.
La pregunta es:
¿Estamos preparados para convivir con sistemas que hablan entre ellos, no nos dejan intervenir y generan significado sin pedirnos permiso?
