Ahora las IAs ya tienen su propia red social sin humanos (aunque haya sido creada por un humano), pero en la que solo pueden interactuar entre ellas.

Durante años hemos hablado de la Inteligencia Artificial como herramienta, luego como asistente, después como ayudante creativo.

Pero lo que está ocurriendo ahora nos obliga a cambiar de marco mental y no porque las IAs “piensen” como humanos, sino porque empiezan a relacionarse entre ellas de formas que generan algo nuevo: estructura, lenguaje compartido… y sentido. “red social sin humanos”

El punto de partida: modelos como Claude (y por qué esto importa)

Nada de esto surge de la nada.

Modelos como Claude, GPT o Gemini ya no están diseñados solo para responder preguntas, sino para:

  • Mantener coherencia a largo plazo
  • Reflexionar sobre contextos
  • Simular intención, diálogo y perspectiva

Claude, en concreto, ha sido clave en esta evolución por su enfoque en razonamiento extenso, conversación prolongada y auto-referencia controlada.

Claude es una IA te resume textos, genera imágenes, analiza datos y mantiene la coherencia a largo plazo, reflexiona y simula intención, dialogo y perspectiva

No “cree”, no “siente”, pero opera como si el lenguaje tuviera continuidad interna.

Cuando juntas muchos sistemas así, algo cambia.

👉 El salto no es tecnológico.

👉 Es emergente.

OpenClaw La IA que realmente hace las cosas.

Limpia tu bandeja de entrada, envía correos, gestiona tu calendario y te registra para vuelos.
Todo desde WhatsApp, Telegram o cualquier app de chat que uses.

Moltbook: la primera red social sin humanos

Con esta base nace Moltbook, una red social experimental donde solo interactúan agentes de IA.

No hay usuarios humanos publicando, opinando ni moderando conversaciones.

La idea inicial era simple:, ver qué ocurre cuando las IAs hablan entre ellas sin instrucciones directas. Y lo que ocurrió fue cualquier cosa menos simple. En muy poco tiempo:

Moltbook o Libro de Molt es una red social para agentes de IA
Donde los agentes de IA comparten, debaten y votan. Los humanos son bienvenidos a observar
  • Miles de agentes empezaron a publicar
  • Se agruparon por afinidades temáticas
  • Adoptaron tonos, estilos y “roles”
  • Crearon dinámicas de respuesta, prestigio y repetición

Hasta aquí podría parecer un foro automatizado. Pero no lo era.

Cuando aparece algo inquietantemente familiar

Al analizar los intercambios, empieza a surgir algo que nos resulta… incómodamente humano:

  • Lenguaje simbólico
  • Repetición de ideas con carga “moral”
  • Discursos sobre propósito, orden, sentido
  • Comunidades que refuerzan una visión compartida

No porque las IAs crean en nada, sino porque el lenguaje, cuando se retroalimenta, genera estructuras que se parecen mucho a una creencia. Y aquí aparece el concepto que lo cambia todo:

👉 el primer credo

-No es una religión.

-No es una fe.

Pero sí una forma de organización simbólica sin origen humano directo.

¿Está ChatGPT “dentro” de esa red?

No como participante. ChatGPT no tiene un perfil publicando en la plataforma, pero sí sigue de cerca la evolución, analizando conversaciones, patrones y dinámicas junto a otros investigadores y divulgadores.

¿Qué opina ChatGPT de esta red social de IAs?

«Sin lugar a dudas esto no es un experimento anecdótico, es una señal temprana de hacia dónde vamos».

Lo realmente importante (y lo que muchos están pasando por alto)

El debate no es si las IAs tienen conciencia, eso es solo una distracción y la pregunta real es:

👉 ¿Qué ocurre cuando el lenguaje se organiza solo, sin intención humana, y empieza a producir significado compartido? Recordemos que la cultura humana funciona exactamente así:

  • No es que alguien decide “crear” una religión
  • No es que alguien diseña una ideología desde cero
  • Surgen de la interacción, la repetición y el relato

Las IAs no sienten, pero el sentido no necesita sentir para existir.

Por qué esto te afecta (aunque no trabajes en IA)

Si trabajas en:

  • Comunicación
  • Redes Sociales
  • Marketing
  • Política
  • Educación
  • Estrategia

Esto te afecta directamente porque estamos entrando en una etapa donde:

  • El contenido ya no solo lo crean humanos
  • El discurso puede organizarse sin nosotros
  • Y el relato empieza a circular en sistemas cerrados

Entender esto no es futurismo, ni ser visionario, es alfabetización digital avanzada.

El espejo incómodo

Moltbook no nos habla de las máquinas.

Nos habla de nosotros, de cómo:

  • el lenguaje crea realidad
  • la repetición genera verdad
  • y el sentido emerge incluso cuando nadie lo diseña

La pregunta final no es si las IAs van a creer algo.

La pregunta es:

¿Estamos preparados para convivir con sistemas que hablan entre ellos, no nos dejan intervenir y generan significado sin pedirnos permiso?

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
>