Marketing Digital, Noticias, Redes Sociales, X

X publica el código de su algoritmo: así funciona

Analizamos el código abierto del algoritmo de X recién publicado: ranking, embeddings, Grok y las señales que deciden el feed Para Ti.

En enero de 2026, la plataforma X (antes Twitter) marcó un hito sin precedentes en la industria tecnológica al liberar como open source el código de su algoritmo de recomendaciones para el feed “Para ti”.

El anuncio, realizado por Elon Musk el 10 de enero, confirmó no solo la apertura del sistema que decide qué contenidos vemos —tanto orgánicos como publicitarios—, sino también un compromiso poco habitual en la industria: actualizaciones cada cuatro semanas, acompañadas de notas técnicas exhaustivas dirigidas a desarrolladores e investigadores.

La decisión se produce en un contexto de creciente presión regulatoria. Normativas como el Digital Services Act en la Unión Europea exigen a las grandes plataformas documentar y justificar el funcionamiento de sus sistemas algorítmicos hasta 2026.

En este escenario, X adopta una postura singular: exponer públicamente la arquitectura de un sistema de recomendación moderno, entrenado de extremo a extremo con machine learning, que impacta diariamente en la experiencia de más de 600 millones de usuarios activos mensuales.

El algoritmo de X, publicado en el repositorio oficial de GitHub de xAI (xai-org/x-algorithm) bajo licencia Apache 2.0, se apoya en una arquitectura de transformadores derivada de Grok, el modelo de lenguaje de xAI.

Aunque elimina prácticamente todas las características o variables de entrada (“hand-engineered features”) diseñadas manualmente, el sistema conserva heurísticas mínimas y explícitas, necesarias para garantizar diversidad, estabilidad y control del feed. Este equilibrio entre aprendizaje automático puro y mecanismos de control deliberado es una de las claves de su diseño.

Desde una perspectiva técnica, el sistema de ranking se basa en un modelo de scoring aditivo probabilístico, donde el valor final de cada publicación no depende de reglas explícitas, sino de la combinación ponderada de múltiples predicciones de comportamiento del usuario. De forma ilustrativa, el scoring puede representarse como:

Final Score = Σ (weightᵢ × P(actionᵢ))

donde los weights positivos priorizan acciones de engagement profundo (como P(reply) o P(dwell)), mientras que los pesos negativos —especialmente para P(block_author) o P(mute_author)— introducen penalizaciones persistentes que afectan tanto al contenido como a la representación vectorial del autor.

A nivel de infraestructura, el sistema está diseñado para escalar a más de 600 millones de usuarios activos mensuales, manteniendo latencias extremadamente bajas.

El componente Thunder utiliza in-memory stores y pipelines paralelos, permitiendo lookups sub-milisegundo sobre un grafo social de cientos de millones de nodos. Esta combinación de scoring probabilístico y optimización de latencia es clave para que el ranking funcione en tiempo real sin heurísticas manuales complejas.

Antecedentes y anuncio oficial

El 10 de enero de 2026, Elon Musk anunció públicamente en X que el algoritmo de recomendaciones sería liberado como código abierto en un plazo de siete días.

El 20 de enero, el equipo de X Engineering cumplió el anuncio publicando el repositorio completo, acompañado de un README técnico que describe la arquitectura modular, los flujos de datos y la filosofía de diseño del sistema.

El proyecto está desarrollado principalmente en Rust y Python (según el análisis del propio repositorio en GitHub), una combinación que refleja prioridades claras: Rust para componentes críticos de alto rendimiento y baja latencia, y Python para la experimentación y el entrenamiento de modelos.

La elección de la licencia Apache 2.0 permite auditorías independientes, forks comunitarios y reutilización comercial, reforzando la apuesta por una transparencia funcional y no meramente simbólica.

Este movimiento coincide con el crecimiento acelerado de xAI —valorada ya en más de 230.000 millones de dólares— y con la expansión del centro de datos Colossus, diseñado para entrenar y servir modelos de gran escala con decenas de miles de GPU. En conjunto, el mensaje es inequívoco: X no solo quiere que su algoritmo sea auditable, sino que sea competitivo a escala planetaria.

El entrenamiento de estos modelos se apoya en Colossus, el centro de datos de xAI diseñado para entrenamiento a escala planetaria. Más allá de su capacidad actual con decenas de miles de GPUs, el roadmap técnico apunta a superar el millón de GPUs, lo que permitiría una optimización agresiva de hiperparámetros y entrenamiento continuo de transformers con billones de parámetros.

Este nivel de cómputo no solo habilita modelos más grandes, sino ciclos de iteración más rápidos sobre señales reales de engagement, cerrando el bucle entre comportamiento de usuarios, embeddings aprendidos y ranking final. En este contexto, la apertura del código del algoritmo de X no es un gesto aislado, sino parte de una estrategia para legitimar sistemas entrenados a una escala sin precedentes.

Principales novedades del nuevo algoritmo

1. Ranking basado en transformadores derivados de Grok (embeddings semánticos avanzados)

El núcleo del sistema de ranking utiliza un transformer portado de la arquitectura de Grok, entrenado específicamente para tareas de recomendación. Este modelo no decide de forma determinista qué contenido mostrar, sino que predice probabilidades de interacción futura, entre ellas:

  • P(like)
  • P(reply)
  • P(repost)
  • P(bookmark)
  • P(dwell)
  • P(block_author)

Estas probabilidades se combinan posteriormente mediante un Weighted Scorer, que calcula una puntuación final como suma ponderada de cada acción esperada.

Matiz clave sobre la multimodalidad

Aunque el repositorio publicado se centra en la orquestación, el retrieval y el ranking, el hecho de que la arquitectura esté derivada de Grok —y no de un modelo textual clásico— implica una capacidad más amplia que el simple procesamiento de texto.

Desde Grok-1.5 (2024), la arquitectura ya incorpora visión, por lo que es razonable asumir que los embeddings generados en 2026 alinean semánticamente texto e imagen, incluso si el modelo de visión no se distribuye explícitamente en el repositorio.

En la práctica, esto significa que el sistema tiende a penalizar la disonancia semántica: imágenes puramente clickbait o visuales que no refuerzan el contenido textual generan vectores de menor coherencia y, por tanto, menor puntuación esperada.

Capacidad multimodal implícita

Aunque el repositorio no incluye un modelo de visión explícito, el sistema incorpora multimodalidad de forma indirecta mediante predicciones relacionadas con consumo de media (P(video_view), P(photo_expand), P(dwell)).

Esto permite capturar coherencia entre texto, imagen y comportamiento del usuario. Dado que Grok-1.5V ya introdujo visión multimodal, el diseño actual deja abierta una extensión natural hacia embeddings fusionados texto–imagen sin alterar la arquitectura general.

Tabla ilustrativa de predicciones clave

Esta jerarquía refuerza que no todo engagement es igual: las respuestas y conversaciones pesan más que interacciones pasivas, mientras que las señales negativas tienen efectos duraderos.

PredicciónTipoImpacto técnico en el score
P(reply)PositivoAlto; prioriza engagement conversacional profundo
P(block_author)NegativoDesproporcionado; penaliza persistentemente vía negative weights
P(video_view)PositivoImplícito multimodal; mide dwell time en contenido audiovisual

2. Eliminación de features manuales, no de toda heurística

El README del proyecto es explícito: se han eliminado todas las features diseñadas manualmente y la mayoría de heurísticas, pero no todas. Permanecen mecanismos deliberados como:

  • El Author Diversity Scorer, que reduce la visibilidad de publicaciones consecutivas de un mismo autor.
  • Pesos fijos en el cálculo del score final.
  • Filtros de seguridad y señales negativas.

Este enfoque híbrido refleja una lección aprendida en sistemas de recomendación a gran escala: un modelo puramente end-to-end sin restricciones tiende a colapsar en comportamientos no deseados, como spam o monopolización del feed por unos pocos autores.

3. Código abierto… pero no los pesos entrenados

Una de las novedades más celebradas es también una de sus principales limitaciones. X ha liberado el código del algoritmo (la lógica y la arquitectura), pero no los parámetros entrenados (weights) del modelo.

Esta distinción es crucial desde un punto de vista técnico: disponer del código sin los pesos es equivalente a tener los planos de un motor de Fórmula 1 sin la electrónica ni la calibración final. Permite auditar cómo funciona el sistema, identificar sesgos estructurales y comprender las decisiones de diseño, pero impide reproducir exactamente el comportamiento del algoritmo fuera de los servidores de X.

4. Jerarquía de interacciones sin “magic numbers” públicos

El repositorio no incluye los valores numéricos exactos que ponderan cada probabilidad de interacción. Sin embargo, la estructura del Weighted Scorer confirma una jerarquía clara:

  • Las interacciones profundas (respuestas, tiempo de permanencia, marcadores) tienen un impacto positivo elevado.
  • Las señales negativas (P(block_author), P(mute_author)) tienen pesos negativos desproporcionados y efectos persistentes.
  • Los pesos son configurables y pueden variar entre versiones, lo que explica la necesidad de actualizaciones periódicas.

Cómo funciona el algoritmo: visión técnica ampliada

Thunder y Phoenix: dos mundos conectados por datos

El sistema separa claramente dos espacios de distribución:

  • Thunder (In-Network) gestiona el contenido de cuentas que el usuario ya sigue. Ingiere eventos en tiempo real vía Kafka y utiliza stores en memoria para mantener latencias extremadamente bajas.
  • Phoenix (Out-of-Network) se encarga del descubrimiento global, utilizando un modelo two-tower para recuperar candidatos mediante similitud de embeddings y un transformer para el ranking final.

Phoenix opera de forma independiente para descubrir contenido nuevo, pero se nutre directamente de las señales de éxito generadas en Thunder. Si una publicación no resuena primero con la audiencia existente del autor, es estadísticamente improbable que genere los vectores de alta interacción necesarios para ser seleccionada por Phoenix y distribuida a audiencias globales.

En otras palabras: la viralidad no empieza en Phoenix, empieza en Thunder.

Un detalle crítico del ranking es el uso de attention masking dentro del transformer. Este mecanismo asegura el aislamiento total entre candidatos, evitando que la atención de un post influya en el score de otro dentro del mismo batch.

Este diseño tiene dos consecuencias clave:

  1. Previene efectos colaterales entre candidatos (no hay “contaminación” de contexto).
  2. Permite cachear scores independientes, optimizando latencia y reduciendo recomputación en escenarios de alto tráfico.

En la práctica, el attention masking convierte el ranking en un proceso determinista por candidato, incluso cuando se evalúan miles de publicaciones en paralelo.

Impacto y debate ético

La apertura del algoritmo ha sido recibida como un avance histórico, pero también con cautela. La ausencia de los pesos entrenados limita la reproducibilidad completa del sistema, y persisten dudas razonables sobre posibles señales internas no expuestas o divergencias entre el código publicado y el entorno de producción real.

Aun así, el impacto es significativo. La comunidad puede auditar la arquitectura, detectar posibles sesgos estructurales, analizar riesgos de adversarial attacks sobre embeddings o incluso proponer mejoras en el diseño del pipeline. En una industria tradicionalmente dominada por la opacidad, X introduce una nueva dinámica: la transparencia como ventaja competitiva.

La liberación del código abre la puerta a forks impulsados por la comunidad, auditorías independientes y experimentación académica con sistemas de recomendación a gran escala. Sin embargo, también expone vectores de riesgo: los embeddings densos son vulnerables a ataques adversariales, como gradient-based perturbations o data poisoning, que podrían manipular señales de engagement durante el entrenamiento.

Esto desplaza el debate ético desde “qué reglas usa el algoritmo” hacia “cómo se protege el espacio vectorial que representa a los usuarios y al contenido”.

Conclusión

La publicación del algoritmo de X no es solo un gesto político ni una maniobra de marketing. Es la primera vez que una red social de escala global expone con este nivel de detalle un sistema de recomendación moderno basado en transformadores, embeddings densos y aprendizaje de extremo a extremo.

Aunque el acceso al código no equivale a un acceso total al “cerebro” del sistema —los pesos siguen siendo privados—, el precedente es claro. Si X mantiene la coherencia entre lo que publica y lo que ejecuta, podríamos estar ante el inicio de una nueva era de auditoría algorítmica real, donde entender cómo se distribuye la atención deja de ser un privilegio exclusivo de las plataformas.

Más allá del impacto inmediato en X, este sistema establece un precedente histórico para auditorías de recommender systems basados en transformadores a escala masiva. La combinación de código abierto, entrenamiento continuo y escalado vía Colossus posiciona esta arquitectura como un puente natural hacia sistemas más generales de inteligencia artificial.

En ese sentido, el algoritmo de X no es solo un ranking social: es un experimento vivo sobre cómo infraestructura, embeddings y comportamiento humano pueden integrarse en sistemas cercanos a la AGI cuando el cómputo deja de ser la principal limitación.

5/5 - (1 voto)

Sobre el autor

Picture of Carlos Gracia
Carlos Gracia
Especialista en marketing digital y diseñador web desde 1995. Con más de 5 años de experiencia en copywriting, SEO y SEM. Apasionado de los negocios basados en leads y de la aplicación de la inteligencia artificial en los procesos.

También de puede interesar

Índice de contenido

Artículos relacionados

Guía práctica para empresarios que quieren saber si una página web va a ser rentable, cuál es el ROI de una web y en cuánto tiempo recuperarán su inversión.
Descubre qué es una agencia SEO y cómo mejora el posicionamiento web de tu negocio. Aprende sus beneficios y cómo elegir la mejor opción para tu empresa.
Descubre cómo los AI Overviews están revolucionando el SEO en Google y qué estrategias adoptar para mejorar tu posicionamiento en los resultados de búsqueda.
Deep Research de OpenAI revoluciona la investigación autónoma. Descubre cómo este modelo de IA facilita tareas complejas y potencia la innovación.
Crea una marca personal auténtica para destacar, generar confianza y atraer nuevas oportunidades. Sigue esta guía y construye tu propio camino al éxito.
Descubre cómo elegir al mejor copywriter para tu negocio. Consejos de copywriting, SEO, redacción y más para encontrar al profesional ideal para tus textos.

¿Listo para escalar tu facturación?

Cuéntanos tu idea y diseñaremos una estrategia adaptada a tu negocio y objetivos.