OpenAI: La Forja del Relato en la Era de la IA
OpenAI adquiere la empresa de medios TBPN en un movimiento estratégico para influir y dar forma a la conversación pública sobre el futuro de la inteligencia artificial.
ZhipuAI lanza GLM-5.1, un modelo de IA que bate récords en codificación y autonomía, entrenado completamente con tecnología china.
En el tablero de ajedrez geopolítico de la inteligencia artificial, donde la soberanía tecnológica se ha convertido en la divisa más codiciada, ZhipuAI ha movido una pieza maestra. El 7 de abril de 2026, la compañía china, nacida del crisol académico de la Universidad de Tsinghua en 2019 y recién capitalizada en la bolsa de Hong Kong con una IPO de 558 millones de dólares para I+D, desveló GLM-5.1. Este no es un modelo de lenguaje grande más; es una declaración de intenciones, un pilar fundamental en la estrategia de ingeniería agéntica y la capacidad de ejecutar tareas de 'largo alcance' de manera autónoma y sostenida, marcando un hito que resonará en los pasillos de la innovación global.
GLM-5.1 se erige como un titán en el dominio de la codificación, superando a su predecesor, GLM-5, y estableciendo nuevas referencias en la industria. Con una puntuación de 58.4 en SWE-Bench Pro, ha dejado atrás a competidores de la talla de GPT-5.4, Claude Opus 4.6 y Gemini 3.1 Pro. Su liderazgo se extiende a NL2Repo, en la generación de repositorios, y a Terminal-Bench 2.0, en la ejecución de tareas de terminal en entornos reales. Estas métricas no solo lo posicionan como el modelo número uno en código abierto, sino que lo sitúan como el tercero a nivel global en estas categorías, consolidando a ZhipuAI en la élite de la IA con una capacidad de resolución de problemas de software compleja sin precedentes.
La verdadera revolución de GLM-5.1 reside en su habilidad para mantener la efectividad en tareas agénticas durante horizontes temporales mucho más extensos. A diferencia de modelos anteriores que, tras un impulso inicial, tienden a estancarse, GLM-5.1 está diseñado para una optimización sostenida. Su arquitectura le permite abordar problemas ambiguos con un juicio superior, mantener la productividad en sesiones prolongadas, descomponer complejidades, ejecutar experimentos, interpretar resultados e identificar obstáculos con una precisión asombrosa. Mediante la revisión constante de su propio razonamiento y la iteración estratégica, GLM-5.1 puede sostener la optimización a lo largo de cientos de rondas y miles de llamadas a herramientas, demostrando la capacidad de trabajar autónomamente hasta 8 horas en una sola tarea, completando ciclos completos de planificación, ejecución, prueba, reparación y entrega de resultados de nivel de ingeniería; una proeza que lo convierte en el primer modelo de origen chino en alcanzar tal grado de autonomía.
La capacidad de largo alcance de GLM-5.1 no es una mera promesa, sino una realidad demostrada en escenarios exigentes. En la optimización de una base de datos vectorial (VectorDBBench), el modelo no se detuvo tras 50 o 100 envíos, sino que continuó encontrando mejoras significativas durante más de 600 iteraciones y 6.000 llamadas a herramientas, alcanzando finalmente 21.500 QPS. Esto representa aproximadamente seis veces el mejor resultado logrado en una sola sesión de 50 turnos por Claude Opus 4.6 (3.547 QPS). En la optimización de cargas de trabajo de aprendizaje automático (KernelBench), logró una aceleración de 3.6x. Un tercer escenario, la construcción de una aplicación web de escritorio estilo Linux durante 8 horas, sin métricas numéricas explícitas, evidenció su juicio autónomo para la mejora continua, consolidando su estatus como un agente verdaderamente persistente.
El poder de GLM-5.1 se cimenta en la robusta arquitectura de su predecesor, GLM-5, que emplea un modelo de Mixtura de Expertos (MoE) con aproximadamente 745 mil millones de parámetros totales y 44 mil millones de parámetros activados, y una ventana de contexto de 200K tokens. Pero más allá de las especificaciones técnicas, un aspecto estratégico crucial es que GLM-5 fue entrenado íntegramente en chips Huawei Ascend utilizando el framework MindSpore. Este hecho no solo subraya la independencia tecnológica de China de la infraestructura de hardware de fabricación estadounidense, sino que también posiciona a ZhipuAI como un actor clave en la reconfiguración del panorama global de la IA. Con el compromiso de la compañía con el código abierto, como ya se ha visto con GLM-4.7 bajo licencia MIT, se anticipa que GLM-5 y sus futuras iteraciones seguirán un camino similar, ofreciendo una ventaja de costos significativa frente a otros modelos de vanguardia y democratizando el acceso a la inteligencia artificial más avanzada.
Compartir
OpenAI adquiere la empresa de medios TBPN en un movimiento estratégico para influir y dar forma a la conversación pública sobre el futuro de la inteligencia artificial.
Google DeepMind y Hugging Face lanzan Gemma 4, una familia de modelos multimodales abiertos y eficientes para dispositivos, con capacidades de vanguardia y un sólido ecosistema de soporte.

El emulador de PS3, RPCS3, logra un hito en rendimiento gracias a una optimización del procesador Cell y lanza una nueva interfaz para dispositivos portátiles.