China lanza Kimi-K2 Thinking, un modelo de IA Moonshot que supera a ChatGPT-5 en pensamiento complejo

China lanza Kimi-K2 Thinking, un modelo de IA Moonshot que supera a ChatGPT-5 en pensamiento complejo
Facebook
Threads
WhatsApp
X

Moonshot AI lanzó recientemente su nuevo modelo de lenguaje Kimi-K2 Thinking, una herramienta que cuenta con capacidades de razonamiento más profundas. Según los resultados de las primeras pruebas, logró superar a ChatGPT-5, el motor OpenAI más avanzado, en razonamiento complejo, uso de mecanismos externos y procesamiento de grandes cantidades de datos.

Esto lo coloca junto a DeepSeek R1, la primera competencia ChatGPT de China, que logró posicionarse por encima del modelo OpenAI a principios de este año. El lanzamiento de las herramientas DeepSeek y su capacidad de estar a la par de sus homólogas estadounidenses pero con un sistema de formación mucho más barato ha causado mucha polémica por su origen y una enorme devaluación para Nvidia, perdiendo 600.000 millones de dólares en un día.

Comparado con este hito, se podría decir que el modelo Moonshot pasó casi desapercibido. La razón podría ser que en el mundo de la inteligencia artificial ya se da por sentado que China ganará la carrera tecnológica. Incluso el propio CEO de Nvidia, Jensen Huang, creía fielmente en este hecho.

China busca alternativas más baratas

El enfrentamiento en el ámbito tecnológico también se ha trasladado a la política, especialmente en los términos del presidente estadounidense, Donald Trump, quien inició una dura batalla comercial con el gigante asiático bajo el argumento de que Beijing mantiene prácticas desleales desde hace mucho tiempo.

En este sentido, Trump introdujo un bloqueo a las empresas chinas para que no pudieran acceder a los chips más avanzados de Nvidia. Sin embargo, en lugar de frenar el progreso de las empresas tecnológicas asiáticas, las obligó a buscar alternativas convenientemente más baratas, como Huawei o Cambricon.

Según la propia respuesta de Kimi-K2 Thinking, su trabajo es similar en concepto a los modelos GPT, entrenados con una gran cantidad de información recopilada de textos, libros, códigos y otras fuentes en línea. Entre las diferencias que señala está que su base de datos dura hasta abril de este año y que sus respuestas tienen un enfoque más directo, conciso y concreto.

ComputadoraHoy

Fuente

Noticias relacionadas