DeepSeek V3.1 Ya Está Aquí, Pero No Es Rival para GPT-5 o Claude Opus Video

📅 25/09/2025 📂 rrhh


DeepSeek, la startup china de IA, ha lanzado su nuevo modelo de razonamiento híbrido llamado DeepSeek V3.1, que está diseñado para casos de uso de agentes y uso de herramientas. Viene con dos modos: Think (Pensar) y Non-Think (No Pensar), y puede pensar automáticamente durante más tiempo si la consulta requiere más tiempo para resolverse. El modo Think/Non-Think se puede activar usando el botón "DeepThink".





El modo non-think utiliza deepseek-chat, y el modo thinking utiliza deepseek-reasoner. Ambos vienen con una longitud de contexto de 128K tokens y activan 37B parámetros, de un total de 671B parámetros. Para su información, DeepSeek V3.1 Base está entrenado en 840B tokens, sobre la base de V3. Lo interesante es que DeepSeek V3.1 tiene un rendimiento muy bueno en tareas de razonamiento de múltiples pasos.











Por ejemplo, en SWE-bench Verified — un punto de referencia que prueba el rendimiento de codificación en tareas reales de ingeniería de software — DeepSeek V3.1 obtuvo un 66.0%, mucho más alto que DeepSeek R1-0528 que obtuvo un 44.6%. Como referencia, GPT-5 Thinking de OpenAI obtuvo un 74.9% y Claude Opus 4.1 de Anthropic logró un 74.5%.





En Humanity’s Last Exam (HLE), DeepSeek V3.1 logró un 29.8% con uso de herramientas, y en GPQA Diamond, el nuevo modelo V3.1 obtuvo un 81%. En general, parece que el nuevo modelo DeepSeek V3.1 es mejor que su modelo de IA anterior R1-0528. Sin embargo, no supera a los modelos GPT-5 o Claude 4. En cuanto al precio de la API, DeepSeek V3.1 cuesta $0.56 / $1.68 por entrada/salida por 1 millón de tokens.
































Derechos de autor
Si cree que algún contenido infringe derechos de autor o propiedad intelectual, contacte en bitelchux@yahoo.es.


Copyright notice
If you believe any content infringes copyright or intellectual property rights, please contact bitelchux@yahoo.es.