Microsoft lleva el modelo de IA de pesos abiertos de OpenAI a Windows 11
OpenAI lanzó dos modelos de IA de pesos abiertos: primero, el modelo más grande gpt-oss-120b, y segundo, el modelo más pequeño gpt-oss-20b. OpenAI dice que el modelo de IA más pequeño gpt-oss-20b puede ejecutarse en dispositivos de borde como portátiles y smartphones con 16 GB de VRAM. Así que Microsoft, sin perder tiempo, ha llevado oficialmente el modelo más pequeño gpt-oss-20b a Windows 11.
Como parte de Windows AI Foundry, el modelo gpt‑oss-20b de OpenAI ya está disponible a través de Foundry Local en Windows 11. Actualmente, solo son compatibles las GPU de Nvidia, que tienen al menos 16 GB de VRAM. Necesitas instalar Foundry Local en tu PC con Windows 11 para acceder al modelo gpt‑oss-20b localmente.
Puedes ejecutar simplemente los siguientes comandos en la Terminal de tu PC con Windows 11 para empezar a usar el modelo de pesos abiertos de OpenAI localmente. Asegúrate de que estás ejecutando Foundry Local versión 0.6.0 o superior. Este modelo de IA tiene un total de 20 mil millones de parámetros y activa 3.6 mil millones de parámetros.
winget install Microsoft.FoundryLocal
winget upgrade --id Microsoft.FoundryLocal
foundry model run gpt-oss-20b
Aunque el método oficial de Microsoft solo te permite ejecutar el modelo de pesos abiertos de OpenAI en GPU de Nvidia, hay muchas otras soluciones que permiten a los usuarios ejecutar localmente dichos modelos. Puedes instalar LM Studio en tu PC con Windows 11 para empezar a usar el modelo gpt‑oss-20b localmente. También puedes establecer el nivel de razonamiento para el modelo a través de LM Studio, y este utiliza la CPU o la GPU para la inferencia.
Aparte de eso, Ollama también te permite ejecutar el modelo gpt‑oss-20b localmente en Windows 11. Pero ten en cuenta que muchos usuarios se quejan de que el rendimiento de Ollama no es tan rápido como el de LM Studio. Así que estas son las pocas opciones que puedes usar para ejecutar el modelo de pesos abiertos de OpenAI en tu máquina con Windows 11 inmediatamente.