Hugging Face integra LLMs de código abierto a GitHub Copilot Chat en VS Code
Hugging Face ha lanzado una integración que permite a los desarrolladores acceder a modelos de lenguaje de código abierto a través de GitHub Copilot Chat en Visual Studio Code, facilitando el uso de herramientas de IA avanzadas y democratizando su acceso. Esta función, que requiere la versión 1.104.0 de VS Code, unifica el acceso a múltiples proveedores de inferencia a través de una única API, ampliando las capacidades de desarrollo y fomentando un entorno más colaborativo en la programación.

Hugging Face ha lanzado una nueva integración que permite a los desarrolladores conectar directamente los Proveedores de Inferencia con GitHub Copilot Chat en Visual Studio Code. Esta actualización permite acceder y probar modelos de lenguaje de gran tamaño (LLMs) de código abierto —entre los que se incluyen Kimi K2, DeepSeek V3.1, y GLM 4.5, entre otros— directamente desde el editor de VS Code, sin necesidad de cambiar de plataforma o utilizar múltiples herramientas.
Integración sencilla y accesible
El flujo de trabajo está diseñado para ser simple. Los desarrolladores deben instalar la extensión Hugging Face Copilot Chat, abrir la interfaz de chat en VS Code, seleccionar el proveedor de Hugging Face, introducir su token y luego agregar los modelos que desean utilizar. Una vez establecido el vínculo, pueden alternar sin problemas entre proveedores y modelos utilizando la interfaz familiar de selección de modelos.
Un apunte práctico surgió rápidamente en las discusiones de la comunidad: la función requiere una versión actualizada del editor. El investigador en inteligencia artificial Aditya Wresniyandaka destacó en LinkedIn que "el documento olvidó mencionar que necesitas la versión 1.104.0 de VS Code, lanzada en Agosto de 2025".
Lee también
Ampliación del acceso a herramientas de IA
Tradicionalmente, GitHub Copilot Chat ha dependido de un conjunto cerrado de modelos propietarios. Al vincularlo con la red de Proveedores de Inferencia de Hugging Face, los desarrolladores ganan acceso a un conjunto mucho más amplio de herramientas de IA, que incluye modelos experimentales y altamente especializados de código abierto.
Muhammad Arshad Iqbal celebró esta iniciativa, comentando: "¡Oh, esto es genial! Ahora podemos utilizar todas esas potentes IA de programación de código abierto directamente dentro de VS Code. Ya no es necesario cambiar de pestañas solo para probar un modelo como Qwen3-Coder".
Esta integración abre la puerta para que los desarrolladores utilicen Copilot Chat con modelos optimizados para tareas de programación específicas, industrias o dominios de investigación, en lugar de estar limitados a los modelos predeterminados. La actualización es impulsada por los Proveedores de Inferencia de Hugging Face, un servicio que permite a los desarrolladores acceder a cientos de modelos de aprendizaje automático a través de una única API.
Lee también
Beneficios de la unificación en el desarrollo
La propuesta de valor clave de esta integración es la unificación: en vez de manejar múltiples API con diferentes garantías de fiabilidad, los desarrolladores pueden consultar modelos a través de un solo interface consistente. Hugging Face destaca varios beneficios:
Acceso instantáneo a modelos avanzados: Más allá de lo que podría ofrecer un solo catálogo de proveedor.
Sin bloqueo de proveedor: Permitiendo a los desarrolladores cambiar entre proveedores con cambios mínimos en el código.
Rendimiento listo para producción: Con alta disponibilidad y baja latencia en las inferencias.
Integración amigable para desarrolladores: Incluyendo compatibilidad directa con la API de completaciones de chat de OpenAI y SDKs para Python y JavaScript.
Accesibilidad y opciones de precios
Hugging Face ha estructurado la integración para facilitar su acceso. Hay un nivel gratuito de créditos de inferencia mensual para realizar pruebas, mientras que los planes Pro, Team, y Enterprise ofrecen mayor capacidad y precios por consumo. Según la empresa, lo que los desarrolladores pagan es exactamente lo que cobran los proveedores, sin margen adicional.
Esta integración no solo amplifica las capacidades de los desarrolladores, sino que también democratiza el acceso a potentes herramientas de inteligencia artificial, allanando el camino para la innovación en el desarrollo de software. Con la expansión de estas capacidades, se espera que el ecosistema de desarrollo en Chile y América Latina adopte rápidamente estas nuevas herramientas, facilitando un entorno más colaborativo y eficiente.
Para más actualizaciones sobre las últimas novedades en tecnología y desarrollo, se invita a los lectores a seguir navegando en Liven.
¿Te gustó esta noticia?
Mantente informado con las últimas noticias de Chile y el mundo.