TL;DR:
开发者们,你们的“瑞士军刀”VS Code又升级了!Hugging Face这次直接把海量开源大模型“打包”送进了Copilot Chat,从此告别来回切换的“跑路”模式。模型随叫随到,这波操作简直“泰裤辣”!
话说,当今的AI“打工人”是真不容易,一会儿要用Kimi写报告,一会儿要用DeepSeek修代码,各种模型、各种平台,切来切去简直是家常便饭。那感觉,就像是在多个平行宇宙之间疯狂“跳跃”,只为了完成一个小小任务,效率?那是什么?能吃吗?
不过,最近科技圈扔下了一颗“深水炸弹”:Hugging Face 联手 VS Code,给 GitHub Copilot Chat 来了个“史诗级”升级!1 从今往后,那些你心心念念的 Kimi K2、DeepSeek V3.1、GLM 4.5 甚至 Qwen3-Coder 这样的开源大语言模型,都能直接在你的 VS Code 编辑器里“安家落户”了。是的,你没听错,直接在编辑器里! 告别“东奔西跑”,实现“所见即所得”的模型调用和测试,这波操作,直接把“真香”打在了公屏上。
“魔法”揭秘:VS Code里,模型怎么就“乖乖听话”了?
是不是觉得有点玄乎?其实操作起来,比你点外卖还简单。Hugging Face 这次推出的新功能,核心就是把自家的 Inference Providers(可以理解为大模型的“后厨配送中心”)直接搬进了 VS Code 的 GitHub Copilot Chat。你只需要:
- 安装 Hugging Face Copilot Chat 插件(这是“入场券”)。
- 打开 VS Code 的聊天界面(“点餐台”)。
- 选择 Hugging Face 作为你的“模型供应商”(“菜单选择”)。
- 输入你的 Hugging Face token(“会员卡”)。
- 然后,把你想要的模型“加购物车”!
搞定这些,你就能像切换主题一样,轻松在不同提供方和模型之间“丝滑”切换了。想用哪个大模型,轻轻一点,它就到位了,是不是有种“模型在手,天下我有”的感觉?
不过,凡事总有点小插曲。社区里的“细节控”们很快就发现了一个“小彩蛋”,或者说是个“小门槛”。AI 研究员 Aditya Wresniyandaka 在 LinkedIn 上“温馨提示”:1
文档里没写:这个集成并不是所有版本都支持,你得升级到 2025 年 8 月的 VS Code 1.104.0 才行。
嗯,看来想体验“真香”还得先“升级装备”啊。不过对于习惯了“追新”的程序员来说,这应该也不是什么大问题,毕竟“旧的不去,新的不来”嘛!
解锁“新姿势”:告别“选择困难症”,开源模型C位出道!
这波整合可不是简单的功能叠加,它背后蕴藏着巨大的能量。长期以来,GitHub Copilot Chat 虽然强大,但一直被自家“圈养”的专有模型所限制,就好比你的智能助手只能吃“私家菜”。而 Hugging Face Inference Providers 网络一打通,开发者就像突然拥有了**“模型自助餐”**!那些天马行空、针对特定任务优化的实验性、高度专业化的开源模型,终于能堂而皇之地出现在 Copilot Chat 的餐桌上了。
想想看,以前你要测试一个 Qwen3-Coder 这样的模型,可能要打开好几个窗口,配置一堆环境,那叫一个折腾。现在,直接在 VS Code 里就能搞定,这种效率提升,简直是“生产力火箭”!Muhammad Arshad Iqbal 就兴奋地表示:1
喜欢这个更新!我们现在可以在 VS Code 里直接用那些开源的 AI 编程助手,再也不用为了试试 Qwen3-Coder 这种模型而来回切换窗口了。
这不仅是省事,更是给了开发者**“选择自由”**。你不再是默认选项的“打工人”,而是可以根据项目需求,选择最合适的“工具人”模型。无论是代码生成、错误排查,还是文档撰写,都能找到最对味的AI助手。
Hugging Face 这项服务的最大价值,一个字总结就是:“统一”! 它就像一个“模型界的万能适配器”,把不同提供方、不同模型的 API 差异和不稳定性全部“熨平”,通过一个统一接口,让你可以像“逛超市”一样,访问数百种机器学习模型。2
Hugging Face 还特意强调了几个“诱人”的优势:3
- 即时尝鲜:总能第一时间接触到最前沿的模型,远超任何单一厂商能提供的范围。
- 告别“绑定”:妈妈再也不用担心我被厂商“套牢”了!切换提供方几乎无需修改代码,真正实现“来去自由”。
- 生产力保障:提供企业级的高可用性和低延迟推理,让你“安心干饭”。
- 无缝衔接:直接兼容 OpenAI Chat Completions API,还附赠 Python 和 JavaScript 客户端 SDK,简直是“贴心小棉袄”!
至于大家关心的“钱包”问题,Hugging Face 也展现出了十足的诚意。有免费额度供你尝鲜,Pro、Team 和 Enterprise 用户也有灵活的付费方案。最良心的是,Hugging Face 承诺,你付的费用和模型提供方实际收费“一毛一样”,童叟无欺,绝不加价! 这波操作,简直是“用爱发电”了。
谁动了谁的“奶酪”?开发者、Copilot、Hugging Face的“三国杀”
这次整合,表面上看是 Hugging Face 和 VS Code 的“神仙联动”,但实际上,它对整个大模型生态圈都可能带来深远影响。
首先,对于开发者而言,这无疑是重大利好。他们拥有了前所未有的自由度和效率提升,可以更专注于核心开发,而不是被工具切换、模型部署这些“琐事”困扰。这是一个“大模型普惠”的信号,让更多人能享受到尖端AI的便利。
其次,对于 GitHub Copilot Chat 来说,这更像是一种**“开放生态”的拥抱**。在AI领域,封闭和开放的路线一直在博弈。Copilot Chat 选择与 Hugging Face 这样强大的开源模型平台合作,无疑是拓宽了自身的护城河,也增强了用户粘性。它从一个“专属定制”的工具,摇身一变成了**“开放平台”的入口**,这波战略眼光,属实有点东西。
而 Hugging Face 呢?它的 Inference Providers 服务,原本就是为了解决模型部署和调用复杂性而生的。通过这次集成,Hugging Face 不仅巩固了自己在开源大模型领域的**“基础设施提供者”地位,更将自己的服务直接送到了开发者日常使用的 IDE(集成开发环境)里,大大提升了用户渗透率和使用频率。这不仅仅是技术上的胜利,更是生态位上的一次精准卡位**。它让开发者离不开 Hugging Face,也让整个大模型生态更加活跃。
总之,这次 VS Code 与 Hugging Face 的“联姻”,绝不仅仅是两个工具的简单合并,更像是在大模型时代,为开发者们铺就了一条**“一站式、无缝连接”**的AI开发高速公路。未来,我们或许会看到更多类似的“梦幻联动”,让AI真正成为我们工作中的“超级搭档”,而不是一个需要小心翼翼供着“祖宗”。这大模型“宇宙”的未来,真是越来越好玩了!
引用
-
Hugging Face Brings Open-Source LLMs to GitHub Copilot Chat in VS Code·InfoQ·(2025/9/19)·检索日期2025/9/19 ↩︎ ↩︎ ↩︎
-
Hugging Face 将开源语言模型引入到VS Code 中的GitHub Copilot Chat·SegmentFault·(2025/9/16)·检索日期2025/9/19 ↩︎
-
Hugging Face Provider for GitHub Copilot Chat·Hugging Face Marketplace·(2025/9/11)·检索日期2025/9/19 ↩︎