JetBrains家的开发工具,大家肯定都在用。我用它十几年了,从最初的IDEA,到后来的PyCharm,它总能给我惊喜。但是这次,JetBrains AI Assistant的新功能,真的让我觉得很厉害。现在,它能直接支持我们本地的大语言模型。这样一来,开发者可以直接在自己的电脑上跑模型。而且,它还扩展了AI Assistant能做的事。最重要的是,它能更好地保护我们的隐私和数据。
这个新功能,需要你的JetBrains IDE版本是2025.3.1或者更高。以前,我们只能用云端的语言模型。现在,你也可以选择在本地运行自己的模型了。这很关键。

本地运行大模型,到底有什么好?
你想想看,以前用云端的AI服务,代码要传到网上。我心里总觉得不踏实。公司的代码,很多都是秘密。你把它们发到网上,哪怕说是加密了,我还是会担心。万一数据泄露了怎么办?或者,我的代码会不会被AI模型学走,用在别的地方?这可不是小事。所以,我每次用AI帮我写代码,尤其是那些核心的、敏感的代码,我都要很小心。我会把重要的部分删掉,或者干脆自己手写,不敢让AI接触。我害怕不小心就把公司的“秘密配方”给泄露出去了。
但是,现在情况变了。JetBrains让大模型直接在我的电脑上跑。我的代码,我的数据,就在我自己的硬盘里。它们不会跑到别的地方去。这样我就很放心了。我可以把我信任的模型,比如我自己改过的模型,或者一些开源的好模型,放到我的电脑上。然后,我就可以放心地让AI Assistant帮我处理那些私有的代码了。它帮我优化代码,生成新的代码,甚至重构一些核心逻辑。我的数据,由我来控制。我觉得这才是真正的安心。对于那些非常重视数据安全的公司来说,这个功能简直就是“救命稻草”。它让我们对数据的控制力更强了。这真的很重要。
国区开发者也不用“翻墙”了
说实话,在国内用一些国外的AI服务,真的挺麻烦的。为了连上那些服务,我们经常要花很多精力去想办法。网络有时候不稳定,连接会断,还经常出现一些奇怪的错误。我身边很多朋友,就是因为这些网络问题,最后放弃了很多好用的AI工具。我看到他们很沮丧。
但是,现在JetBrains说得很清楚:国内的用户,不用再用那些特殊方法了。你可以直接配置和使用第三方的AI服务。这意味着我们不用再担心网络限制了。你不用再去研究复杂的网络设置,也不用承担网络不稳定的风险。只要你的电脑有足够的性能,有你想用的模型,你就可以在你的IDE里用上AI Assistant。这对于我们国内的开发者来说,是一个很大的好消息。以后,我们可以省下很多处理网络问题的时间。这些时间,我可以用来多写几行代码,或者多思考一个项目的架构。这不仅提高了效率,也让人心情更好了。那种自由的感觉,真的很棒。
配置起来很简单,你一看就会
你可能觉得,本地部署大模型,听起来很高大上,操作肯定很复杂吧?其实不是的。JetBrains这次把配置过程做得非常简单。我第一次配置的时候,还以为要看很多说明文档,结果点开一看,就那么几步,很简单。
这是它的工作原理:
- 先检查你的IDE版本。 你的JetBrains IDE版本必须是2025.3或者更新的版本。如果版本不够,那这个功能就用不了。
- 然后,打开设置界面。 在IDE里,找到菜单栏上的 File (文件),然后点 Settings (设置)。如果你是macOS系统,那就是 JetBrains IDE,再点 Settings (设置)。
- 接着,找到AI Assistant。 在设置窗口的左边,有一个导航栏。你在里面找到并点击 AI Assistant。它很好找。
- 然后,去“模型和API密钥”选项卡。 在 AI Assistant 的设置页面里,你会看到几个选项卡。切换到 模型和API密钥 这个选项卡。这里就是你配置模型的关键地方。
- 开始配置第三方AI服务。 在 第三方AI服务提供商 这个区域,你会看到一个加号 +。点击它。然后,选择 OpenAI 兼容,或者其他你正在使用的模型类型。
- 输入连接信息。 你需要输入模型的 URL 和 API 密钥。比如,如果你在本地运行一个模型,它的URL可能就是 http://localhost:某个端口号。这些信息就像你本地模型的“身份证明”。
- 测试连接。 填写完URL和API密钥后,一定要点 测试连接 这个按钮。它会帮你检查你的配置对不对。如果成功了,你才能继续下一步。
- 重启你的IDE。 配置成功后,你最好把IDE关掉,再重新打开一次。很多设置都需要重启后才能生效。这是一个好习惯。
- 最后,验证一下。 IDE重启后,你再次打开AI Assistant。如果一切顺利,你就能看到你配置的模型选项了,比如Claude、Codex或者Gemini。这样就表示你配置成功了。
你看,整个过程是不是很清楚?而且,就算你的IDEA是“破解版”的,也一样可以用这个功能。JetBrains这次做得很大方,让大家都能用上本地大模型。这真的很好。
模型你可以自己选,想用哪个就用哪个
JetBrains这次更新,除了本地化和简单易用,还有一点让我特别喜欢:它对各种模型都很开放。它在设置里写得很明白:“JetBrains不提供任何模型”。这句话很关键。它不是自己去做大模型,而是搭了一个平台。在这个平台上,你可以用任何你喜欢的大模型。
你想用OpenAI的模型,没问题。你想试试Claude的大文本处理能力,也可以。甚至你想用Google的Gemini,或者那些开源的、性能不错的本地小模型,统统都能用!这种开放的态度,让我们开发者很安心。我们不用被某个厂商的模型限制住,也不用绑定在某个生态系统里。我们可以根据自己的项目需要、预算,或者自己的喜好,来选择最适合的AI模型。
这种选择的自由,带来了很多好处。我的技术使用起来更灵活了,也更容易创新。我可以在不同的任务里用不同的模型。比如,我写文档的时候,可能会让擅长生成长文章的模型来帮我。我写代码的时候,可能更喜欢那些对代码结构和语法理解更深的模型。这种感觉很棒。它打破了以前AI工具的限制。它把选择权完完全全地交给了我们开发者。这不就是我们一直想要的“个性化工作流”吗?
这不只是一个功能,它改变了我们写代码的方式
说真的,这次更新,在我看来,已经不是一个简单的新功能了。它更像是JetBrains在思考未来:AI怎么帮我们写代码?它想让我们有什么样的编程体验?然后,它把答案和选择权,直接给了我们。
你想想看,当AI不再是远在天边,而是就在你电脑里的“伙伴”时,我们写代码的方式会变成什么样?我能想象到,以后我们写代码,可以更频繁、更深入地和AI互动。我可以让AI帮我生成一个模块的框架,然后我再像雕刻家一样,慢慢修改细节。我还可以让AI帮我分析一段复杂的代码,找出可能存在的Bug,甚至直接给我修复的建议。而且,所有这些操作,都在我的电脑上快速、安全地完成。延迟很低,数据也安全。
这就像是,JetBrains不仅给了我们一辆跑车,它还把修理工具和改装的权限也给了我们。你可以根据自己的喜好,去换引擎,改配置。把这辆跑车变成你最喜欢、最顺手的“定制款”。这种深入骨髓的个性化和自主权,才是这次更新最吸引人的地方。
所以,如果你还在犹豫,还在观望,我建议你:别等了!赶紧升级你的IDE,赶紧把你想用的大模型配置好!JetBrains AI Assistant的这次更新,真的值得你第一时间去体验。它不会让你失望的。你只会觉得:哇,原来写代码还能这么玩!这不只是工具变好了,这是我们开发者工作方式和思考方式的一次大改变。未来已经来了,JetBrains就是那个把未来带到我们面前的人。我很期待,有了这份自由,我们能做出什么新的东西!