闭源模型更强?不,这个开源30B模型刚刚完成了反超

最新AI落地实操,点击了解:https://qimuai.cn/
标题:炸场!最强30B开源模型,刚刚免费了
正文:
还在纠结是跑个7B小模型试试水,还是咬牙上4090硬刚70B?
先停一停。
今天凌晨,国内AI圈被一个消息刷屏了:智谱AI,直接把他们的最新王牌——GLM-4.7-Flash模型,给开源了。并且,免费调用。
这可不是什么小修小补的迭代。一句话概括:在30B这个黄金规格上,它可能是目前开源世界里,最能打的那一个。
没有之一。
为什么说它炸场?
因为它的出现,几乎重新定义了“消费级硬件本地部署”的天花板。简单说,以前你觉得在本地跑个聪明又实用的AI助手,要么牺牲性能,要么升级硬件。现在,这条路被它趟平了。
它到底强在哪?
第一,设计极其聪明。
它是个30B参数的“混合专家”(MoE)模型。但别被数字吓到,它的精髓在于,每次推理实际激活的参数只有3B。这就好比一个拥有30个领域专家的超级团队,每次只根据问题,精准调用3位最对口的专家出来干活。
结果就是:能力逼近大模型,资源消耗亲民得像个小模型。 你的消费级显卡,终于能流畅运行一个真正强悍的AI了。
第二,成绩单过于亮眼。
光说强没用,我们看硬核测试。在开发者最关心的编程能力上,它直接刷新了开源纪录:
- 在最具挑战性的真实代码仓库任务(SWE-bench)中,正确率干到73.8%,不仅是开源第一,甚至对齐了顶级闭源模型Claude Sonnet 4.5。
- 在多语言编程、终端命令、实时编程评测等一堆榜单上,它全面领先同规格的对手,包括阿里和OpenAI的开源模型。
这意味着什么?意味着你让它帮你写代码、修Bug、写脚本,它的靠谱程度,已经进入了第一梯队。
第三,不止于代码,是个多面手。
你以为它只是个“高级码农”?错了。
它的工具调用能力在测试中达到了87.4%,反超了Claude Sonnet 4.5。它能理解复杂指令,进行逻辑推理和角色扮演。更让人惊喜的是审美在线——现在它能直接生成精美的网页、PPT、甚至海报,不再是“能用就行”的直男审美。
上下文窗口拉到200K tokens,超长文档分析、跨多个文件的代码理解,都成了可能。
当然,没有完美的模型。
根据测试,处理极度复杂的任务时,它的速度可能没那么快。它也不支持图像输入,纯文本模型。和Claude 3.5 Sonnet这类全能选手比,在多模态和极致响应上还有差距。
但,请记住它的定位和价格:免费、开源、为本地而生。
它存在的意义,不是要在所有维度击败所有闭源巨兽。而是把一个曾经需要高昂代价才能获得的顶尖能力,塞进你的电脑里,让你真正拥有它、私有化它、无限制地使用它。
这本身就是一种革命。
今天,GLM-4.7-Flash的发布,就像在平静的湖面投下了一颗深水炸弹。它让“每个人都拥有一个顶级私人AI助理”的愿景,陡然清晰了一大步。
模型已经摆在GitHub上,文档齐全。是时候,让你的硬件,跑点真正厉害的东西了。
从今天起,AI的能力,不再只存在于云端。它就在你的硬盘里,在你的显卡上,等着被你唤醒。
所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood(读者也可此微信一起交流)。