«

闭源模型更强?不,这个开源30B模型刚刚完成了反超

qimuai 发布于 阅读:26 AI新闻


闭源模型更强?不,这个开源30B模型刚刚完成了反超

最新AI落地实操,点击了解:https://qimuai.cn/


标题:炸场!最强30B开源模型,刚刚免费了

正文:

还在纠结是跑个7B小模型试试水,还是咬牙上4090硬刚70B?

先停一停。

今天凌晨,国内AI圈被一个消息刷屏了:智谱AI,直接把他们的最新王牌——GLM-4.7-Flash模型,给开源了。并且,免费调用。

这可不是什么小修小补的迭代。一句话概括:在30B这个黄金规格上,它可能是目前开源世界里,最能打的那一个。

没有之一。

为什么说它炸场?

因为它的出现,几乎重新定义了“消费级硬件本地部署”的天花板。简单说,以前你觉得在本地跑个聪明又实用的AI助手,要么牺牲性能,要么升级硬件。现在,这条路被它趟平了。

它到底强在哪?

第一,设计极其聪明

它是个30B参数的“混合专家”(MoE)模型。但别被数字吓到,它的精髓在于,每次推理实际激活的参数只有3B。这就好比一个拥有30个领域专家的超级团队,每次只根据问题,精准调用3位最对口的专家出来干活。

结果就是:能力逼近大模型,资源消耗亲民得像个小模型。 你的消费级显卡,终于能流畅运行一个真正强悍的AI了。

第二,成绩单过于亮眼

光说强没用,我们看硬核测试。在开发者最关心的编程能力上,它直接刷新了开源纪录:

这意味着什么?意味着你让它帮你写代码、修Bug、写脚本,它的靠谱程度,已经进入了第一梯队。

第三,不止于代码,是个多面手

你以为它只是个“高级码农”?错了。

它的工具调用能力在测试中达到了87.4%,反超了Claude Sonnet 4.5。它能理解复杂指令,进行逻辑推理和角色扮演。更让人惊喜的是审美在线——现在它能直接生成精美的网页、PPT、甚至海报,不再是“能用就行”的直男审美。

上下文窗口拉到200K tokens,超长文档分析、跨多个文件的代码理解,都成了可能。

当然,没有完美的模型。

根据测试,处理极度复杂的任务时,它的速度可能没那么快。它也不支持图像输入,纯文本模型。和Claude 3.5 Sonnet这类全能选手比,在多模态和极致响应上还有差距。

但,请记住它的定位和价格:免费、开源、为本地而生。

它存在的意义,不是要在所有维度击败所有闭源巨兽。而是把一个曾经需要高昂代价才能获得的顶尖能力,塞进你的电脑里,让你真正拥有它、私有化它、无限制地使用它。

这本身就是一种革命。

今天,GLM-4.7-Flash的发布,就像在平静的湖面投下了一颗深水炸弹。它让“每个人都拥有一个顶级私人AI助理”的愿景,陡然清晰了一大步。

模型已经摆在GitHub上,文档齐全。是时候,让你的硬件,跑点真正厉害的东西了。

从今天起,AI的能力,不再只存在于云端。它就在你的硬盘里,在你的显卡上,等着被你唤醒。

所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood(读者也可此微信一起交流)。

AI每日进展

文章目录


    扫描二维码,在手机上阅读