«

快26.5倍,省电90%,训练数据仅需2%,中科院“瞬悉”模型如何颠覆AI游戏规则?

qimuai 发布于 阅读:7 AI新闻


快26.5倍,省电90%,训练数据仅需2%,中科院“瞬悉”模型如何颠覆AI游戏规则?

最新AI落地实操,点击了解:https://qimuai.cn/

你还在为大模型处理长文档时“内存爆炸”而头疼吗?当别人还在拼命堆算力、烧电费,中科院自动化所和沐曦MetaX联手扔出了一颗“深水炸弹”——类脑脉冲大模型“瞬悉1.0”

这可不是小修小补的升级。它直接绕开了传统Transformer架构,走了条更接近人脑工作原理的路:脉冲神经网络

简单说,它学会了“偷懒”。只在该动的时候才动,不该动的时候绝不浪费能量。

传统大模型干活,像是全城开灯,不管屋里有没有人;“瞬悉”干活,像是只打开有人的房间的灯。

结果?两项数据直接碾压:

更狠的是,它连“饭量”都小得惊人。训练只需要主流模型2%的数据量,不仅省数据,更省下了海量的训练能源。

这意味着什么?

以前不敢想的长文本分析,现在可以轻松拿捏。比如:

这不仅是技术迭代,更是一次计算范式的革命。 它用事实证明,大模型的未来,不只有“堆参数、烧显卡”这一条路。尤其是在全流程国产芯片平台适配的背景下,这把“利器”的战略价值,不言而喻。

当别人还在红海里卷得头破血流,“瞬悉”已经悄悄开辟了一条高效、低碳的新航线。

所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood。

AI每日进展

文章目录


    扫描二维码,在手机上阅读