«

手机直接运行800亿参数AI模型,阿里这次的技术突破竟是……

qimuai 发布于 阅读:11 AI新闻


手机直接运行800亿参数AI模型,阿里这次的技术突破竟是……

最新AI落地实操,点击了解:https://qimuai.cn/


标题:
手机能跑800亿参数模型?阿里这次把AI塞进了你的口袋

开头:
你对着手机说句话,它不仅能听懂,还能“看”懂你摄像头里的世界、“听”懂你播放的音频,甚至理解一段短视频在讲什么——最后用自然的人声回答你。
这不再是科幻电影。阿里云刚刚推出的Qwen3-Omni,正悄悄让这种交互成为日常。


它到底强在哪?
一句话总结:端到端全模态,端侧直接跑
文本、图片、音频、视频,它都能接得住。生成回答时,不仅能吐文字,还能直接合成语音。
关键是,这次模型规模上了800亿参数,但推理时只激活3%——相当于你拥有一个超级大脑,但耗电量和反应速度却像普通APP一样轻快。

背后是双核架构:Thinker + Talker

对比前代,升级狠在哪儿?
如果说去年的Qwen2.5-Omni是“能听会看”,那Qwen3-Omni就是“融会贯通”。
模态支持从“部分视频”升级到“全覆盖”,端侧优化更彻底——以前可能需要云端算力,现在你的手机就能扛住大规模流式推理。

为什么这件事重要?
AI正从“云端神坛”走向“人手一台”。
阿里这次把Qwen3-Omni接入了Hugging Face Transformers,意味着开发者很快能直接调用。再加上之前已适配苹果芯片、MLX框架,生态门槛大幅降低。
未来你的车载语音、家庭管家、办公助手,可能都藏着同一个Qwen3-Omni内核。


尾声:
当大模型变得足够小、足够快,AI就不再是屏幕后的工具,而是能随时对话的伙伴。
下一次升级,或许就是你对着手表问:“我刚才拍的这片云,会下雨吗?”——它看着天空,直接给你答案。


所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood。

AI每日进展

文章目录


    扫描二维码,在手机上阅读