腾讯混元推出0.3B端侧模型 内存占用仅600MB赋能本地智能应用新场景

IT之家 2026-02-21 09:26:37
A+ A-

据腾讯官方消息,其混元大模型体系迎来全新成员——0.3B端侧模型,以仅600MB的内存占用实现轻量化部署,面向移动设备、嵌入式终端、IoT设备及边缘计算节点等对算力与存储资源有限制的场景。该模型在保持混元系列核心语言理解与生成能力的基础上,通过架构压缩与推理优化,实现在本地设备上高效运行,无需依赖云端即可完成多种智能任务,进入全球人工智能应用开发者、移动终端厂商与边缘智能研究者的视野,被视为混元大模型在端侧普惠化与场景下沉上的重要进展。

消息称,0.3B端侧模型基于混元大模型的蒸馏与量化技术,将参数量精简至3亿左右,在保留关键语义理解、文本生成、对话交互与简单推理能力的同时,显著降低计算与存储开销。600MB的内存占用使其可轻松嵌入智能手机、平板电脑、智能音箱、车载系统及各类轻量级边缘设备中,即使在低功耗芯片平台上也能保持流畅响应。模型支持离线运行,可在无网络环境下完成本地问答、文档摘要、内容改写、代码辅助与多轮对话等任务,既保护用户隐私,又减少网络延迟对体验的影响。现场观察显示,该模型在常见终端实测中启动速度快,单次推理耗时低,能在日常办公辅助、生活信息查询、教育辅导与轻量创作等场景中提供接近云端小模型的实用效果。媒体报道指出,随着端侧智能需求的增长,轻量化大模型成为平衡性能与资源的关键,混元0.3B端侧模型的推出为开发者提供了在资源受限环境下快速集成AI能力的便捷方案,也促使行业重新审视小模型在本地化应用中的潜力与价值。

业内认为,腾讯混元推出0.3B端侧模型并以极低内存占用实现可用性能,体现了其在模型压缩与端侧优化上的技术积累与场景洞察,其本地化运行特性不仅拓展了混元大模型的应用边界,也为隐私敏感与低延迟需求的业务场景提供了可靠支撑。后续可关注该模型在不同硬件芯片上的适配优化、与腾讯生态内应用及服务的深度集成,以及在教育、政务、医疗等行业的落地案例,这将为观察国产大模型在端侧普惠化与产业渗透上的路径与成效提供参考。

Tags:混元
责任编辑:Diy92
点击查看全文(剩余0%)

热点新闻

精彩推荐