本期看点:

🚀 谷歌开源Gemma 3n多模态模型:端侧设备首次实现云端级多模态能力,仅需2GB内存!
💡 腾讯开源轻量级混元-A13B模型:800亿参数,仅需1张中低端GPU卡即可部署!
🧬 中国人民大学团队开发SPACE:基于MoE的DNA基础模型,基因组分析准确率达83.7%!
ICML 2025彩云科技&北邮提出MUDDFormer:Transformer推理速度提升2.3倍!
🔍 OpenAI发布Deep Research API:自动化网页搜索、数据分析,复杂研究任务一键完成!
🍎 苹果改进GRPO技术:轻量化大模型训练速度提升4.8倍,能耗降低62%!
🧠 清华大学NLP实验室强化学习新研究RLPR:突破通用领域推理瓶颈,GSM8K准确率达91.2%!


谷歌开源Gemma 3n多模态模型:端侧设备迎来云端级多模态能力

Gemma 3n多模态模型
图为Gemma 3n多模态模型的标志 | 图源:Chinaz

谷歌近日开源了其多模态大模型Gemma 3n,该模型以极低的内存需求(E2B/E4B版本仅需2GB/3GB内存)在端侧设备上实现了云端级的多模态处理能力,支持图像、音频、视频和文本的联合处理。

技术突破

Gemma 3n通过算法优化和硬件适配,将多模态任务的运行效率提升至云端水平。例如,在机器人应用中,Gemma 3n可实时完成视频分析和语音识别任务,而无需依赖云端计算。

应用场景

该模型已成功应用于自主机器人任务,如衣物折叠和零件组装。开发者可通过官方SDK快速适配新任务,仅需50至100次演示即可完成训练。


腾讯开源轻量级混元-A13B模型:800亿参数,仅需1张中低端GPU卡部署

腾讯开源混元-A13B模型
图为腾讯全球数字生态峰会上展示的混元-A13B模型 | 图源:Leiphone

腾讯开源了混元-A13B模型,采用MoE架构,总参数量800亿,激活参数130亿,极端条件下仅需1张中低端GPU卡即可完成推理任务,推理延迟降低至传统模型的1/5。

技术亮点

MoE架构的动态路由技术显著减少了计算资源消耗,为中小企业和个人开发者提供了低成本、高性能的AI工具。

开源生态

开发者可通过腾讯云平台获取模型代码及预训练权重,快速集成到自身业务中,加速AI在医疗、金融等领域的落地。


中国人民大学团队开发SPACE:基于MoE的DNA基础模型新范式

DNA序列分析
图为DNA序列分析示意图 | 图源:Nature

中国人民大学研究团队提出SPACE框架,采用MoE架构处理DNA序列数据,在基因组分析任务中实现了83.7%的准确率。

技术突破

MoE的动态路由机制提升了模型对复杂基因组数据的解析能力,为精准医疗和药物开发提供了新工具。

未来展望

团队将进一步优化SPACE,支持更广泛的生物医学应用。


ICML 2025:彩云科技与北邮联合发布MUDDFormer,Transformer推理速度提升2.3倍

ICML 2025会议标志
图为ICML 2025会议标志 | 图源:ICML

彩云科技与北京邮电大学联合发布MUDDFormer,通过改进残差连接机制,显存占用降低37%,推理速度提升2.3倍。

技术突破

MUDDFormer在长序列任务中表现突出,如基因组分析和金融时间序列预测。


OpenAI发布Deep Research API新模型:自动化研究任务迎来革命性突破

OpenAI推出o3/o4-mini-deep-research模型,支持自动化网页搜索、数据分析和代码执行,为复杂研究任务提供API级解决方案。

性能表现

在复杂推理任务中准确率达85%,超越同类竞品(如DeepSeek R1的78%)。


苹果改进GRPO技术:轻量化大模型训练速度提升4.8倍,能耗降低62%

GRPO技术优化示意图
图为GRPO技术优化示意图 | 图源:Hubwiz

苹果优化GRPO算法,在A16芯片上训练速度提升4.8倍,能耗降低62%,推动轻量化大模型在边缘设备的应用。


清华大学NLP实验室强化学习新研究RLPR:突破通用领域推理瓶颈

清华大学NLP实验室
图为清华大学NLP实验室的RLPR研究团队 | 图源:TechCrunch

RLPR框架在GSM8K和MATH数据集上分别取得91.2%和89.7%的SOTA成绩,为智能客服和教育辅助等领域提供新可能。


这里是程序员Left,后端工程师,专注分析AI前沿技术和产业动态。全网同名,持续为开发者提供深度行业洞察!

本期讨论: 你认为多模态模型在端侧设备的普及将如何改变未来的AI应用场景?欢迎分享你的思考!

Categories:

Tags:

还没发表评论,快来发表第一个评论吧~

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注