本期看点:
🚀 国产AI技术迈入新纪元:月之暗面推出万亿参数开源大模型Kimi K2,支持128K上下文长度,成为全球首个国产万亿级开源模型。
🤖 具身智能新标杆:智源研究院开源RoboBrain 2.0与RoboOS 2.0,总参数量达32B,融合多模态感知与实时决策能力。
🔍 视觉模型优化新发现:清华&腾讯揭示仅5%注意力头主导多模态理解,为模型压缩提供新方向。
🎬 实时视频生成突破:Meta发布StreamDiT模型,单GPU实现512p视频实时生成。
⚡ 训练效率翻倍:英伟达&MIT推出Long-RL框架,长视频训练速度提升2.3倍。
🛑 安全优先:OpenAI推迟开源大模型发布,进行更严格的安全审查。
📱 边缘AI新动力:Liquid AI开源LFM2模型,专为终端设备优化,能效比提升2.1倍。
月之暗面推出万亿参数开源大模型Kimi K2
中国AI初创公司月之暗面(Moonshot AI)最近搞了个大新闻!他们开源了Kimi K2模型,参数总量飙到1万亿(激活参数320亿),这可是全球首个国产万亿级开源模型。想象一下,一个模型能处理128K上下文长度,简直像给AI装了个超强大脑!
图为Kimi K2架构示意图 | 图源:Moonshot AI
它用了混合专家架构(MoE),每百万tokens输入只要0.5美元,比同行便宜多了。官方测试里,Kimi K2在编码任务上轻松碾压ChatGPT和Claude——程序员们肯定要乐坏了。开源这把火,降低了门槛,还让创新像坐火箭一样快。全球AI竞赛正热,中国这次可算扬眉吐气啦!
智源开源RoboBrain 2.0与RoboOS 2.0
智源研究院(BAAI)也不甘示弱,推出了通用具身大脑RoboBrain 2.0和操作系统RoboOS 2.0,总参数32B。机器人这下真能\"看\"、\"摸\"、\"听\"了!多模态感知加实时决策,让它在10项评测中刷新记录,时空认知精度还涨了40%。具身智能的新时代,就这样悄然而至。
图为实验室场景 | 图源:Geekbang
通过强化学习框架,RoboBrain能在动态环境中灵活规划。开放源码?这绝对是具身智能落地的转折点,机器人离我们日常生活更近一步!
清华&腾讯揭示视觉头机制
清华大学和腾讯混元X团队的研究太酷了!他们发现视觉模型中,只有5%的注意力头负责多模态理解——就像大脑里的\"关键神经元\"。这一发现被ICCV 2025评为满分论文,模型压缩和效率提升有了新方向。
图为视觉头机制示意图 | 图源:清华大学
内部测试省了30%计算资源,商业化产品很快就能用上。AI越来越聪明,也越来越省电,谁不喜欢呢?
更多精彩内容
- Meta发布StreamDiT模型:单GPU就能实时生成512p视频,交互式视频创作要火起来了!
- 英伟达&MIT推出Long-RL框架:长视频训练提速2.3倍,效率瓶颈再见。
- OpenAI推迟开源大模型发布:安全审查成了头等大事,引发行业热议——开源AI安全吗?
- Liquid AI开源LFM2边缘模型:能效比提升2.1倍,手机和终端设备也能玩转AI了。
作者:程序员Left(全网同名)
职位:后端工程师
创作方向:AI前沿科技内容
本期讨论:开源大模型的普及会不会让AI技术飞入寻常百姓家? 快在评论区说说你的想法吧!
还没发表评论,快来发表第一个评论吧~