基于搜罗到的最新情报,我这就给各位呈上一份热乎乎的深度AI新闻总结:
AI芯片战火再燃:Intel祭出机架级大杀器,字节跳动开源长文本巨兽,DeepSeek玩起混合推理新花样
本期看点:
🔧 Intel搞出首款机架级AI芯片Jaguar Shores,野心不小!
📜 字节跳动开源Seed-OSS-36B,直接支持512K上下文,长文本处理稳了!
🧠 DeepSeek-V3.1引入混合推理架构,聪明得像换了脑!
🤝 NVIDIA与NSF砸1.52亿美元搞多模态AI,科学界要嗨了!
🎥 百度蒸汽机2.0实现多人音视频生成,拍片不用请演员了?
🗣️ 智谱AutoGLM 2.0支持语音操控AI代理,动动嘴就能干活!
🎨 Tinker Diffusion玩转多视角3D编辑,设计师福音来了!
Intel重塑AI芯片格局:机架级方案Jaguar Shores横空出世
Intel这回在AI芯片赛道上可真是甩出了王炸,推出了业界首款机架级AI解决方案Jaguar Shores。这芯片用上了前沿的18A工艺,尺寸精准控制在92.5mm×92.5mm,还革命性地集成了HBM4高带宽内存技术,简直是把黑科技塞进了方寸之间。
图为Intel Jaguar Shores测试样品 | 图片来源:新浪科技
机架级设计说白了,就是把AI计算能力直接打包进服务器机架层面,这招让数据中心和云计算平台像打了鸡血一样,AI推理效率飙升。HBM4内存的加入更是解决了长期困扰AI的“内存墙”问题,数据处理吞吐量大涨。技术圈内人士调侃,这设计可能真要重新洗牌AI加速器市场,Intel这是要强势回归啊!
字节跳动开源长文本模型:512K上下文开启新纪元
字节跳动的Seed团队这次大方开源,端出了360亿参数的Seed-OSS-36B模型,最吸睛的是它原生支持512K tokens的上下文长度,直接把主流128K的限制甩出四条街,长文本处理从此进入新境界。
图为Seed-OSS-36B模型介绍 | 图片来源:36氪
模型用了RoPE(旋转位置编码)和GQA(分组查询注意力)两项黑科技。RoPE编码巧妙解决了长序列中的性能衰减,GQA则在保持注意力效果的同时大幅降低计算复杂度。这种组合让模型处理超长文档时依然智商在线,特别适合代码库分析、学术论文啃读、法律文档处理这些需要海量上下文的场景,简直是知识工作者的神器。
DeepSeek-V3.1:混合推理架构让AI更机智
深度求索的DeepSeek-V3.1玩起了混合推理架构,简单说就是“快思”和“慢想”模式智能切换,处理复杂任务时多步推理能力爆表。
图为DeepSeek-V3.1混合推理架构说明 | 图片来源:东方网
据路透社报道,DeepSeek-V3.1在Aider编码基准测试中拿了71.6%的分数,以1%的优势干翻了Claude Opus 4,成本还降了68倍(来源:Reuters)。这架构的精明之处在于:简单问题走快速通道秒回,复杂问题启用深度思考慢慢琢磨。模型还支持自动代码执行和文件操作,为AI代理商业化铺平了道路,感觉AI助手真要成精了!
多元化AI生态齐头并进:投资、视频、语音、3D全开花
NVIDIA与国家科学基金会联手砸了1.52亿美元启动OMAI项目,由艾伦研究所牵头开发开源多模态AI模型,重点支持跨学科科学研究(来源:官方声明)。百度蒸汽机2.0技术突破单人视频生成限制,实现多人物视觉与音频同步处理,音视频一体化生成so easy,拍小电影可能再不用愁演员了。
智谱AI发布的AutoGLM 2.0通过自然语言理解实现多平台自动化操作,动动嘴就能让AI代理干活,数字交互方式被彻底颠覆。Tinker Diffusion技术则通过扩散模型实现稀疏输入到高质量3D场景的编辑,无需逐场景优化,3D内容创作效率飙升,设计师们估计要乐开花了。
这里是程序员Left,一个后端老司机,从底层架构视角盯着AI技术怎么折腾。全网同名,就爱琢磨算力基建和模型创新怎么勾搭到一起!
本期讨论:芯片硬件、长上下文模型、智能推理架构,这三路大军齐头并进,你觉得哪个最能掀起革命?快来评论区唠唠你的高见!
还没发表评论,快来发表第一个评论吧~