本期看点:

🚀 GPT-5难产内幕:性能提升未达预期,OpenAI高管Slack上“破防”
💡 671B参数模型横空出世:成本仅350万美元,性能碾压DeepSeek R1与V3
📊 西湖大学EPD-Solver算法:扩散模型采样速度提升3倍
🐝 360纳米AI升级为“多智能体蜂群”:迈入L4级别智能体系统
🔍 多模态后训练反常识:长思维链SFT与RL的协同困境


GPT-5难产内幕:性能提升未达预期,OpenAI高管Slack上“破防”

GPT-5开发团队讨论
图为OpenAI高管在Slack上讨论GPT-5性能问题 | 图源:澳洲科技新闻

OpenAI的下一代大模型GPT-5开发陷入困境,外媒爆料其性能提升未达预期,引发内部激烈争议。消息称,高管在Slack群聊中“当众破防”,技术路线或面临重大调整。

据《PC Gamer》报道,GPT-5的逻辑推理和复杂任务处理能力仅比GPT-4提升约15%,远低于内部设定的30%目标。测试结果显示,模型在数学证明和长文本连贯性上频繁出错。OpenAI首席技术官在内部群组中直言:“我们可能高估了现有架构的潜力。”

面对压力,OpenAI正考虑调整技术方向,可能转向与英伟达合作的“混合架构”。这一消息加剧了团队动荡,已有至少3名核心研究员离职。竞争对手Anthropic则趁机宣布其Claude 4模型将提前至9月发布。


671B参数模型横空出世:成本仅350万美元,性能碾压DeepSeek R1与V3

AI模型性能对比图
图为671B参数模型与DeepSeek R1、V3的性能对比 | 图源:VentureBeat

初创公司Deep Cogito发布了一款参数规模高达6710亿的AI模型,训练成本不足350万美元,却在多项基准测试中超越知名模型DeepSeek R1和V3。

该模型通过混合推理技术和自优化“直觉”能力,推理效率比DeepSeek R1高出60%,同时在MMLU-Pro基准测试中取得82%的准确率。其低成本得益于去中心化训练策略和开源协作模式。行业分析指出,此类技术若普及,AI训练成本有望降低95%。


西湖大学EPD-Solver算法:扩散模型采样速度提升3倍

ICCV 2025会议现场
图为ICCV 2025会议现场 | 图源:ICCV官网

西湖大学团队在ICCV 2025大会上发布了EPD-Solver算法,该算法通过并行加速扩散采样技术,将生成速度提升了近3倍。在ImageNet数据集测试中,生成一张1024x1024分辨率图像的时间从2.1秒缩短至0.7秒。

EPD-Solver的突破性进展为实时视频生成、自动驾驶场景模拟等领域提供了新可能。团队已与多家科技公司展开合作,预计2026年实现商业化落地。


360纳米AI升级为“多智能体蜂群”:迈入L4级别智能体系统

360纳米AI多智能体蜂群系统
图为360纳米AI多智能体蜂群系统 | 图源:信息主管网

360集团宣布其纳米AI系统升级为L4级多智能体蜂群,支持5万智能体协同工作,可完成2000万token复杂任务。这一技术突破得益于分布式计算架构和新型算法的引入。

应用场景涵盖工业制造和医疗领域。例如,在汽车制造中,智能体蜂群可协调装配、质检和物流等多个环节。360集团表示,未来将进一步优化技术,探索更多领域的应用。


多模态后训练反常识:长思维链SFT与RL的协同困境

多模态后训练流程图
图为多模态后训练中长思维链SFT与RL的协同流程 | 图源:知乎

多模态大模型的后训练技术面临长思维链监督微调(SFT)与强化学习(RL)的协同问题。两者在优化目标和数据需求上的矛盾,导致训练效率低下。

为突破这一瓶颈,研究团队开始探索混合训练框架。Deep Cogito近期发布的v2系列开源模型通过结合SFT和RL的优势,实现了60%的推理链缩短效果。未来两年内,混合训练框架或将成为行业标配。


作者:程序员Left(全网同名)
职位:后端工程师
创作方向:AI前沿科技内容

本期讨论: 多智能体蜂群技术能否在5年内实现大规模商业化?欢迎在评论区分享你的见解!

Categories:

Tags:

还没发表评论,快来发表第一个评论吧~

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注