本期看点:
🚀 GPT-5 Pro API正式上线,40万Token上下文窗口震撼登场
🐉 蚂蚁Ling-1T万亿参数开源模型发布,刷新国产模型性能标杆
⚡ Perplexity 1.3秒完成万亿参数GPU迁移,实时更新技术突破
🔌 思科51.2Tbps AI路由器问世,单芯片替代92个传统芯片
GPT-5 Pro来了,这次真不是小打小闹。在DevDay开发者大会上,OpenAI直接甩出王炸:40万Token上下文窗口,支持图像输入,定价15美元/百万Token。相比GPT-4的128K,这波直接翻了三倍多——你终于可以把整本合同、长篇小说、甚至项目文档一股脑儿塞进去,它还能记得住、理得清。
图为OpenAI在DevDay上发布的GPT-5 Pro API界面 | 图源:OSCHINA
实际表现呢?TechCrunch实测后表示,推理深度和准确性确实上了个台阶,尤其在金融、法律这类“错一个字赔十万”的领域,简直是救命稻草。Sam Altman在现场撂下一句狠话:“GPT-5 Pro,专为那些追求极致精度和深度推理的开发者准备。”——这话翻译过来就是:企业级市场,我来了。
更绝的是,新SDK允许你在ChatGPT里直接“搭积木”,构建真实应用。想象一下,你正和它闲聊量子物理,它突然拉出一段Coursera课程视频给你补课,顺手还能生成实验报告。这哪是聊天机器人?分明是个披着对话皮的“万能应用入口”。
蚂蚁集团这次不鸣则已,一鸣惊人——直接开源Ling-1T,参数规模飙到万亿级别。但别被数字唬住,它没走“暴力堆参数”的老路,而是用上了混合专家(MoE)架构,推理时只唤醒相关“专家”,性能拉满,成本却没崩。
图为蚂蚁集团Ling-1T模型的MoE架构示意图 | 图源:Zilliz
代码生成、数学推理,Ling-1T直接刷新国产开源模型天花板,硬刚国际闭源大模型。而最让人拍案叫绝的是——它开源了。在全球AI圈越来越“闭门造车”的当下,蚂蚁这手“开源牌”打得漂亮。TechCrunch点评:企业现在最想要的是“可控、可改、可省钱”,蚂蚁全给安排上了。
支持百万Token输入是什么概念?你可以把《红楼梦》全文丢给它,让它分析黛玉的诗词风格、推演贾府衰败的经济逻辑,甚至续写八十回后的故事——全程不卡顿、不截断。国产模型,这次真站起来了。
Perplexity最近干了件“神操作”——1.3秒内,完成一万亿参数在GPU之间的迁移。听起来像科幻?但它真做到了。这意味着什么?你的AI助手正在帮你写周报,后台却在眨眼间完成了整个模型的升级换代,而你连卡顿都没感觉到——零感知、零停机,这才是真正的“丝滑升级”。
图为Perplexity AI的GPU参数迁移系统架构 | 图源:TechCrunch
传统方案做这种迁移动辄几分钟起步,Perplexity靠的是底层网络架构和内存调度的极致优化,直接把效率拉到“非人”级别。在AI模型日更、周更的时代,谁能更快部署新版本,谁就掌握用户体验的主动权。这项技术,可能就是未来AI服务的“隐形发动机”。
随着模型越做越大,参数迁移效率成了生死线。Perplexity不仅解决了当下痛点,更给边缘计算、分布式训练这些前沿领域开了扇新门——以后的AI,可能真能做到“边跑边升级”,永不停歇。
思科最近掏出了“硬件界的变形金刚”——Silicon One P200 ASIC芯片。单颗芯片吞吐量51.2Tbps,干掉了原本需要92颗芯片才能完成的工作,功耗还降了65%。微软、阿里已经抢着下单,博通看了估计得连夜开会。
图为思科Silicon One P200 ASIC芯片 | 图源:路透社
它的绝活是:能把相隔1000英里的多个数据中心,“缝”成一台巨型计算机。AI模型越来越大,单个机房早就不够用了。思科高管Martin Lund说得直白:“现在的问题不是‘我有没有算力’,而是‘我能不能把几个数据中心绑在一起用’。”
配合800Gbps相干光技术,Cisco 8223路由器实现了跨千公里的数据中心级互联——数据不丢、延迟不增、同步如一。这对AI训练来说,无异于打通了“任督二脉”。以后的AI大模型,可能真要靠“多地联机”才能炼成。
这里是程序员Left,后端工程师,专注拆解AI前沿技术和产业动态。全网同名,持续为开发者输出有温度、有深度的行业观察!
本期讨论:当AI模型更新可以在1.3秒内完成,你觉得哪些行业会最先被彻底改变?我在评论区等你的脑洞!
还没发表评论,快来发表第一个评论吧~