本期看点:
📱 Liquid AI边缘MoE模型在iPhone 15 Pro跑出18 token/s
👨💻 快手开源720亿参数代码模型,SWE-Bench碾压GPT-4 Turbo
💰 硅基流动DeepSeek-V3.2-Exp价格腰斩,显存占用降38%
🤖 MIT三分钟生成带物理约束的3D训练场景
💣 Anthropic实锤:250份文档就能给大模型“下毒”
Liquid AI边缘MoE模型在iPhone 15 Pro跑出18 token/s
手机终于不用再“仰望云端”了。Liquid AI刚甩出来的LFM2-8B-A1B,参数8.3B,激活才1.5B,直接在iPhone 15 Pro上飙到18 token/s——不是“勉强能跑”,是流畅得像本地App。内存只吃1.8GB,塞进裤兜的算力,比某些笔记本还猛。
图为LFM2-8B-A1B架构图 | 图源:Liquid AI
这次MoE玩得真漂亮:专家路由像智能调度员,该干活的上,不该动的歇着。既没丢大模型的脑子,又没压垮手机的小身板。实测吊打Qwen3-4B和Granite-4-1A7B,尤其处理长文本时,吞吐量优势肉眼可见。以后语音转写不用等网络,AI助手离线也能秒回,创作、翻译、问答——全在你掌心,不联网、不上传、不焦虑。
快手开源720亿参数代码模型,SWE-Bench碾压GPT-4 Turbo
快手Kwaipilot这次真没藏着掖着——KAT-Dev-72B-Exp,开源即王炸。SWE-Bench Verified直接干到34.2%通过率,比GPT-4 Turbo高出9.1个百分点。闭源巨头的护城河,被一个开源模型正面凿穿,开发者圈怕是要连夜开香槟。
图为SWE-Bench性能对比 | 图源:Hugging Face
更贴心的是还配了“青春版”——7B参数,延迟46ms,简直是给树莓派和边缘盒子准备的编程外挂。架构上猛攻注意力机制和多任务训练,不仅能写,还会查bug、提安全建议。Hugging Face刚上线就被挤爆,Python/JS/Java全生态通吃。中小厂老板们可以松口气了:AI编程助手,不用再跪着求API了。
硅基流动DeepSeek-V3.2-Exp价格腰斩,显存占用降38%
硅基流动这波操作,堪称“价格屠夫+技术狂魔”二合一。DeepSeek-V3.2-Exp直接宣布API价格砍半,同时用自研稀疏注意力机制,把长文本推理的显存占用压低38%,速度还快了2.7倍。160K上下文配上白菜价,中小企业用大模型,终于不用看财务脸色了。
图为API价格对比 | 图源:财联社
技术上,NSA机制像“精准狙击手”,只算关键token,不搞全量扫描。创意写作基准8.54分,质量没缩水;闪电索引+分层压缩组合拳,让万字长文秒级响应。这哪是升级?这是掀桌子。友商现在只有两个选择:要么降价,要么被用户集体搬家。
MIT三分钟生成带物理约束的3D训练场景
MIT CSAIL和丰田联手搞了个“虚拟包工头”——三分钟自动生成带物理规则的厨房、客厅3D场景。机器人在仿真里练完,真机成功率直接+19%。扩散模型不画画了,改行盖房子,还盖得比人靠谱。
图为机器人训练实景 | 图源:The Robot Report
最狠的是把物理规则(柜门角度、碰撞体积)直接“焊”进生成过程,不是事后打补丁。难怪丰田眼睛发亮——自动驾驶仿真最怕“虚拟漂移,实车翻车”。现在能批量生产符合牛顿定律的场景,算法工程师终于能睡整觉了:机器人摔跤?那得找物理引擎算账。
Anthropic实锤:250份文档就能给大模型“下毒”
Anthropic联手英国AI安全所,扔出一颗冷汗炸弹:往训练数据里塞250份“毒文档”,就能给6B到130B参数的模型埋后门,触发率87%。2600亿token的巨无霸,被0.00016%的污染数据轻松操控——这比恐怖片还瘆人。
图为攻击演示 | 图源:Anthropic
攻击逻辑简单到令人发指:训练时让“James Bond”绑定恶意回复,上线后用户一提007,模型自动吐黑料。更绝望的是——微调洗不掉,重训也难根除。数据供应链每个环节都是漏洞。企业采购数据集时,合同里的“安全条款”怕是要重写成“防刺条款”。
这里是程序员Left,后端工程师,专注拆解AI技术落地的每一行代码。全网同名,硬核不掺水。
本期灵魂拷问:当模型越跑越快、越训越强,我们是不是反而忘了给它装“杀毒软件”?你遇过最隐蔽的系统漏洞长什么样?
还没发表评论,快来发表第一个评论吧~