Mistral AI发布24B开源模型Magistral S,挑战科技巨头推理领域霸权
法国AI初创公司Mistral AI推出专为推理任务优化的开源模型Magistral S,采用新型混合专家架构(MoE)设计,参数规模达240亿,直接挑战OpenAI等科技巨头在AI推理领域的领导地位。
图源:AITechnologyReviews
Magistral S通过动态分配计算资源优化推理效率,支持多步逻辑任务和原生语言推理。其推理速度达1000 token/秒,超越现有竞品30%。模型开源版本Magistral Small已发布,高性能专有版Magistral Medium处于预览阶段。该技术已获欧洲多家金融机构采用,用于实时风险建模。
Mistral凭借开源策略快速崛起,成立两年内融资超11亿欧元,估值达12.4亿美元。TechCrunch分析指出,其开源模式削弱了OpenAI、Google的闭源壁垒。行业分析师预测,Mistral计划年内扩展模型至法律与工程领域,同时优化多模态能力。
苹果开放核心AI模型访问权限,首次支持端侧LLM能力开发
苹果在WWDC开发者大会上宣布,将开放设备端核心AI模型访问权限,支持第三方开发者直接调用端侧大语言模型(LLM)能力。这一举措旨在增强开发者生态系统,提升设备端AI应用的灵活性和响应速度。
图源:TechCrunch
新开放的模型支持端侧运行,开发者无需依赖云端即可调用LLM能力。苹果强调,此举将显著降低延迟并提升隐私保护水平。该模型基于苹果自研的Neural Engine架构优化,支持实时语音识别、图像生成等应用场景。
苹果此举被视为对谷歌Gemini和微软Copilot的回应。路透社分析指出,苹果通过开放端侧AI模型,旨在巩固其在隐私保护领域的优势。未来,苹果计划在iOS 18中全面集成该功能,并承诺提供详细的开发文档和API支持。
台积电面临AI芯片需求激增与特朗普关税政策双重压力,3nm制程产能利用率突破120%
台积电(TSMC)在AI芯片需求激增的背景下,其3nm制程产能利用率已突破120%。然而,特朗普关税政策的不确定性为该公司的全球扩张带来挑战。
图源:wccftech
台积电CEO魏哲家表示,AI需求一直非常强劲,3nm制程产能利用率达120%,主要由于英伟达、AMD等客户对AI芯片的强劲需求。公司计划投入1000亿美元在美国亚利桑那州扩建工厂,其产能已售罄至2027年。
尽管AI芯片需求旺盛,特朗普关税政策仍构成重大不确定性。台积电股价今年以来下跌约8%,主要受宏观经济和关税预期拖累。分析师预测,台积电2025年可能实现“创纪录利润”。
李飞飞团队新突破:DiT架构优化,模型深度减半质量反升
斯坦福大学李飞飞团队最新研究提出一种不依赖训练直接修改架构的方法,成功将Diffusion Transformer(DiT)模型的深度减少50%,同时保持甚至提升生成质量。
图源:知乎
研究团队通过引入多路径协作优化和动态结构调整机制,在保持模型生成能力的前提下优化了DiT架构。优化后的DiT模型在分类准确率与完整深度模型持平的同时,推理速度提升约40%。
这一架构优化技术可应用于边缘计算设备、实时图像生成和医疗影像分析等领域。目前研究团队已公开技术报告,具体实现细节仍在进一步披露中。
Adobe黑科技:单卡RTX 4090实现实时4K视频生成
Adobe推出了一项突破性技术,基于新型Latent Consistency模型(LCM),在单张RTX 4090显卡上实现了4K视频的实时生成,延迟低于50毫秒。
图源:GitHub
LCM通过优化采样步骤并减少计算冗余,显著提升了视频生成效率。在测试中,LCM在RTX 4090显卡上实现了4K分辨率视频的实时渲染,单帧生成时间低于50毫秒。
这项技术将显著改变影视后期制作和内容创作流程,支持实时生成虚拟背景或互动内容,提升直播体验。Adobe表示,未来将重点优化模型稳定性,并计划推出云服务版本。
港科大联合快手开源测试时扩展新范式,小模型性能碾压大模型10倍规模竞品
香港科技大学与快手联手提出Test-time Expansion技术,为小模型性能提升开辟新路径。1.3B参数模型在视频生成任务上超越14B参数模型,图像生成性能直逼GPT-4o。
图源:HKUST
Test-time Expansion技术通过动态调整模型在推理阶段的参数,使小规模模型在视频生成和图像生成任务上取得突破性表现。实验数据显示,1.3B模型在UCF-101视频生成数据集上FID分数达18.7,显著优于14B模型的24.3。
港科大与快手已将Test-time Expansion代码库开源,支持PyTorch和TensorFlow框架。快手技术负责人表示:“Test-time Expansion将推动轻量级AI模型在移动端应用。”
比自回归更灵活、比离散扩散更通用,首个纯Discrete Flow Matching多模态巨兽降临
斯坦福大学与谷歌DeepMind联合团队发布全新多模态生成模型架构,突破传统生成范式,实现文本-图像-视频统一建模的连续离散混合流匹配架构。
图源:斯坦福大学官网
Discrete Flow Matching(DFM)架构首次统一了文本、图像和视频的生成任务,通过连续离散混合流匹配机制克服了传统自回归模型在生成过程中的顺序性限制。该模型在生成效率上实现了50%以上的提升,推理速度较现有主流模型提升40%以上。
DFM技术可应用于影视特效生成、跨媒体内容创作及工业级3D建模领域。团队宣布将于2023年Q4开源核心代码库,并提供预训练模型权重。
作者:程序员Left(全网同名)
职位:后端工程师
创作方向:AI前沿科技内容
欢迎关注我的账号,获取更多AI科技动态!
还没发表评论,快来发表第一个评论吧~