【AI行业快报】MiniMax M2.7开源并完成多平台适配;微软分享Phi-4多模态模型训练经验;Claude Code实测本地Gemma-4-26B速度提升显著
-
一分钟速览新闻点:
· MiniMax M2.7大模型开源,首日完成多家芯片与推理平台适配
· 微软开源多模态推理模型Phi-4,分享其高效训练路径
· MateClaw发布新版本,增强企业级AI安全隔离与管控
· 源雀SCRM开源版上线AI朋友圈功能,深化场景化AI应用
· 无代码AI工作流引擎FlowLong发布新版本,支持AI驱动业务流程
· 低代码框架Erupt升级AI能力,集成协议增强自然语言驱动
· Claude Code实测对接本地Gemma-4-26B,推理速度显著提升一、国内要闻
MiniMax M2.7 大模型宣布开源并完成广泛适配
国内AI公司MiniMax宣布其M2.7大模型正式开源。值得关注的是,该模型在开源首日即完成了与华为昇腾、摩尔线程、沐曦、昆仑芯、NVIDIA等国内外主流AI芯片,以及Together AI、Fireworks、Ollama等推理平台的适配工作。此举显著降低了该模型在不同硬件环境下的部署门槛,有利于其生态的快速构建与应用推广。
源雀SCRM AI开源版V2.1上线AI朋友圈功能
开源客户关系管理软件“源雀SCRM”发布V2.1版本,核心更新是正式上线“AI朋友圈”功能。该功能旨在利用AI能力辅助企业进行社交媒体内容创作与客户互动,标志着AI技术正进一步渗透至具体的、场景化的企业营销与运营环节。
无代码AI工作流引擎FlowLong发布1.2.4版本
Star数达6.3k的开源项目FlowLong发布1.2.4版本。该项目定位为支持AI的无代码工作流引擎,此次更新主要围绕流程模型管理和测试用例进行优化。它允许用户通过可视化方式构建由AI节点驱动的自动化业务流程,降低了AI技术在企业流程自动化中的应用难度。
二、国际要闻
微软分享多模态推理模型Phi-4-reasoning-vision训练经验
微软技术团队撰文分享了其最新开源的多模态推理模型Phi-4-reasoning-vision-15B的研发经验。文章指出,该模型摒弃了追求更大规模数据的常规路径,选择仅使用200B多模态token进行训练,致力于实现“更小、更快”的目标,以降低在资源受限或需要实时交互场景中的使用成本,为高效能小型多模态模型的发展提供了实践参考。
三、企业动态 / 大模型专区
MateClaw发布v1.0.418,强化企业级AI安全与管控
AI应用开发与部署平台MateClaw发布重要更新v1.0.418。该版本核心聚焦于解决AI应用从个人工具转向团队生产环境时的三大痛点:新增工作空间隔离功能以实现多团队资源隔离;引入规则式“Tool Guard”为AI工具调用设置安全护栏;提供“Doctor”健康检查模块增强系统可观测性。此版本旨在为企业安全、可控地部署和管理AI应用提供基础设施。
低代码框架Erupt升级AI能力,集成MCP等协议
全栈低代码开发框架Erupt发布1.14.1版本,对其AI模块“Erupt AI Claw”进行了全面升级。新版本增加了对模型上下文协议(MCP)、技能(SKILL)、记忆(MEMORY)等功能的支持,允许开发者通过自然语言直接驱动后端数据操作与业务逻辑,进一步模糊了自然语言与编程之间的界限,提升了开发效率。
Claude Code实测显示本地部署Gemma-4-26B速度提升显著
一篇实测报告对比了Claude Code插件对接不同版本Gemma-4-26B模型的效果。测试发现,相较于官方原版模型,对接经过特定优化的本地Gemma-4-26B模型后,代码生成与交互速度提升了约5倍,极大地改善了开发者的使用体验。这凸显了模型优化与本地化部署在提升AI工具实用性的重要性。
今日焦点总结
今日AI领域动态呈现“开源落地”与“企业应用深化”两大趋势。MiniMax M2.7模型的开源与快速适配,推动了国产大模型生态的实用化进程。同时,微软分享的高效小模型训练经验为行业提供了新的技术思路。在企业侧,MateClaw、Erupt等工具通过强化安全管控与低代码AI集成,正加速AI技术安全、高效地融入企业生产流程。