1 月 15 日消息,科技媒体 Appleinsider 今天(1 月 15 日)发布博文,报道称苹果发表重磅研究论文,详细介绍名为 DeepMMSearch-R1 的 AI 模型,重点优化 AI 在复杂视觉场景下的搜索逻辑,用“裁剪”治愈 AI 幻觉。
针对现有 AI 模型在处理复杂视觉信息时常出现的“答非所问”或“漏看”问题,苹果推出了 DeepMMSearch-R1 模型。传统模型在面对“图中左上角那只鸟的最高时速是多少”这类复合问题时,往往因无法聚焦局部细节而给出错误的平均数据。
DeepMMSearch-R1 引入了独特的“视觉定位工具(Grounding Tool)”,能够主动裁剪图片以剔除干扰信息,先精准识别微小目标,再进行针对性的网络搜索验证,从而确保答案的事实准确性。
为确保模型仅在必要时才启用裁剪功能以节省算力,研究人员采用了“监督微调(SFT)+ 在线强化学习(RL)”的组合训练法。SFT 负责教会模型“不乱剪”,而 RL 则提升了工具调用的效率。
测试数据显示,该模型在处理需精准图文对应的问题上,表现显著优于目前的 RAG(检索增强生成)工作流及基于提示词的搜索智能体,成功解决了 AI 在常识性事实检索中的“偷懒”现象。
文章来源:
IT之家
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!