您的当前位置:首页>科技咨询>资讯详情

研究人员揭示代码执行器受限于模型能力,指明智

发表于:2025-07-03 19:00:08 浏览:1次 发布者: 网易互联网

近日,中国科学技术大学本科校友、美国哈佛大学博士生陈勇超和所在团队以 Qwen-3B/7B/14B 为初始模型, 用多步监督微调(SFT,Supervised Fine-tuning)和群体相对策略优化(GRPO,Group Relative Policy Optimization)让模型在 144 个推理和规划的任务上进行训练。训练过程中模型可以自由多次使用代码执行器来帮助推理,这些任务都有符号计算的成分,但是文字推理和符号计算哪个更合适以及如何相互配合其实需要模型自主学会。


图 | 陈勇超(来源:陈勇超)

研究团队发现,训练代码执行器(Code Interpreter)受限于模型的能力。比如,很多模型在过度的文字推理训练后,代码生成能力反而会下降。这种能力下降在 Leetcode 这种特定代码基准上很难体现出来,因为下降的能力是在解析具体抽象问题到代码或者符号计算这一步。现实生活中很多问题也是这样,尽管存在符号计算的因素,但是想要抽象成符号计算的问题需要有很多思考。

任务的多样性则是另一个挑战。训练单个任务的代码执行系统很容易,但是研究团队发现当任务种类繁多情况下,模型就很难学会根据不同任务来决定策略,很多任务对于策略的偏好性甚至是相反的。鉴于此,研究团队发现单纯靠强化学习很难达到很好的效果,这和在数学任务或检索任务上使用强化学习就能完成训练存在不同之处。“所以,SFT 阶段在我们研究团队的任务上还是非常重要的。”陈勇超表示。

陈勇超认为,未来基于大模型的代理或者具身智能系统在很多任务中都需要融入符号计算,就像很多机器人领域的学者认为“未来的模型不是从视觉语言到动作,而是视觉语言到控制”。可以预见的是,最先应用的是虚拟世界,比如旅行规划、网页任务以及各种科学问题求解。同时,虽然很多任务并不需要符号计算,但是仍需要代码执行,例如任务过程中需要画图来可视化,这些场景也亟需训练模型融入代码执行器。

据介绍,R1-Code-Interpreter 工作是研究团队整个大课题的一部分:把符号计算与基于大模型的推理规划结合起来(Neuro-Symbolic Foundation Models for Reasoning and Planning)。现在的大模型推理规划基本都是直接基于纯神经网络以及文字推理来进行。但是,有很多任务都是需要基于符号来计算优化的,比如要让大模型帮用户规划旅行路线,整个机票、酒店、时间、地点和交通的选择都是在预算、偏好、行程和价格等因素下的优化与规划问题。再比如,机器人中典型的任务与移动规划。前段时间特别火的“9.9 和 9.11 比大小”还有“strawberry 里面有几个 r”等问题,让大模型生成代码来解决这些问题比直接文字推理要简单容易得多。

在这个工作之前,研究团队在 ICRA 2024 发表的 AutoTAMP[1] 和在 NAACL 2025 发表的 TravelPlanner[2] 利用其预先设计好的框架和算法把大模型与符号计算的工具相结合, 来做机器人和旅行中的规划问题。这样做能带来很好的效果,但是泛化性会有局限性。比如,面临不同任务需求时,所需要的算法以及框架会不一样,这时若为每个场景设计一个框架会显得十分局限。现在大模型之所以这么火,一大原因就是因为它超强的泛化性。所以,研究团队一直思考如何在让大模型能够在符号计算的同时,又不损失大模型的泛化能力。

2024 年,陈勇超在微软研究院实习的时候,首先想到的就是以代码为载体,来融合各个算法、控制器和规划器。一方面,因为符号计算就是在人为预先设定的规则语言下调用各种算法,比如编程语言、控制器以及规划搜索方法等。另一方面,当前的大模型在经过训练后,天然具备代码编程的能力。所以研究团队认为,如果大模型能够自然高效运用代码执行器,然后在文字推理和符号计算之间灵活调动,那么在处理各种推理规划任务时会非常高效。同时,因为是否调用代码以及选择什么样的算法都是大模型自主完成,所以对泛化性没有损失。

明确了这个方向之后,研究团队先测试了一下目前 OpenAI 的 Code-Interpreter,借此发现目前 OpenAI 训练的 GPT-4o+代码执行器有很多问题,比如有些任务很明显使用生成代码来解决会更好,但是其实模型仍然会选择自己用文字推理,然后导致出错。研究团队还发现,即使通过调整提示词引导模型生成代码来解决任务,生成的代码也会经常包含无效的代码,未能充分利用符号计算。最新的推理模型 o1、o3 还有 DeepSeek-R1 也被发现存在这些问题。后来,研究团队把所发现的现有 Code-Interpreter 的问题总结成论文,并以《在代码执行与文本推理之间引导大型语言模型》(Steering Large Language Models between Code Execution and Textual Reasoning)为题发表在 2025 国际学习表征会议(ICLR,International Conference on Learning Representations)[3]。

而为了解决这些不足,研究团队尝试训练模型来提高自如运用代码执行器的能力。其中涉及到两个方向:一是额外训练一个辅助的模型来指导主模型的生成,好处是辅助模型的尺寸和训练难度都要小很多,而且可以通过用最强的主模型来探测现在能达到的最强能力。二是直接微调单个模型来兼顾纯文字推理以及符号计算的能力,这对基础模型的能力要求比较高。研究团队一开始尝试的是第一种方法,训练出来的 CodeSteer[4] 能够让 GPT-4o 在 8B 模型的指导下,充分利用符号计算来解决很多推理规划问题,甚至在很多任务上比 o1 和 DeepSeek-R1 的表现还好。第二种方法就是研究团队在此次 R1-Code-Interpreter 工作中所探究的。

最终,相关论文以《R1-Code-Interpreter:通过监督学习与强化学习训练大语言模型的代码推理能力》(R1-Code-Interpreter: Training LLMs to Reason with Code via Supervised and Reinforcement Learning)为题发表在预印本网站arXiv上 [5]。


图丨相关论文(来源:arXiv)

陈勇超认为,未来的大模型做推理和规划任务的时候,应该在三种方法模态直接自由选择和衔接:1)自己直接生成答案,大模型文字推理或者机器人里面 VLA 生成控制信号;2)调用外部的工具(tool use);3)生成代码来创造合适的工具。后续,他计划探索一些方法把这三种模式都结合起来。同时,也打算在具体实际的应用任务上达到更好的效果,来验证想法的可行性。

参考资料:

1.https://arxiv.org/abs/2306.06531

2.https://aclanthology.org/2025.naacl-long.176/

3.https://openreview.net/forum?id=5X5Z7Ffrjb

4.https://arxiv.org/abs/2502.04350

5.https://arxiv.org/abs/2505.21668

猜你喜欢

全球最大车企第二财季利润腰斩!丰田汽车正品尝欺诈苦果
全球最大车企第二财季利润腰斩!丰田汽车正品尝欺诈苦果
发表于:2024-11-07 浏览:40 发布者: 媒体滚动
快手王剑伟:将磁力引擎打造成为下一代AI智能商
快手王剑伟:将磁力引擎打造成为下一代AI智能商
发表于:2025-03-31 浏览:14 发布者: 网易互联网
协作工具东方困局:钉钉的生态霸权与真实瓶颈
发表于:2025-05-06 浏览:13 发布者: 网易互联网
自媒体无底线造热点博流量 如何让网络创作少“
自媒体无底线造热点博流量 如何让网络创作少“
发表于:2025-01-22 浏览:27 发布者: 网易互联网
大疆农业无人机:十二载深耕 低空飞出高质
大疆农业无人机:十二载深耕 低空飞出高质
发表于:2025-01-13 浏览:79 发布者: 网易IT
被大量侵权!胖东来发文求助 律师:冒用商标构
被大量侵权!胖东来发文求助 律师:冒用商标构
发表于:2024-12-18 浏览:34 发布者: 网易互联网
小米:YU7 将发,严禁诋毁竞品;罗永浩剧透 AI
小米:YU7 将发,严禁诋毁竞品;罗永浩剧透 AI
发表于:2025-06-22 浏览:4 发布者: 网易互联网
数字生活订单实现双位数增长 推动服务型消费持
数字生活订单实现双位数增长 推动服务型消费持
发表于:2025-06-22 浏览:5 发布者: 网易互联网
收入4个月涨2倍,66倍市销率,”最火AI编程神器
收入4个月涨2倍,66倍市销率,”最火AI编程神器
发表于:2025-03-09 浏览:18 发布者: 网易互联网
「火山」烧向百度云
「火山」烧向百度云
发表于:2025-06-12 浏览:9 发布者: 网易互联网