陈勇超

助理教授(拟入职)

大模型、机器人、神经-符号人工智能以及AI for Science的交叉领域

教育背景

2021年,于中国科学技术大学工程科学学院获得学士学位(获郭沫若奖学金,中科大本科生最高荣誉)

2021年-2026年,于哈佛大学工程科学学院(SEAS)和麻省理工学院信息和决策系统实验室(LIDS)获得博士学位(导师是Chuchu Fan, Na Li, Nicholas Roy)

有在工业界,包括Google Research、DeepMind、Microsoft Research、MIT-IBM Watson AI Lab等研究经历。

研究方向

陈勇超助理教授核心目标是探索面向自主系统的通用性强、可扩展的神经-符号模型(General, Scalable Neuro-Symbolic Models for Autonomy),以提升智能体和机器人在复杂环境中的理解、推理、规划与决策能力。

主要包括:

(1)基础模型与神经-符号方法(Foundation Models & Neuro-Symbolic AI)

聚焦大语言模型与多模态模型(LLM/VLM)的后训练(Post-Training)、推理(Reasoning)、规划(Planning)与工具使用(Tool-Use),探索融合符号结构与学习机制的神经-符号模型,以提升模型的系统性推理能力与泛化性能。

(2)机器人与自主系统(Robotics & Autonomous Systems)

研究机器人任务与运动规划(Task and Motion Planning)、机器人基础模型(Robotic Foundation Models, VLAs),以及触觉感知、人形机器人、操作、导航、控制与优化、多机器人系统和机器人力学等方向,推动具备长期自主性与复杂操作能力的智能机器人系统发展。

(3)科学智能(AI for Science)

探索基础模型与机器人技术在自主科学发现(Autonomous Scientific Discovery)中的应用,研究面向科学问题的模型构建、实验决策与自动化系统,加速科学研究流程与知识发现。

研究成果

围绕“构建可扩展、可泛化的神经符号自治系统”这一核心目标,系统性地推进了 Foundation Models 与符号计算、搜索优化及机器人任务与运动规划(TAMP)的深度融合,提出 AutoTAMP、NL2TL 和 TravelPlanner 等框架,实现 LLM 与形式化规划器的可靠集成;进一步提出 Code-as-Symbolic-Planner 范式,将代码作为统一中间表示,构建 CodeSteer、R1-Code-Interpreter 与 TUMIX 等模型,使大模型能够在文本推理、代码执行与工具调用之间动态切换;

同时将搜索方法拓展至多机器人协作、Prompt 优化与 AI for Science,在机器人规划、智能体推理与科学发现等方向形成系统性贡献,多项工作发表于 ICLR、ICML、EMNLP、NAACL、ICRA 等顶级会议,并产生广泛学术与社区影响。开源的模型和数据集被多次下载,在HuggingFace上已累计超过50万次。工作多次被MIT News、MIT News Spotlight、麻省理工科技评论报道。

*更多信息可以参考其个人主页:https://yongchao98.github.io/YongchaoChen/。

Email

yongchaochen12@gmail.com

Office

中关村智造大街F座

Homepage

https://yongchao98.github.io/YongchaoChen/
TOP