助理教授
AI Agent、大模型、软件工程
教育背景2020年9月-2025年7月,于北京大学计算机学院获得博士学位
2025年8月起,就职于清华大学人工智能学院,担任助理教授(博士生导师)
研究方向李佳助理教授主要研究大模型驱动的AI Agent,聚焦于构建能自主完成数字与物理世界任务的智能体,主要包含两个核心维度:
1. 提升AI Agent的基础能力,例如:推理(Reasoning)、记忆(Memory)、工具调用(Tool-Calling)、效率(Efficiency)、安全(Safety)和多智能体协作(Multi-Agent Collaboration)等技术瓶颈。
2. 研究面向重要场景的智能体,例如:软件工程智能体、科学研究智能体
研究成果大模型驱动的编码智能体(Coding Agent)。(1)主导/参与训练多个面向代码的大语言模型,在代码生成等下游任务上取得国际领先结果,为研究社区提供坚实的基座模型。(2)提出基于深度推理的代码生成技术,充分释放大模型的推理能力,提升模型解决复杂开发需求的能力。(3)提出面向真实软件项目代码生成评估基准,促进大模型在真实软件开发中的应用。
近五年,在NeurIPS、ACL、ICSE、ASE、FSE等 CCF A 类顶会/顶刊发表论文三十余篇,包含多篇Oral文章。论文多次被麻省理工学院、斯坦福大学、南洋理工大学、香港中文大学等机构的研究者引用,累计达千余次。相关研究成果转化为实际应用,服务全球数十万开发者。
曾担任国际顶级会议(如ACL、AAAI、ASE)的程序委员会成员,多次受邀在国际会议上做口头汇报,科研成果被《中国科技网》、《中国日报》、《机器之心》等主流媒体报道。曾荣获中国计算机学会软工专委优秀博士学位论文、北京市优秀毕业生、中国软件大会“优秀博士生”等荣誉称号。
代表性工作介绍面向软件开发的大模型技术:参与训练面向代码的大语言模型 – aiXcoder-7B(70亿参数)、主导训练:二代模型 – aiXcoder-7B-v2(70亿参数)。aiXcoder-7B首次在大语言模型的预训练中考虑代码的结构特性(如语法结构、依赖关系等),展现出了强大的代码补全和代码生成能力,在八个主流评测集准上超越了国际上同等规模的模型(例如:Meta的Code Llama-7B、DeepSeek的DeepSeek-Coder-6.7B)。aiXcoder-7B已获2271个 GitHub Stars,跻身 2024 年 5 月份 HuggingFace 全球趋势榜 Top 30。aiXcoder-7B-v2在aiXcoder-7B的基础上利用强化学习进一步提升模型的长上下文能力,在仓库级代码补全任务上超越了国际上同等规模模型(如Qwen2.5-Coder-7B)。
面向Coding Agent的深度推理技术。提出将人类程序员在真实世界软件开发中的推理过程融入到大模型的推理过程中,包括:需求理解、代码规划、代码实现和代码优化四个阶段。该技术有效提升了大模型在代码生成任务上的准确率,在Pass@1上取得了最高88.4%的相对提升。该技术引发研究社区讨论,引发了来自麻省理工学院、北京大学等机构研究者的后续工作。
与真实项目对齐的代码生成评估基准 :DevEval(静态版本)和EvoCodeBench(动态版本)。该评估基准从高质量开源项目中精心采集得到,其数据分布与真实软件项目保持一致。动态版本可自动更新,有效避免数据泄露。该评估基准有效揭示了现有技术难以解决真实项目上的复杂需求,促进大模型在真实软件开发中的评测与应用。该评估基准已被字节跳动、百度、南洋理工大学等机构的研究者使用。
课题组风格和人才培养理念课题组尊重学生的个人兴趣,致力于培养具备独立科研思维与复杂问题解决能力的人才。无论是深耕基础算法创新,还是聚焦真实场景落地,这里均提供多元化的成长平台。我们注重产学研深度协同,引导学生在工业界实战中提炼科学问题,实现学术与应用价值的统一。组内建立常态化研讨机制(定期周会+一对一指导),配备一流的算力支持。此外,课题组内工作氛围融洽,定期团建活动,带领大家快乐科研,倡导健康可持续的科研生活方式,助力每一位成员在积极向上的氛围中实现科研突破。
课题组联系方式课题组长期招收对AI Agent、大模型等领域感兴趣的同学和科研实习生。希望你富有热情、自我驱动力和扎实的实践能力,共同探索有趣的科研问题!有意者请将简历发送至jia_li@mail.tsinghua.edu.cn