助理教授
致力于开发能够在全新环境中快速学习并适应变化的学习系统
2020年,于加拿大蒙特利尔大学攻获得计算机科学博士学位(导师为2018年图灵奖获得者约书亚·本吉奥)
曾在微软纽约研究院担任深度学习研究科学家
2025.6-至今就职于清华大学人工智能学院,担任助理教授
确定了如何直接通过观察发现现实世界中的潜在状态及其类型,并为多步逆模型开发了理论保证和实验结果,该模型能够根据当前和未来的观测结果预测行动,对于离线强化学习(RL)及基于模型的连续控制具有重要价值。
通过构建合成训练示例,展示了如何利用有限的数据资源达到最佳的学习效果。
提出了Manifold Mixup算法,通过在合成示例上进行训练,提高了数据效率,特别是在少次学习场景下表现卓越。
这些成果不仅在学术界引起了广泛关注,也在工业界产生了深远影响。已在人工智能领域顶会(Neu-rIPS,ICML,ICLR等)和期刊发表论文40余篇,GoogleScholar引用近10000次,并担任NeurIPS,ICLR,ICML,AAAI,IJCAI,UAI等顶会审稿人,ICML2023tutorial讲者。
主要研究方向之一是探索深度学习和强化学习的更佳表示方法。其开发的一种特殊模型是多步逆模型,它是在交互环境中(如强化学习中)学习可证明紧凑表示的一种方式。
他在这个领域的重要论文之一是Agent-Centric State(简称AC-State),该论文关注的是学习探索性代理,这些代理能够通过纯粹的交互来学习全面地表示世界。该领域的其他论文还包括Belief State Transformers和Joint Token Prediction。
Alex Lamb助理教授的另一项研究工作是通过使用插值法进行训练来改进神经网络的正则化。这一研究方向的一项关键成果是“manifold mixup”论文,在该论文中,他们使用神经网络的线性插值隐藏状态进行训练。这种方法在应用文献中相当受欢迎,因为它在小数据场景下能显著提升性能。此外,该方法还具有一个很好的理论特性,即它能实现更紧凑的隐藏表示。