AIRS in the AIR
AIRS in the AIR | 具身智能系列讲座(一)

具身智能是一种全新的人工智能理念,它区别于传统人工智能的观念,主张智能的产生不仅依赖算法和算力,还需要通过与实际世界的互动来实现。具身智能研究跨越了机器人学、人工智能、认知科学及神经科学等多个学科,旨在深化对智能本质的理解。
AIRS in the AIR推出具身智能系列讲座,旨在汇集相关领域顶尖学者专家,探讨具身智能带来的新机遇,解决其面临的技术与应用挑战,并将智能机器人应用推向家庭、工业、医疗和探索等多个领域,促进人机交互的自然化和任务执行的效率化。
AIRS in the AIR第63期暨具身智能系列讲座第一期邀请北京大学集成电路学院和人工智能研究院助理教授李萌,介绍Transformer架构以及Transformer实现上的工作。
AIRS in the AIR为AIRS重磅推出的品牌系列活动,与您一起探索人工智能与机器人领域的前沿技术、产业应用、发展趋势。2022年举办至今,已邀请百余位国内外嘉宾,吸引了超40万人次参与。
-
刘少山AIRS具身智能中心主任执行主席
-
李萌北京大学集成电路学院和人工智能研究院助理教授、国家青年高层次人才Transformer Acceleration with Full Stack Optimization
李萌于2022年加入北京大学集成电路学院和人工智能研究院,任助理教授,博士生导师,获国家青年高层次人才计划(海外)。加入北京大学前,他曾任职于全球最大社交媒体公司Facebook的虚拟现实增强现实实验室,作为技术主管从事高效人工智能加速算法和系统的研究。他于2018年和2013年分别在美国德州大学奥斯汀分校和北京大学获得博士和学士学位。他的研究兴趣集中于高效、安全的多模态人工智能加速算法和系统。他在国际顶级会议、期刊发表文章70余篇,并于2017年和2018年获得IEEE HOST和ACM GLSVLSI的会议最佳论文。此外,他还获得了欧洲设计自动化协会最佳博士论文、ACM学生科研竞赛总决赛第一名等奖项。
Recent years have witnessed the fast evolution of Transformer models in the field of computer vision, natural language processing, etc. Though promising, Transformer models usually require higher computation and memory as well as more diversed kernel supports. In this talk, I will discuss some of our recent works that leverage network/hardware co-design and co-optimization to improve the efficiency of Transformer models across different platforms. The talk will also discuss interesting future directions for Transformer and LLM acceleration.