今天,我要为大家介绍麻省理工学院(MIT)电气工程与计算机科学系(EECS)副教授何恺明开设的两门精彩课程——“Advance in Computer Vision”和“Deep Generative Models”。这两门课程不仅涵盖了计算机视觉和生成模型的最新研究前沿,还由一位在计算机视觉领域享有盛誉的科学家亲自授课,绝对不容错过。
一、何恺明(Kaiming He)
何恺明(Kaiming He)是一位在计算机视觉和深度学习领域具有卓越贡献的人工智能科学家。以下是对他的详细介绍:
个人背景
- 出生与教育:何恺明于1984年出生于中国广东省广州市,2003年毕业于广州市执信中学,同年以高考满分900分的成绩成为广东省高考状元,并进入清华大学物理系基础科学班就读。在清华大学期间,他连续3年获得清华奖学金,2007年获得学士学位。之后,他进入香港中文大学攻读研究生,师从汤晓鸥教授,2011年获得信息工程哲学博士学位。
- 职业经历:何恺明的职业生涯始于微软亚洲研究院(MSRA),他在实习期间就展现出了卓越的研究能力。毕业后,他正式加入MSRA工作。2016年8月,他离开微软,加入Facebook AI Research(FAIR)担任研究科学家。2024年2月,他加入麻省理工学院(MIT)电气工程与计算机科学系(EECS),担任副教授。
学术成就
- 深度残差网络(ResNet):何恺明是深度残差网络的主要开发者之一。ResNet解决了深度网络中梯度传递的难题,使得神经网络能够达到前所未有的深度,从而获得了以前难以实现的能力。这一成果为人工智能领域做出了基础性贡献,并促成了多个突破性的成果,包括AlphaGo、AlphaFold和ChatGPT等。
- 论文与奖项:何恺明在计算机视觉和深度学习领域发表了一系列极具影响力的论文,多次获得最佳论文奖。例如,他的第一篇论文就获得了IEEE国际计算机视觉与模式识别会议(CVPR)2009年度最佳论文奖,这是CVPR创办25年以来首次有华人乃至亚洲学者获奖。此外,他还获得了CVPR 2016、ICCV 2017等最佳论文奖。
- 其他贡献:除了ResNets之外,何恺明还提出了许多其他重要的方法和模型,如Mask R-CNN等。这些方法和模型在计算机视觉领域具有广泛的应用价值。
荣誉与奖项
- 未来科学大奖:2023年8月,何恺明因提出深度残差学习为人工智能做出的基础性贡献,与孙剑(已故)、任少卿、张祥雨共同获得未来科学大奖数学与计算机科学奖。
- AI 2000人工智能全球最具影响力学者榜单:2022年,何恺明入选AI 2000人工智能全球最具影响力学者榜单,综合排名第一。
- 其他荣誉:何恺明还获得了许多其他荣誉和奖项,如CVPR大会PAMI青年研究者奖、香港中文大学工程学院杰出校友等。
二、Advance in Computer Vision(计算机视觉进展)
这门课程是MIT电气工程与计算机科学系开设的计算机视觉高级课程,由何恺明等四位教授共同讲授。课程涵盖了卷积神经网络的基础知识、经典卷积神经网络的分析(包括LeNet、AlexNet和VGG)以及可视化等内容。通过这门课程,学生可以深入了解计算机视觉领域的基本原理和最新研究动态。何恺明的第一节课便赢得了学生的热烈掌声,他的讲解深入浅出,让复杂的卷积神经网络知识变得易于理解。
课程官网:https://advances-in-vision.github.io/
- 卷积神经网络的基础知识:课程首先介绍了卷积神经网络(CNN)的基本概念,包括卷积层、池化层、全连接层等组成部分,以及它们在图像识别、分类等任务中的应用。
- 经典卷积神经网络的分析:课程详细分析了LeNet、AlexNet、VGG等经典卷积神经网络的结构和性能,并讨论了它们在不同任务中的优缺点。
- 可视化技术:为了帮助学生更好地理解卷积神经网络的工作原理,课程还介绍了可视化技术,包括特征图可视化、滤波器可视化等,使学生能够直观地观察卷积神经网络在不同层级的特征提取和表示能力。
三、Deep Generative Models(深度生成模型)
这门课程主要介绍人工智能领域中常用的生成模型,包括变分自编码器(VAE)、自回归模型(AR)、生成对抗网络(GAN)和扩散模型等。课程不仅涵盖这些模型的基本原理和应用,还介绍了最新的前沿研究。随着生成式人工智能(AIGC)时代的到来,无论是基于大语言模型的聊天助手,还是视觉领域的文生图和文生视频模型,都属于深度生成模型的范畴。因此,这门课程被视为学习AIGC理论和应用的良好入门资源。
课程分为讲师讲座、客座讲座和学生研讨会,要求学生参加所有讲座和研讨会,每两周完成一次习题集,并在研讨会上发表一篇论文(20分钟演示+10分钟讨论和QA)。课程已经进行到了第十周,主题涵盖了深度生成模型的简介、变分自编码器、自回归模型、生成对抗网络和扩散模型等内容。接下来的主题将包括视频、3D、几何、机器人、材料科学、蛋白质和生物学等领域的应用。
课程官网及PPT资源:https://mit-6s978.github.io/
- 生成模型的基本概念:课程首先介绍了生成模型的基本概念,包括概率模型、生成过程和推断过程等,为后续的学习打下基础。
- 变分自编码器(VAE):课程详细讲解了变分自编码器的原理、结构、训练方法和应用,包括在图像生成、语音合成等领域的应用。
- 自回归模型(AR):课程介绍了自回归模型的基本原理和训练方法,并讨论了它们在自然语言处理、图像生成等领域的应用。
- 生成对抗网络(GAN):课程深入讲解了生成对抗网络的原理、结构、训练方法和应用,包括在图像生成、视频合成等领域的应用。同时,还介绍了GAN的最新研究动态,如条件GAN、Wasserstein GAN等。
- 扩散模型:课程介绍了扩散模型的基本原理和训练方法,并讨论了它们在图像生成、音频合成等领域的应用。同时,还介绍了扩散模型的最新研究动态,如连续时间扩散模型、去噪扩散模型等。
四、结语
何恺明在MIT开设的这两门课程无疑是计算机视觉和生成模型领域的重磅之作。通过这两门课程,学生可以深入了解计算机视觉的基本原理和最新研究动态,以及深度生成模型的概念、原理和应用。如果你对这两个领域感兴趣,不妨关注一下这两门课程,相信你一定会有所收获。