李宏毅(Hung-yi Lee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于 2012 年获得台湾大学博士学位,并于 2013 年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。
此前,他的 2016 版《机器学习》课程视频曾是流行学习资料
2019 版《机器学习》课程目录,括号内为新增内容:
回归、梯度下降
分类、逻辑回归,错分类的原因 深度学习,反向传播(异常检测) 卷积神经网络、Keras(对抗样本攻击) 训练深度学习模型(可解释 AI) 循环神经网络(Order LSTM) Ensemble 半监督学习、迁移学习(终身学习) (元学习) seq2seq(Transformer) (Few/Zero shot learning) 无监督学习(BERT) 强化学习(更细化) (网络压缩) 生成对抗网络(GLOW) (无监督域适应) 为什么要使用深度学习(深度学习理论)
看过李宏毅 2017 秋季机器学习课程的同学都知道,他介绍的基础内容非常仔细。例如对于循环神经网络,他会带我们手动运算一遍,从而弄清楚各时间步的输入、储存的记忆和具体运算过程等等。在 19 年的新课中,李宏毅重点开放新课相关的视频与作业。
其中新增课程大部分都是近来比较流行的研究前沿,例如 Seq2Seq 中的全注意力网络 Transformer、生成模型最近流行的新范式流模型(Glow)。这些内容可作为以前 17 年秋季课程的补充,从而让视频整体更接近当下前沿。
目前李宏毅已经放出了异常检测和对抗攻击的视频,它们都是新增加的内容。这些新增的内容最好可以和主课程一起看,因此可以有更好的理解。例如异常检测何以和深度学习基础一起看,对抗攻击可以和卷积神经网络一起看等等。
最后,看视频做作业都需要坚持,希望大家都能将这些资源化为自己的知识。
|