扫码访问手机版
1 人学习
扫码访问手机版
课程目录
学员 1、1-1导学
24:14学员 2、1-2 课程涵盖的内容和理念
13:25学员 3、1-3 课程所使用的主要技术栈
14:11学员 4、2-1 机器学习世界的数据
18:28学员 5、2-2 机器学习的主要任务
16:01学员 6、2-3 监督学习,非监督学习,半监督学习和增强学习
00:00学员 7、2-4 批量学习,在线学习,参数学习和非参数学习
11:53学员 8、2-5 和机器学习相关的哲学思考
12:00学员 9、3-1 jupyter notebook基础
18:44学员 10、3-2 jupyter notebook中的魔法命令
20:52学员 11、3-3 Numpy数据基础
11:06学员 12、3-4 创建numpy数组和矩阵
19:17学员 13、3-5 Numpy数组的基本操作
18:17学员 14、3-6 Numpy数组的合并与分割
18:02学员 15、3-7 Numpy中的矩阵运算
23:14学员 16、3-8 Numpy中的聚合运算
13:21学员 17、3-9 Numpy中的arg运算
11:14学员 18、3-10 Numpy中的比较和FancyIndexing
22:39学员 19、3-11 Matplotlib数据可视化基础
18:03学员 20、3-12 数据加载和简单的数据探索
18:03学员 21、4-1 k近邻算法基础
22:44学员 22、4-2 scikit-learn中的机器学习算法封装
22:23学员 23、4-3 训练数据集,测试数据集
22:48学员 24、4-4 分类准确度
19:23学员 25、4-5 超参数
26:34学员 26、4-6 网格搜索与k近邻算法中更多超参数
18:59学员 27、4-7 数据归一化
15:29学员 28、4-8 scikit-learn中的Scaler
19:26学员 29、4-9 更多有关k近邻算法的思考
10:24学员 30、5-1 简单线性回归
00:00学员 31、5-2 最小二乘法
00:00学员 32、5-3 简单线性回归的实现
14:10学员 33、5-4 向量化
12:02学员 34、5-5 衡量线性回归法的指标 MSE,RMS,MAE
22:45学员 35、5-6 最好的衡量线性回归法的指标 R Squared
16:30学员 36、5-7 多元线性回归和正规方程解
16:01学员 37、5-8 实现多元线性回归
13:12学员 38、5-9 使用scikit-learn解决回归问题
12:44学员 39、5-10 线性回归的可解性和更多思考
11:54学员 40、6-1 什么是梯度下降法
16:29学员 41、6-2 模拟实现梯度下降法
00:00学员 42、6-3 线性回归中的梯度下降法
10:59学员 43、6-4 实现线性回归中的梯度下降法
14:07学员 44、6-5 梯度下降的向量化和数据标准化
22:16学员 45、6-6 随机梯度下降法
17:36学员 46、6-7 scikit-learn中的随机梯度下降法
15:40学员 47、6-8 如何确定梯度计算的准确性 调试梯度下降法
16:31学员 48、6-9 有关梯度下降法的更多深入讨论
09:10学员 49、7-1 什么是PCA
00:00学员 50、7-2 使用梯度上升法求解PCA问题
09:12学员 51、7-3 求数据的主成分PCA
20:21学员 52、7-4 求数据的前n个主成分
17:37学员 53、7-5 高维数据映射为低维数据
19:30学员 54、7-6 scikit-learn中的PCA
18:58学员 55、7-7 试手MNIST数据集
12:06学员 56、7-8 使用PCA对数据进行降噪
10:02学员 57、7-9 人脸识别与特征脸
14:00学员 58、8-1 什么是多项式回归
11:40学员 59、8-2 scikit-learn中的多项式回归于pipeline
16:29学员 60、8-3 过拟合与前拟合
14:24学员 61、8-4 为什么要训练数据集与测试数据集
16:09学员 62、8-5 学习曲线
00:00学员 63、8-6 验证数据集与交叉验证
25:24学员 64、8-7 偏差方差平衡
15:18学员 65、8-8 模型泛化与岭回归
19:17学员 66、8-9 LASSO
17:01学员 67、8-10 L1,L2和弹性网络
14:26学员 68、9-1 什么是逻辑回归
00:00学员 69、9-2 逻辑回归的损失函数
15:01学员 70、9-3 逻辑回归损失函数的梯度
17:53学员 71、9-4 实现逻辑回归算法
14:35学员 72、9-5 决策边界
21:11学员 73、9-6 在逻辑回归中使用多项式特征
15:09学员 74、9-7 scikit-learn中的逻辑回归
17:23学员 75、9-8 OvR与OvO
00:00学员 76、10-1 准确度的陷阱和混淆矩阵
15:10学员 77、10-2 精准率和召回率
11:56学员 78、10-3
15:48学员 79、10-4
17:46学员 80、10-5
20:25学员 81、10-6
14:40学员 82、10-7
16:59学员 83、10-8
13:35学员 84、11-1
15:04学员 85、11-2
19:26学员 86、11-3
16:14学员 87、11-4
21:34学员 88、11-5
12:53学员 89、11-6
16:20学员 90、11-7
20:57学员 91、11-8
14:00学员 92、11-9
28:51学员 93、12-1
15:16学员 94、12-2 信息熵
16:34学员 95、12-3 使用信息熵寻找最优划分
20:32学员 96、12-4 基尼系数
17:45学员 97、12-5 CART与决策树中的超参数
15:13学员 98、12-6
08:17学员 99、12-7
08:34学员 100、13-1什么是集成学习
16:34学员 101、13-2 SoftVoting Classifier
17:15学员 102、13-3 Bagging和Pasting
00:00学员 103、13-4 oob(Out-of-Bag)和关于Bagging的更多讨论
11:42学员 104、13-5 随机森林和Extra-Trees
10:38学员 105、13-6 Ada Boosting和Gradient Boosting
00:00学员 106、13-7 Stacking
06:57学员 107、14-1 学习scikit-learn文档
06:48