Dejarnette 发表于 2018-9-26 20:32:51

机器学习/深度学习 问题总结及解答

问题总结及资料链接
(1)机器学习部分
1 逻辑回归部分 常问,推导要会
推导:https://zhuanlan.zhihu.com/p/34325602
2 SVM部分 常问,推导要会,精简版看下面链接,但是写的不是很详细,最好把cs229讲义好好看看
推导:https://www.zhihu.com/question/21094489 @靠靠靠谱 的回答
3 集成学习 常问,推导要会
bagging方法:看周志华教授的西瓜书
boosting方法:看李航的蓝书,特别的对于GBDT,这篇文章写的很清晰,推导相对简单
这里注意一下,GBDT有两种,一种是残差学习,一种是负梯度代替残差的版本(所以有个G啊),为啥用负梯度近似残差也是常问的,其实这个说法就不对,残差只是在loss用最小二乘时候的一个特例,对求梯度刚好就是,换成其他loss function就不对了,所以应该反过来说,残差学习只是一个特例,负梯度才是通用的
stacking方法:没有特别好的讲解,都看看吧,这篇还行
决策树:cart树是最常问的,详见李航蓝书,从推导到剪枝都要会
4 softmax
这个相对简单,这篇足够了
5 牛顿法和梯度下降
推导以及优劣比较,相对简单,直接看cs229讲义
6 交叉验证
相对简单,看这篇
7 正则方法
正则是一大块,原理方法都要懂,可以参考这些文章 :1 2
8 归一化方法
基础问题,随便那本书都有
9 SVD分解
PCA
ICA
白化 这部分我没有被问到,但是应该会问,毕竟是重点,看cs229讲义
(2)深度学习部分
1 过拟合的起因,怎么解决
这个没啥好说的,任何讲深度学习的书和课程都有,看哪个都行
2 batch normalization
这个问题下的回答很有价值
3 cnn rnn本质
这篇文章总结的很好
4 梯度弥散/爆炸
没有太好的文章,看看这篇讲resnet的吧
5 激活函数,比较
sigmod tanh relu maxout... 好多,这个随便一搜就一堆,放一个不太切题的文章吧,我偶像何之源奆佬的回答,手动滑稽
6 梯度下降优化
这就很多了,lan大神的花书讲的就很好,博客也可以看这个
7 各种网络结构
这个就太多了,cnn的 rnn的,细分还有很多,多看多熟悉吧
(3)传统算法
很奇怪,反而这块很不重视,考的题都很简单 1 阿里在线编程测试 给一个圆,切成n个扇形,涂m种颜色,要求任意两个相邻扇形颜色不同 思路:首先不考虑首尾位置的扇形是否颜色相同,那么总共是
种,
此时两种情况:1)首尾位置扇形颜色相同 2)首尾位置扇形颜色不同,第二种满足题意,不管,第一种可以把首尾颜色相同的扇形合成一个扇形,这样就成了一个相同要求但是规模是的问题,这样递推公式就是 ,
2 腾讯二面 面试官随手问的一个问题 是分水岭算法的一部分,问题可以如下描述:假设有一个单通道图片,背景像素点值为0,中间的物体像素点值为1,求出所有物体像素点到背景的最短距离 思路:dp思想,查看邻点,如果有一个是0,那么距离为1,否则该点的距离是邻点中最短的距离+1,先扫描行,只关心行的不关心列,算出最短距离,再扫描列,只关心列不关心行,更新上一步扫描行后的结果,就是EDT算法,如果是欧式距离还要扫描斜边
3 腾讯二三面之间的笔试题
有n堆石子,第i堆石子的重量是w,每次合并两堆石子,并计算分数,比如,两堆石子是x,y,合并后是x+y 分数是xy,一直合并下去,直到只剩一堆石子,求最大累积分数 思路: 一眼看到合并就是哈夫曼树呗,区别就是哈夫曼树分数是x+y,这个是x 一眼看到合并就是哈夫曼树呗,区别就是哈夫曼树分数是x+y,这个是x*y,那么每次取两个最大就行了,优先队列,弹出两个最大的相加计算乘积分数,然后结果扔进队列,直到队列只剩一个元素
(4)数字图像处理和模式识别
这部分只被问了这一个问题
1 Sobel、canny 算子 边缘检测算子看这个
(5)信息论
信息熵、条件熵、互信息、信息增益 等等的计算,腾讯现场笔试考的,具体的题忘了。。。
(6)概率论
1 概率分布的相关计算
2 假设检验
这部分看看本科的课本吧,都有的,概率论的题考的比较活

转载自:https://www.nowcoder.com/discuss/71482

学海无涯赶快跑 发表于 2018-10-8 08:28:59

搜嘎,阿里嘎多
页: [1]
查看完整版本: 机器学习/深度学习 问题总结及解答