易学智能

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1320|回复: 0

牛客网平均水平的算法工程师面经分享

[复制链接]

18

主题

18

帖子

82

积分

注册会员

Rank: 2

积分
82
发表于 2018-9-14 08:32:42 | 显示全部楼层 |阅读模式
记录下渣硕的秋招经历,粗略估算大约海投了59家,真正面了9家左右吧,笔试大概也做了几十家吧,目前的情况是拿到了苏宁(准备拒)、好未来(已拒)、百度、腾讯的offer,另外饿了么面了二面,美图面了一面,迅雷10月有面试(已拒),以上
滴滴 二面挂 第一面 开始求职的第一次面试,视频面试,原定的3点45到下午4点30多开始面,一面中规中矩,面试小哥没有为难我,主要是先自我介绍,然后问了一个Java语言的问题(抽象类与接口的区别、用过Map吗,说一下HashMap和TreeMap的底层实现的区别),接着手写了道快排,讲解了一下就开始让我介绍参加过的京东的比赛(要求按照一定的框架讲,比如做了什么,觉得自己做的好的有说什么,有什么做的不够好的),在介绍的过程中针对性的提了一些问题,可以说都是一些常考的问题,记录如下:
解释下过拟合 数据类别不均衡的处理方法 XGBoost相对于GBDT有什么不同 数据记录有多少?特征有多少?训练时间多久? 有什么想要问我的?
第二面 这一面倒是没有撕算法也没有问一些基础的问题,都是偏向实际应用的略开放的问题,记录如下:
我看你两个项目使用的方法类似,你觉得哪个做得更好一点?然后接着问为什么你觉得另外一个做得差一些,问题出在哪里? 我看你比赛里面用的都是树形模型,为什么不用其他的模型? 人工处理特征与使用模型自动生成一些特征各有什么优劣? 你提到你感觉一个比赛里比另一差的原因是特征这方面,但我看你写到构造了交叉特征,请问构造了哪些交叉特征?为什么还是差呢?(这里针对交叉特征的定义纠结了一段) 你实际运用XGBoost与LightGBM中感觉哪个更好一点,有什么在比赛中发现的区别? 是否还了解其他的一些常用的方法(这里开始没明白,后来询问面试官,举的例子是LR+XGBoost或者FM+XGBoost,于是我提了一下了解的用来做ctr预估的应用,但是感觉面试官并不满意) 你两次项目用的处理方法差不多,那么你后面一次是否有什么新的收获呢,还是说你只是重复的使用一套方法? 我的问题提的差不多了,请你讲一下我没有问到的你认为可以表现你自己亮点、优势的地方
总体来说虽然第二面挂了,不过受益颇多,确实只是懂得一些基础知识恐怕还是不足以胜任公司的要求吧,顶多撑过一面,一来简历存在问题,二来实际应用中模型的区别掌握的不够,这刺激了我后面阅读算法库的文档并分析了gbdt的不同实现的真实区别
苏宁 offered 现场面自己介绍项目是否了解决策树,讲一下你的理解三种决策树是如何处理缺失值的 决策树如何处理缺失值?(三个阶段:划分节点时--训练模型时--预测时)
在选择分裂属性的时候,训练样本存在缺失值,如何处理?假如你使用ID3算法,那么选择分类属性时,就要计算所有属性的熵增(信息增益,Gain)。假设10个样本,属性是a,b,c。在计算a属性熵时发现,第10个样本的a属性缺失,那么就把第10个样本去掉,前9个样本组成新的样本集,在新样本集上按正常方法计算a属性的熵增。然后结果乘0.9(新样本占raw样本的比例),就是a属性最终的熵。 分类属性选择完成,对训练样本分类,发现属性缺失怎么办?比如该节点是根据a属性划分,但是待分类样本a属性缺失,怎么办呢?假设a属性离散,有1,2两种取值,那么就把该样本分配到两个子节点中去,但是权重由1变为相应离散值个数占样本的比例。然后计算错误率的时候,注意,不是每个样本都是权重为1,存在分数。 训练完成,给测试集样本分类,有缺失值怎么办?这时候,就不能按比例分配了,因为你必须给该样本一个确定的label,而不是薛定谔的label。这时候根据投票来确定,或者填充缺失值。
浣花紫溪 XGBoost里处理缺失值的方法 在xgboost里,在每个结点上都会将对应变量是缺失值的数据往左右分支各导流一次,然后计算两种导流方案对Objective的影响,最后认为对Objective降低更明显的方向(左或者右)就是缺失数据应该流向的方向,在预测时在这个结点上将同样变量有缺失值的数据都导向训练出来的方向。例如,某个结点上的判断条件是 A>0 ,有些数据是A0,有些数据的A是缺失值。那么算法首先忽略带缺失值的数据,像正常情况下一样:
将前两种数据分别计算并导流到左子树与右子树, 然后将带缺失值的数据导向左子树,计算出这时候模型的Objective_L; 接着将带缺失值的数据导向右子树,计算出这时候模型的Objective_R; 最后比较Objective_L和Objective_R。假设Objective_L更小,那么在预测时所有变量A是缺失值的数据在这个结点上都会被导向左边,当作A<=0处理。
[TomHall][https://www.zhihu.com/question/34867991/answer/224122110] 随机森林处理缺失值的方法 RandomForest包里有两种补全缺失值的方法:
方法一(na.roughfix)简单粗暴,对于训练集,同一个class下的数据,如果是分类变量缺失,用众数补上,如果是连续型变量缺失,用中位数补。
方法二(rfImpute)这个方法计算量大,至于比方法一好坏?不好判断。先用na.roughfix补上缺失值,然后构建森林并计算proximity matrix,再回头看缺失值,如果是分类变量,则用没有缺失的观测实例的proximity中的权重进行投票。如果是连续型变量,则用proximity矩阵进行加权平均的方法补缺失值。然后迭代4-6次,这个补缺失值的思想和KNN有些类似。
补充【proximity matrix】:Proximity 用来衡量两个样本之间的相似性。原理就是如果两个样本落在树的同一个叶子节点的次数越多,则这两个样本的相似度越高。当一棵树生成后,让数据集通过这棵树,落在同一个叶子节点的”样本对(xi,敏感词roximity 值 P(i,j)加 1。所有的树生成之后,利用树的数量来归一化proximity matrix。
https://charleshm.github.io/2016/03/Random-Forest-Tricks/ https://stats.stackexchange.com/a/98967/152084
样本类别不平衡会带来怎样的影响讲一下auc 以及你们比赛中最后模型的auc得分随机森林里使用的决策树是哪一种? sklearn里实现的是CART的一种变体如何筛选特征 你担任副班长,职业有哪些,和班长有哪些不同担任班干部让你学到了什么你的意向填的是上海,说明下原因独生子女?是否有女朋友?班级成绩排名 有什么要问我的? 二面 据说是算法的负责人之类的来面介绍项目讲下三种集成方法的区别bagging,boosting,stacking讲下如何处理缺失值说下你的技术栈以后想从事的具体方向有什么问题要问的
美团点评 一面挂 第一面 自我介绍 项目部分
数据分析过程中的一些发现和最后是如何用到特征构建的? 冲动消费的占比 训练集的构造 官方评价指标的解释 类别不均问题-->类别不均的影响,欠采样前后auc得分的变化 说说构造了哪些特征? 模型调参,调整了哪些参数? 特征选择方面做了哪些措施?--feature importance,显示其中最重要的特征有哪些?
算法
寻找数组中出现次数超过一半的元素-->寻找数组中出现次数超过1/3的元素 股票的买入卖出时间,一次买入卖出-->k次买入卖出 笔试题,交叉改卷问题 寻找数组中的最长递增子序列,寻找最长长度-->输出最长递增子序列
介绍了自己部门的主营业务以及接下来可能的面试流程安排 说实话美团挂的有点蹊跷,当然也可能是我想多了,因为面试官面完说感觉你答得不错,而且做的东西和部门研究也相符,后续可能会安排现场面,然后我就挂了(欢声笑语打GG?),可能是投的广告部门hc满了或者有更适合的人了吧。
远景 一面挂 一面 远景大数据 分布式,工业界的做法,比较前沿的技术是怎么做的,知识比较欠缺,当前从书籍,论文了解的较为陈旧两个100亿数据集进行join 操作 考察开放思维能力,学习能力入职后有什么打算技术栈不符 Terosort 为什么比赛中xgboost 表现比rf要好,从数据的角度分析仅使用pandas库进行分析是否有什么性能上的问题是否了解java 并发是否了解Scala数据库了解吗 远景的话大概是需要能直接干活的人吧,上来我讲完项目就说感觉你比较熟悉,但和我们技术栈不太符合,然后就尬聊大数据
饿了么 二面等消息 一面 两道算法题 矩阵乘法,转制&字符串中最长的数字字符串自我介绍,说常用开发工具讲算法问hor项目Rf vs gbdt vs xgboost讲讲svm ,假设分离超平面系数非常大怎么办L1正则和l2正则区别随机森林的随机性异常值处理是否有实习经验是否用过hive说说hashmap 底层实现,为什么查询快? 二面 讲算法讲hor 项目为什么你这个得分还不错,使用了什么trick特征选择的方法京东赛官方评价标准的解析以及是否采取对应措施空值处理如何处理过拟合有什么要问的 面完二面说本来有3面boss面,然后boss出差了,后续可能给你安排电面,估计是被婉拒了吧
百度 offered 一面 实验室的研究方向是什么用Python 写一个对文本文件的词频统计翻转链表画建最小堆的过程先序遍历二叉树,非递归讲讲随机森林的原理比赛中用了多少棵树异常值处理有什么想问的 二面 约1小时自我介绍链表的第一个公共节点,优化最大连续子数组和选一个最熟悉的算法,模型讲一下介绍一个项目 三面 约30+min讲一下项目--针对细节提问基本情况了解,包括技术栈、意向城市选择工作考虑的因素面过哪些公司对百度的部门是否了解--开始介绍部门--需要记录意向部门有什么想问的 百度的话应该是我运气好吧,问的不难,我也基本都答上来了,要说亮点的话可能是在二面让讲一个项目,吸取了滴滴的教训,我把gbdt从集成方法的区别到adaboost vs gbdt再到sk-learn的gbdt vs XGBoost vs. LightGBM都给他撸了一遍,从原始论文的区别到具体实现的区别,所以这里可能算是面试的一个关键点吧
腾讯 等最终结果 自我介绍实验室做的是什么方向主要问项目项目目的评价标准自己负责那一块,讲一下构建了什么特征模型用了什么模型实际应用中的比较,为什么一个比另一个好讲下boosting 和bagging类别不平衡怎么处理的Rf 调参是怎么做的,这里指出树的棵树,层数可以通过样本数,特征数预估,而不是拍脑袋决定京东表现不是很好,为什么,有没有想过原因简历的缺陷:实验室的研究没有写出,面试官看重你研究生阶段独立完整地研究了什么东西熟悉哪些算法,分类的和回归的是否了解深度学习,是否了解卷积神经网络推导lr讲下l1,l2区别及原理细节最近读过印象最深的书来自哪里意向城市被批概率论基础不行,很多东西只记结论,过程有所跳跃,机器学习过分依赖工具,原理理解不透彻,比赛过于使用套路,缺乏自己的思考和创新 二面自我介绍实验室项目介绍 具体怎么做的,节点多少,数据量多少,进度如何等比赛介绍官方评价指标有点问题Gbdt vs rf构造了哪些特征,不同阶段信息增益是怎么计算的比赛得分不是很高,是否尝试过其他方法是否考虑过用深度学习来做后缀子串问题banana 找最长子串,要求非后缀子串,但是内容与后缀子串一样 hr面自我介绍哪里人对腾讯的了解职业规划最近看了什么书--计算广告--讲的是什么?--广告方面怎么做比较好是否有其他同学来参加腾讯面试,或者说与你同样进了hr面试的同学(前提是他们本科好)比,你的优势在哪参加比赛的收获优点和缺点参加的XX比赛是做什么的研究生阶段成绩如何薪资期望选择工作时的考虑因素目前有哪些offer,面过哪些公司百度和腾讯都给你offer的话你选哪个,为什么爱好是什么喜欢看什么电影喜欢听什么音乐有没有谈过女朋友--为什么没有谈过?有什么要问的除了互联网公司还有其他公司比较有意愿 腾讯应该也是比较好运气吧,一面被招聘人员指了个错方向迟到一二十分钟被面试官压着问,后面每一面都感觉自己应该是挂了,结果反而一直被吊打到完成面试,相比较同实验室的阿里大佬来说,他是一路开挂,我是一路被吊打。
美图 一面(电面约40min)自我介绍介绍项目如何处理缺失值类别不平衡会带来哪些影响挑一个熟悉的算法讲解平时用什么语言开发有什么问题要问的 美图8月内推的吧,过了一个月才面,而且是在被百度腾讯吊打一周后,已经快油尽灯枯了,感觉面的不好,估计是挂了吧
好未来 现场面 offered 一面自我介绍用什么语言开发说下Java的重写和重载的区别是否了解Java虚拟机StringBuffer与StringBuilder的区别常见排序算法时间复杂度为O(nlogn)的有哪些,最佳、最差时间复杂度分别是多少?写快排智力题,8个球,一个比其他的轻,用天平称出该球最少用几次,怎么称项目提问rf vs gbdt实验室做了什么项目手写数组旋转,要求不使用额外空间简单聊下个人意向,手头offer、面试情况手写计算树的深度,要求不使用递归有什么要问的 二面介绍比赛类别不平衡有什么影响欠采样会造成什么后果写一下F值计算的公式谈谈对auc的理解手写算法,在旋转数组里寻找某个给定的元素,要求时间复杂度O(n)以下有什么要问的 说实话,好未来是我面试状态最差的一场,一个没睡午睡,另一个就是在美图面试下午,就是已经油尽灯枯了,一面快排一开始写错,旋转数组没反应过来,好在后面一道算法写对了,但是也让我过了,运气使然吧。
小结一下我的一些个人的想法
1、简历上写的东西一定要掌握透彻,另外时间充裕的下一届同学们最好尽量充实自己的简历,一般对研究生而言实习>项目>比赛/论文>基础,当然不同公司侧重可能有差别,比如腾讯的话给人感觉很注重你的实验室项目、研究做了什么 2、要建立自己的优势、亮点,比如算法而言,一般考察基础会让你挑一个常见算法来讲,或者他会选一个你熟悉的算法让你讲;那么同样一个算法怎么讲的和别人不一样呢或者说显得你比较熟悉呢,其实去年有个大佬已经总结过,最好横向对比、纵向深入,可以参照我上面面百度的例子,自己至少深入掌握一个实际用过的吧,然后的话常见的LR、SVM等肯定是需要掌握的,包括推导和原理、差别、应用场景等等 3、心态放平,这比较难,但是个人觉得面试还是很看缘分的,经常和实验室小伙伴一起去面某家公司、交流会发现很多时候得看你和面试官投不投缘,此外把自己能做好的做好就行,每次面试都是一个学习的机会,可以帮你迅速纠错,当然碰到莫名其妙的面试官提的一些明显跟你方向不相关的问题,也不用往心里去,运气不好罢了,换下家(而且一般越是大厂面试官一般都还是根据你的简历来考察的,面试体验相对好) 4、讲项目的话要注意条理和层次,先简要介绍背景就是你这个是干什么的,然后最好在纸上慢慢的画给面试官看,这样思路会清晰一些,也可以避免错漏,然后梳理你项目的亮点,针对项目里的知识点深挖一下,引导面试官去问,然后抛出来;我同寝室的一大佬这个是真厉害,据说他把自己的项目往pad里一放,面试时直接打开pad,对着面试官咔咔的讲,唬的人一愣一愣的,所以他基本面一家拿一家。 5、补充一点,关于面经的,个人觉得针对不同公司提前做好面经的一个准备是很有必要的,我一般在准备某各个公司的面试头几天会针对该公司收集面经,针对其中的问题进行分类和答案搜集,而且是分阶段的,比如明天是一面我就着重准备一、二面的面经,因为有些公司的考察点不同,而且不同极端也有区别,比如百度的话前面两面可能算法、基础、项目居多,终面的话可能是项目、场景题、hr问题居多,这个时候我一般是根据当前阶段最可能考察的点排个序,然后根据自己薄弱的环节进行一个优先级的排序,在有限的时间尽量争取把自己准备到最佳状态
以上大概是我秋招的一些记录了,最后运气很好拿到了比较满意的offer,开始也是看着实验室各种大佬早早结束秋招,一路走来,十分感谢实验室各位大佬还有师弟们的扶持,也感谢同寝室同班的小伙伴的相互鼓励,还有老爸、老姐的关怀,最后也感谢自己,在比较艰难的时候也没有放弃,希望每一个看到这里的小伙伴都能坚持到最后一刻,拿到心仪的offer~

转载自:https://www.nowcoder.com/discuss/51529
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|易学智能

GMT+8, 2024-11-22 17:58 , Processed in 0.026524 second(s), 20 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表