Aguirre 发表于 2018-9-20 09:23:35

非科班渣硕秋招总结-回馈牛客

本人本科硕士都是北京科技大学的,标准的 渣渣渣渣渣渣硕 一枚,在从8月中旬(我有点晚了啊)开始的秋招以来,在牛客网上看了很多面经,受益匪浅,才侥幸拿到了京东,创新工场的算法工程师职位和360的计算机视觉备胎池...只能说楼主太菜了,现在来分享一下我的心路经历,总结总结自己这黑暗的心路历程。祝还在第一线奋战的小伙伴们都能早日拿到自己满意的工作~
ps:如果想直接看面经直接往后翻就可以啦,接下来我要开始唠叨了~
-----------------------------------------------------------------------------
3年前我面临本科毕业选择的时候,我选择了考研读研来逃避找工作,因为自己本科太水了找工作肯定难难难。。,后来因为自己懒所以..直接就考本校了,还委托辅导员替我找了研究生的导师,现在想起来。自己真是挺傻逼的当时。在2017来之前,我还是处于一种开心玩耍的状态,时不时去趟实验室划划水,做些实验,看些论文,周末还可以一起玩荣耀什么的生活不要太开心
年后回来我还觉得今年可以接着浪。。。结果。。。在春招就被狠狠打脸!所有的春招笔试都挂了,简直不能更惨,阿里甚至没有给内推的面试机会,那时候对我来说真是一次蜕变,实习工作找不到,实验室老师狠狠催论文,女朋友那边还有实验要帮忙做,当时我简直恨不得自己一天掰成两瓣来用,同时我意识到了自己究竟多菜,什么都是半吊子,c++会一点,java会一点,python会一点,都是那种不深入,只是会调用封装好的类库,但是却不知道底层如何实现的程度,什么事情都可以夸夸其谈,但是真正解决问题的过程中效率低,写的代码现在看来简直不堪入目。。有时候会写n个for循环不断嵌套导致程序不断卡死....只能说我当时真的黑暗到不行,我把手机电脑上的所有游戏都删了。。不断的刷leetcode题,看剑指offer的算法题,每天不断复习机器学习的算法推导,公式的来源,以及看lifeifei的cs231n的课程,那一段时间是我感觉进步最快的时候吧
8月初楼主有些膨胀了,回了趟家,网易提前批的笔试都是在家里做的(果然挂了),回来了就收到了网易笔挂的好消息?加上那时候互联网提前批快要结束了的紧迫感,紧张得要命,手里没有offer的时候,才能够感受到找工作的那种黑暗和绝望,那真的是不体验一遍无法感觉到,每天都是在实验室刷题,改简历,投简历,周末也不间断的做,感觉自己都快疯了,现在统计下自己没有offer的时候那真是海投啊,见什么公司先投再说,这一个月以来,最后投了70家offer吧,包括有的是牛客网的邮件的,内部人员的邮箱的,微信公众号的,官网的,只要能试过的方法我都试了,就为了让自己不错过任何一个机会 。当时提前批就面了一个京东,而且面完了大半个月都没有消息了,我都以为挂了。结果到9月中旬突然而来的jd的offer简直让我欣喜若狂,之前都还没有正式的offer,感觉自己愁死了都快。之后还面试了创新工场,也收获了一口头offer。现在我的心才慢慢放下来,我只能说大家的offer都在寄来的路上,希望大家最后都能收获自己满意的offer吧,这么一场黑暗而又努力的秋招,对自己也是一个磨练吧(文笔不好大家不要介意哈。。)
同时我说一些秋招中的感悟吧。。
1.公众号的内推坑!很坑,非常坑,很多时候都是投递了就没有音讯的,大家抱着试试的心态,千万不要孤注一掷
2.一定要刷题啊,牛客,leetcode,剑指offer等基本要过一遍,才能hode得住面试官的手撕代码。
3.如果是机器学习岗位,各种算法原理的推导,都要会啊
4.最重要的一点,利用好自己的资源,有师兄帮忙内推的千万找师兄,像百度这样直接部门内推的,能跳过笔试环节的一定要试试。能剩下很多事儿,秋招的笔试...都是看缘分,可能3道ac1.5.。。就能面试,也有可能ac3道照样被刷。
5.每回面试完都要总结,写面经就是一种不错的手段....
祝愿每一个参加秋招的勇士都能够找到自己心仪的offer~,2017.09.28
--------------------面经的分割线--------------------------
360(第一批大流程,备胎池沉底--计算机视觉)
作者:BATcome
链接:https://www.nowcoder.com/discuss/37925
来源:牛客网
alexnet的网络结构,自己试验是怎么基于AlexNet改进的;(貌似是5个卷积层,2个全连接层加一个softmax吧)
batch normolization原理是什么,实验的收敛速度增大了多少;(提升了3倍,我的)
VGG网络相比于AlexNet改进的地方在哪里,为什么(把77卷积核换成了33,因为1是卷积参数个数变少了,2是增加了非线性变换)
然后楼主强行安利了一发Relu和Sigmoid函数之间的差别(1.不会梯度弥散;2.稀疏参数;3.计算简单)
后来又问了一下LR和SVM的差别(同为2分类,SVM用的是hinge loss,LR用的是逻辑回归)
最后考了一道现场编程题,vector nums{2,3,4,5},target = 7,返回组成7的全部组合{{2,2,3},{2,5},{3,4}}这样子(一道深度优先算法,leetcode上就有,在此就不再赘述了)
至此就面过了一面,出来刷公众号就发现自己过了,等了20分钟就开始二面:
二面面试官主要就是问实习的经历了:
1.实习期间hash编码是怎么做的(cnn提取特征哈哈)
2.第二段的实习是做了什么(写了C++的提取feature_map的工具,并且做了网络压缩的工作)
3.简单说一下caffe你要重写类的话,要怎么加么(虽然一脸懵逼,但答了loss层加上layersetup,forward,backward,data层继承基础类)
4.由3引申出来问了caffe的类的工厂模式懂么?为什么caffe写了类放在相应目录下就可以?类的注册?(我说caffe类有一个factory.cpp中吧,里面定义了)
5.由4引申出来的手撕代码...写一个简单的工厂模式...C++代码(= =还好真看过不然就挂了)
然后二面就过了哈哈,出来等了1个小时进入了hr面,差不多就算进入了吹水环节吧:
1.机器学习和深度学习的区别是什么?(数学完成,经验驱动;数据量少,数据量大;)
2.你的缺点是什么。。(典型面试问题。。哈哈)
3.你有遇到需要计划的事儿么(这必须有啊。。将自己的经历)
3.如果给你百度的offer。。你会选哪个?(。。。。)
4.有什么想问的(我就问了现在AI研究院的状态)
陌陌(自然语言处理--hr面挂):
1.LSTM的源代码(tensorflow),让每行解释含义
2.hmm的状态转移方程,如何用hmm分词
3.自然语言处理中同义词,反义词,相关词的识别情况,怎么解决
5.分词的详细过程,比如说,分词好了模型,但是突然火了一个新词王者荣耀,怎么让模型匹配(把模型中建为一个game,如果有新词的时候,把它匹配为game后原来的模型就可以用了)
6.经典的lstm加上hmm的分词结构是什么,lstm中遗忘们,输入门,输出门,以及状态转移方程是什么
7.知道如何去计算网络的参数的个数,lstm+dmm的网络参数多少
8.word2vec的具体原理,cbow实现过程,n-skim的算法实现,以及后续的负采样,层次softmax用法的原因
9.归并排序题
今日头条面经(计算机视觉--二面挂):
1.reset,resnet的具体构造,分别有两篇不同的论文,他们之间的前后差异在哪里,取得了什么样的变化
2.vgg,vgg的参数多的原因,vgg还有哪些缺点,为什么vgg比起resnet来说网络大小更大
3.Inception ,1*1的卷积核有什么优点,为什么这么做,之后的V1,V2,V3,V4等都在哪些部分进行改进了
4.Relu优缺点,缺点是负值的那部分永无翻身之日,而且改变了输出的分布状态,最好可以加上一个BN来改进
5.svm的损失函数,对偶问题,拉格朗日算子
6.LR问题,损失函数是什么
7.原题:中值滤波是怎么做的,写代码,(简化版:如何求一个数组中的中位数:利用快速排序的思想迭代,可以达到O(n)的效果)
8.求一个数组中两个数的和为target的id
9.c++ stl库中,vector,map,vector<bool>的实现方法
10.从lenet5说起说一下计算机视觉的发展,每一代都比之前有什么改进
11.如果让你做网络数据的稀疏,会怎么做
百度面经(自然语言处理-二面挂):
一面:(1小时)
1.问了一下hash编码的问题
hash编码检索的问题:如何检索hash,怎么样位置无关,这个本人不太会
2.对机器学习详细的了解
比如svm,lr
3.数据结构bst搜索树,非遍历情况实现
bst算法从小到大输出
4.1000w条数据,独立同分布地取出100个词,会怎么取
考虑一下概率密度函数
二面:(1小时)
1.问了一下具体的项目怎么做的;
2。问如果北京科技大学字符串检索,要怎么检索,检索后怎么提高效率
面试官答案(先对输入的字符串分词,分词完成之后挨个查询词,查询词后得到n个list的排序好的字符串,然后利用归并排序的算法,查询出来n个list敏感词有的部分);
3.二叉树的平均深度,非递归的方法,最优实现
创新工厂面试(机器学习工程院-口头offer):
先现场笔试:
1.剑指offer原题,排序二维矩阵中寻找是否含有target
2.丢硬币,正面是0.7,反面是0.3,连续丢两次正面就结束,求结束时丢硬币次数的期望
3.特征工程怎么做,如何处理相应的数据
4.深度学习中relu模块在那里使用,有什么作用
5.深度学习的超参数怎么调整?
一面:(30分钟)
1.没完没了地问项目
2.问给一个100维的特征会如何对其进行筛选
3.有没有用过cnn,cnn的具体数据推导
4.svm的推导,询问是否了解svm
二面:(30分钟)
1.项目是怎么做的
2.特征工程的构建
3.分布式工程会不会用
4.c++底层的stl库的实现机制,有哪些防止多线程的措施
5.你对我还有什么问题。
二面结束了后就给了口头offer,不知道能不能行
京东面试(推荐算法工程师--offer)
一面:
1。l1和l2正则化,区别?
2.为什么参数稀疏会好?有什么数学原理么?
3.面试官不懂cnn,详细介绍一下什么是cnn?
4.写一下快排代码
5.写一个字符串反转的代码,c++
二面:
1.问具体项目
2.推导一下BP神经网络
3.svm的推导,对偶问题,拉格朗日,优缺点等
4.设计一个结构来进行推荐的热词存储?1000w量级的(树结构)
5.输入con,就把con开头的热词都输出出来,设计数据结构,实现搜寻代码
秋招过程真的很靠实力,外加很大的运气,包括笔试过不过啊,面试官的情况啊,个人临场的发挥啊,导师的gank啊,这些都会对面试的结果产生巨大的影响,希望每位参加秋招的牛油都能够找到自己心仪的offer~,好了唠嗑完了。楼主要回去写论文了= =感觉快毕不了业,十一前没拿到offer的小伙伴也别灰心,之后大厂12月份各部门都会有很多补招的,到时候联系好自己的师兄师兄姐哦

转载自:https://www.nowcoder.com/discuss/50923
页: [1]
查看完整版本: 非科班渣硕秋招总结-回馈牛客