面经详情
匿名用户
面试了职位:机器学习算法工程师
未通过
微软Bing组算法(Game Over)。
微软的面试分为三轮,一个下午完成,正常情况都可以面到第三面。 第一面聊了10分钟左右的学习经历和比赛经历,因为我机缘巧合之下拿到一个比赛的第三名,因此主要和面试官扯了扯这个比赛。但是,我之前很少使用DNN,面试官还是建议学一下DNN。 聊完项目,就开始做算法题:最小的K个数:这道题LeetCode和剑指Offer里都有,可惜之前没有刷到过。话说,我真的是不幸,刷了300道题,都没有碰到。这道题我当时想出来用最小堆的做法,时间复杂度为O(log(n)),空间复杂度为O(K)。 最优的做法是快速选择,时间复杂度为O(log(n)),空间复杂度为O(1)。Java里的ArrayList的插入时间复杂度:因为,ArrayList的储存是固定数组。因此,超过数组大小,需要重新申请数组,然后复制。但是,平均时间复杂度还是O(n)。 第二面求中位数:我一开始以为是LeetCode那道Hard题,我就请求换了个题。后来想想,实在是不应该。多个有序数组合并:一开始,我想到了类似的归并的方法,但是时间复杂度较高。后来,我又想到了优先队列的方法,但是没有写出完美的代码。之后,面试官又问了能不能复现优先队列,没有实现成功。 第三面将字符串中的连续空格变为1个:实际是道Easy题,用两个指针就可以完成。但是,当时脑子瓦特,没有想到,后悔啊。系统题:忘了。
Q:最小的K个数。
1条回答
3轮及以上
相关推荐
匿名用户
机器学习
未通过
通知去面试,在海淀区一个会议厅先入场等候,叫号,需要扫码签到,然后会根据你的号码,叫到楼上小屋子里面试,面试氛围还好,大概四十多分钟,先问很多项目上的问题,设计到的算法以及机器学习的知识,然后写两个数据结构的算法。
包含1个问题,1个回答
Q:特征选的如何选择,强化学习ddqn的优点(因为我简历上写了强化学习的项目),什么是相关性,皮尔逊系数公式 random forest的行采样和列采样,梯度消失he梯度爆炸的解决方法。
2 年前 发布
5
匿名用户
机器学习
感觉没戏
主要看项目和相关背景是否对口,面试官问了很多有关相关知识的问题,和公式问题,并且还有coding的test,有非常多的相同背景项目的加分很厉害。而且英语要求很高,电面是中文,但是简历最好用英语写,不然面试的时候会被突然用英语问问题。
2 年前 发布
1759
机器学习
感觉没戏
—BAT机器学习面试1000题系列(第1~10题)1.请简要介绍下SVMSVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。扩展:这里有篇文章详尽介绍了SVM的原理、推导,《支持向量机通俗导论(理解SVM的三层境界)》。此外,这里有个视频也是关于SVM的推导:《纯白板手推SVM》2.请简要介绍下tensorflow的计算图@寒小阳:Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。3.请问GBDT和XGBoost的区别是什么?@Xijun LI:xgboost类似于gbdt的优化版,不论是精度还是效率上都有了提升。与gbdt相比,具体的优点有:1.损失函数是用泰勒展式二项逼近,而不是像gbdt里的就是一阶导数2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性3.节点分裂的方式不同,gbdt是用的gini系数,xgboost是经过优化推导后的更多详见在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?曼哈顿距离只计算水平或垂直距离,有维度的限制。另一方面,欧氏距离可用于任何空间的距离计算问题。因为,数据点可以存在于任何空间,欧氏距离是更可行的选择。例如:想象一下国际象棋棋盘,象或车所做的移动是由曼哈顿距离计算的,因为它们是在各自的水平和垂直方向做的运动。
...查看更多
2 年前 发布
匿名用户
制卡员-外聘员工
确定通过
首先第一轮是 vendor公司的客服经理面试,重点考察这个岗位所要求的服务态度等问题;第二轮是vendor公司的其他人员面试,主要考察英文能力,口语以及翻译;第三轮是 微软现场的site security manager 面试,直接问了我对这个岗位了解多少以及问我最多这个岗位可以坚持多久;第四轮就是制卡员的主管面试,主要是考察能否 突发情况下是否可以坚持原则不为所动,是否可以随机应变。
...查看更多
包含1个问题,1个回答
Q:你对DIO(制卡员)这个岗位了解多少?
2 年前 发布
匿名用户
机器学习
感觉没戏
1.讲一下以前做的项目; 2.讲一下SVM模型,推倒过程,目标函数是什么; 3.算法题,给你两个列表,一个里是a,b,c这样的元素,另一个里是这些元素的概率0.20.30.5,写一个函数,以相应的概率返回第一个列表里对应的元素。
2 年前 发布
29
匿名用户
机器学习
未通过
内推的,所以直接进入面试。分两轮,第一轮技术面,一些基础的算法题,分别和两个考官进行45分钟左右的面试,难度不大,第一个问了我一些二叉树的题目,第二个问了一题比较综合的,不管有没有做完都会问你时间、空间复杂度之类的。这次面试至少拿到一个pass,才有机会进到第二轮,如果名额少的话会要两个人都通过。 第二轮综合面试,首先还是会来一道算法题,我做的是二叉树的序列化和重建(很经典的题),再根据简历,问了项目的具体经历。总的来说,题目不难,虽然是机器学习的岗位,但是考的题目还是算法,项目经历应该是作为参考。
...查看更多
2 年前 发布
1
匿名用户
算法研究员
感觉没戏
LR和SVM --> LR实现简单,可解释性强 SVM、小样本、非线性、高维模式识别超平面跟所有数据相关吗 --> 不是loss区别 --> -ylogy-(1-y)log(1-y) argminw^2预测概率的输出选择LR还是和SVM --> lr svm只分类,深度激活函数,连续特征和离散特征如何处理。 有序数组,从某一地方切成两半,对调,查一个数是不是在这个数组里二分查找[1,2,3,4,5][4,5,1,2,3] o(n)。一个字符串,数字,变成数字,数,求一个平方根newton。
...查看更多
2 年前 发布
进入微信小程序
前往微信小程序,查看更多结果
立即前往
看准网
微软中国(Microsoft)
微软中国(Microsoft)面试经验
微软中国(Microsoft)面试经验:微软Bing组算法(Game Over)。
正在招聘
搜索算法
等 200 个岗位
去看看