面经详情

苏州微软-算法、机器学习实习生
内推的,所以直接进入面试。分两轮,第一轮技术面,一些基础的算法题,分别和两个考官进行45分钟左右的面试,难度不大,第一个问了我一些二叉树的题目,第二个问了一题比较综合的,不管有没有做完都会问你时间、空间复杂度之类的。这次面试至少拿到一个pass,才有机会进到第二轮,如果名额少的话会要两个人都通过。 第二轮综合面试,首先还是会来一道算法题,我做的是二叉树的序列化和重建(很经典的题),再根据简历,问了项目的具体经历。总的来说,题目不难,虽然是机器学习的岗位,但是考的题目还是算法,项目经历应该是作为参考。

相关推荐

1759
机器学习
未通过感觉没戏
—BAT机器学习面试1000题系列(第1~10题)1.请简要介绍下SVMSVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。扩展:这里有篇文章详尽介绍了SVM的原理、推导,《支持向量机通俗导论(理解SVM的三层境界)》。此外,这里有个视频也是关于SVM的推导:《纯白板手推SVM》2.请简要介绍下tensorflow的计算图@寒小阳:Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。3.请问GBDT和XGBoost的区别是什么?@Xijun LI:xgboost类似于gbdt的优化版,不论是精度还是效率上都有了提升。与gbdt相比,具体的优点有:1.损失函数是用泰勒展式二项逼近,而不是像gbdt里的就是一阶导数2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性3.节点分裂的方式不同,gbdt是用的gini系数,xgboost是经过优化推导后的更多详见在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?曼哈顿距离只计算水平或垂直距离,有维度的限制。另一方面,欧氏距离可用于任何空间的距离计算问题。因为,数据点可以存在于任何空间,欧氏距离是更可行的选择。例如:想象一下国际象棋棋盘,象或车所做的移动是由曼哈顿距离计算的,因为它们是在各自的水平和垂直方向做的运动。...查看更多
2 年前 发布

进入微信小程序

前往微信小程序,查看更多结果

立即前往
看准网微软中国(Microsoft)微软中国(Microsoft)面试经验微软中国(Microsoft)面试经验:苏州微软-算法、机器学习实习生
正在招聘搜索算法200 个岗位