一面:
1. 进程和线程的区别;
2. Xgboost如何处理缺失值;
3. Xgboost和gdbt区别;
4. Python多线程如何使用;
5. Python哪些函数用到了迭代器;
6. Xgboost并行化体现在哪。
二面:
1. 数学建模竞赛(目标函数怎么写的,怎么求解的,为什么能用这种方式求解);
2. 讲下模拟退火算法和贪婪算法;
3. 随机森林和gdbt的区别;
4. 随机森林为什么采用有放回的方式采样?为什么能降低方差?
5. 讲下Bootstrap抽样;
6. LR采用什么方式抽样?有放回还是无放回?为什么?
7. LR损失函数推导,为什么能这样构造?这个损失函数代表的含义;
8. 假设有正负两类样本,用LR去划分有什么缺陷?
9. LR和SVM比较;
10. L1和L2正则项的区别;
11. 对于线性模型,若初始化不同的w和b,加入L1和L2中的哪个正则项可以使得预测值更加稳定,为什么;
12. 讲下图计算,深度优先和广度优先比较;
13. 几个深度学习模型的原理(lstm、textcnn);
14. 撕代码(用深度优先)dict中查看某个值在不在key的value内。
...查看更多