面经详情

旷视算法实习生目标检测方向面试过程
面试分两轮,由于我是目标检测方向的,所以第一轮问的基本是目标检测方向的内容。首先是自我介绍,然后问的是Focal Loss for Dense Object Detection那篇论文中loss的公式,还有公式中的alpha和gamma具体是干什么的,还要问我yolo和ssd等one-stage的方法。这块答得很吃力,因为我一直在看two-stage的RCNN系列方法,对one-stage的方法了解的不太多,然后面试官一直怼着我问one-stage的方法,准备了那么多two-stage的方法没有任何用处。所以还是要对这整个领域了解透彻啊,也算是个教训吧。(面试官迟了约定时间30分钟左右才给我打电话,然后20分钟左右就结束了本应该1小时的电话面试,可能是因为我太菜了吧。) 第二轮依然是先自我介绍。面试官问了我有关BN、drop out的知识。问了我之前的实习都去干什么了。做了两道题,分别是leetcode 103和357。我做的时候很自信,可是后来自己再在leetcode跑代码的时候,发现自己写的代码跑出来不对,凉凉。所以还是要好好刷leetcode啊。 总体的感觉就是自己的水平确实不够,知道了自己的不足,所以要针对自己的不足多多努力,争取下一个面试不会被拒。而且我了解到,面试官可能需要的是会one-stage方法的人,所以two-stage的方法准备的再好也不会被问。以后面试的小伙伴们如果只了解一个脉络的话,建议再去了解一下另一个脉络,这样就不会陷入和我一样的境地。

相关推荐

平宁岛触摸屏机电工程师
算法工程师
未通过未通过
NLP开发工程师暑期实习生 四道编程题,每道20分。前两题忘记是什么了,总之很简单类似于打卡题,第三题是吃金币,考察的应该是DFS,浪费了很长时间最后还只有27%,最后一题是观测流星雨数量,考察的是差分+离散化,最后83%。四道多选题,分数各不一样,考察的是简单的深度学习和机器学习常识。笔试第二天约面。面试上来先自我介绍。然后根据项目问问题。1. 介绍一下CRF,不要说作用,介绍它的原理,和HMM的关系。没说好,开了个坏头。2. 介绍一下项目用到的模型。正常介绍。3. 介绍一下BERT模型的结构,它和Transformer之间的关系和区别。正常回答。4. 详细介绍一下Transformer层,用了什么机制。正常回答,面试官不满意,没有继续追问,开始下一题。5. 介绍一下BERT模型的预训练任务。介绍MLM,追问mask了多少,15%;介绍NSP,没有追问。6. 还了解什么自编码模型,介绍一下和BERT的区别。回答RoBERT,正常回答区别。追问还有哪些,回答不了解。7. 讨论一下BERT、LSTM和CNN的训练收敛速度,并给出原因。回答得一般。6. 介绍一下自编码和自回归。一开始理解成Auto Chain,后面误会解除但是回答得很浅,面试官不满意。7. 介绍一下实习期间的业务。正常介绍,追问事件抽取模型的构建思路,正常回答,没有追问。8. 询问LLM的相关内容。回答做过本地知识库,追问有哪些常用的LLM,想了半天回答ChatGLM有一些。NLP相关内容的回答给面试官一种很不专业的感觉,基础知识不扎实,前沿技术不追踪。于是开始询问开发相关内容:1. Linux下查看端口占用的命令。回答netstat,追问后面的参数,不会。应该是lsof -i。2. 杀死一个进程的命令。回答先PS看PID,然后kill,追问参数,回答-9。3. 查看某一资源利用率的命令,回答nvidia -msi,和面试官说她想听的应该不是这个,但是不知道。应该是ps auxw。1. 多线程和多进程的区别。回答出了三点,没回答全面。1. 最长路径和,any to any。需要在读题后和面试官说明思路,思路被面试官肯定,最后没有实现。心里知道凉了,真的没啥心情反问,象征性地问了一下知识图谱在公司的应用。其实这种面得糟糕的情况,可以直接问”我觉得这次面试表现得不好,请问一下可以给哪些建议,我如果想胜任这个岗位需要补足哪些能力。“一点约面,五点半收到感谢信。...查看更多
2023-06-12 发布

进入微信小程序

前往微信小程序,查看更多结果

立即前往
看准网旷视(Face++)旷视(Face++)面试经验旷视(Face++)面试经验:旷视算法实习生目标检测方向面试过程
正在招聘旷视前端技术部招聘前端实习生23 个岗位