面经详情

面试:总部管培(算法建模)。整体感觉不错,面试难度良好,专业不匹配,个人感觉没戏。
  • 面试官提前一天打电话约面试事件,小哥哥声音巨好听,人超好,完全无压力。面试两边都没开摄像。
  • 题目: 深挖简历 概率统计 ML NLP (Bert ,attention,transformer)
  • coding:我是学数学的,没练过算法,这部分跳过 
  • 问会不会java和c++,我不会
  • 问愿不愿意去数据,我说可以,
  • 但是更想搞模型  
  • 反问:无,面试官说了岗位不匹配,我就没有问题了,
  • 但是我有争取一下。希望能给个机会吧,但其实完全不感兴趣 
  • 感觉我希望乞讨来一份工作哈哈哈哈哈哈

相关推荐

平宁岛触摸屏机电工程师
算法工程师
未通过未通过
NLP开发工程师暑期实习生 四道编程题,每道20分。前两题忘记是什么了,总之很简单类似于打卡题,第三题是吃金币,考察的应该是DFS,浪费了很长时间最后还只有27%,最后一题是观测流星雨数量,考察的是差分+离散化,最后83%。四道多选题,分数各不一样,考察的是简单的深度学习和机器学习常识。笔试第二天约面。面试上来先自我介绍。然后根据项目问问题。1. 介绍一下CRF,不要说作用,介绍它的原理,和HMM的关系。没说好,开了个坏头。2. 介绍一下项目用到的模型。正常介绍。3. 介绍一下BERT模型的结构,它和Transformer之间的关系和区别。正常回答。4. 详细介绍一下Transformer层,用了什么机制。正常回答,面试官不满意,没有继续追问,开始下一题。5. 介绍一下BERT模型的预训练任务。介绍MLM,追问mask了多少,15%;介绍NSP,没有追问。6. 还了解什么自编码模型,介绍一下和BERT的区别。回答RoBERT,正常回答区别。追问还有哪些,回答不了解。7. 讨论一下BERT、LSTM和CNN的训练收敛速度,并给出原因。回答得一般。6. 介绍一下自编码和自回归。一开始理解成Auto Chain,后面误会解除但是回答得很浅,面试官不满意。7. 介绍一下实习期间的业务。正常介绍,追问事件抽取模型的构建思路,正常回答,没有追问。8. 询问LLM的相关内容。回答做过本地知识库,追问有哪些常用的LLM,想了半天回答ChatGLM有一些。NLP相关内容的回答给面试官一种很不专业的感觉,基础知识不扎实,前沿技术不追踪。于是开始询问开发相关内容:1. Linux下查看端口占用的命令。回答netstat,追问后面的参数,不会。应该是lsof -i。2. 杀死一个进程的命令。回答先PS看PID,然后kill,追问参数,回答-9。3. 查看某一资源利用率的命令,回答nvidia -msi,和面试官说她想听的应该不是这个,但是不知道。应该是ps auxw。1. 多线程和多进程的区别。回答出了三点,没回答全面。1. 最长路径和,any to any。需要在读题后和面试官说明思路,思路被面试官肯定,最后没有实现。心里知道凉了,真的没啥心情反问,象征性地问了一下知识图谱在公司的应用。其实这种面得糟糕的情况,可以直接问”我觉得这次面试表现得不好,请问一下可以给哪些建议,我如果想胜任这个岗位需要补足哪些能力。“一点约面,五点半收到感谢信。...查看更多
2023-06-12 发布

进入微信小程序

前往微信小程序,查看更多结果

立即前往
看准网平安财产保险平安财产保险面试经验平安财产保险面试经验:面试:总部管培(算法建模)。整体感觉不错,面试难度良好,专业不匹配,个人感觉没戏。