NewBeeNLP原创出品
作者 | 带带大兄弟
写在前面
双非渣硕,0实习,3篇水文,三个给老板当打工仔的nlp横向项目,八月份开始准备秋招,纠结开发还是算法,开发的话菜而自知,算法也是菜而自知,最后还是头铁NLP算法。
秋招进度:投递150+ ,笔试50+ ,面试30+ ,offer 2,只求当咸鱼,基本躺平了
下面是我的部分面经记录,希望对后来人有帮助
58同城
找了在58NLP工作的本科同学内推,估计HR给忘了,第一批没内推上,只赶上了第二批笔试,当时已经开奖了好多人了,感觉坑位不多。
一面
- 自我介绍
- 今后的事业规划、研究方向
- 项目1:为什么选择这种模型,有尝试过其他模型吗
- BERT的优缺点
- PTM都了解哪些,BERT与GPT区别
- 单项与双向在实际训练时有差别吗
- bert的mask会带来什么缺点吗
- 项目2:句对匹配任务
-
- 每次查询都要与库里所有的数据做计算,有考虑过优化么
- 手撕代码 :
-
- 经典DP
- 判断两个链表是否相交
ps:没给反问机会
二面
- 自我介绍
- 挑一个比较重点的项目开讲
-
- 知识库有多大,数据是分层存储的吗
- 数据是如何收集的
- 问题会有子问题吗
- 准确率怎么验证的
- 效果会跟数据集有关系吗
- sentence pair怎么改进的
- CNN与RNN的区别
- Transformer原理
- 注意力机制有哪些种类,本身原理上起了什么作用
- 怎么解决过拟合问题
- BN在原理上怎么解决过拟合
- 常用损失函数有哪些
- 回归问题主要用哪些损失函数
- 隐马尔可夫了解么
- 数据不平衡怎么处理
- 数据不平衡的损失函数有哪些
- 交叉熵是什么原理
- 系统搭建怎么搭建的
- 项目3介绍
-
- 评价体系是什么
- 词向量有哪些方法
- 分词了解么
- 工作上的规划,地点有选择吗
- 工程上的开发与落地有经验吗
- 知识蒸馏是什么,通过什么方式来简化,比如albert,具体原理是什么
HR面
- 经典HR问题
- 反问新人培养机制
贝壳
一面
- LDA基础知识
- LSTM梯度消失/爆炸
- 等等
二面
- 自我介绍
- 项目介绍
- LDA主题数目确定
- Gibbs采样和变分推断
- GIbbs优化目标是什么
- Gibbs采样与变分推断的优缺点
- 常用的模型(LSTM+BERT),训练语料
- BERT原理
- Bert与LSTM比较
- 样本不平衡的处理方法
- 了解NER么
- 统计类模型了解么 阴马
- 编程语言用什么,C++会么
- embedding的方法(word2vec \glove\ fasttext)
- glove 与word2vec的区别
- LR,SVM与XGboost了解么,介绍一下
- GBDT,Xgboost的区别,Xgboost分布式计算是计算什么
- 代码:写快排
HR面
- 说一个印象最深的项目,收获
- 今后还做这个方向么
- 目前关注的公司
- 对贝壳了解么
- 可以实习么
- 在哪个校区
- 反问(两周之内给结果)
依图
一面
新加坡部门跨国面试
- 是保研吗
- 项目
- BERT为什么有效,与其他模型相比呢
- Transformer优点
- 数据源如何来的,数据更新如何解决
- embedding方式有哪些
- word2vec训练时出现过问题吗,比如训练后的词之间的相似性不准
- 爬虫框架用过哪些
- 手撕代码
-
- 手写字典树
- 二叉树的遍历 递归非递归
二面
- 自我介绍
- 项目
-
- 粗筛能过滤多少数据
- 评测过第一步的性能么
- BERT原理,
- 正则化是什么,LN是什么,作用是什么
- 过拟合手段有哪些
- Dropout原理
- hyperscan的原理是什么
- 模型预测错误的数据,为什么会错,分析过么
- sentence pairs模型中,为什么不直接用score排序
- 为什么要选用这种模型
- 自定义损失函数是什么,为什么要用这个
- 手撕代码,leetcode.33
尾巴
回顾整个秋招历程,当时选择方向的时候,权衡利弊还是选择了算法岗,虽然 学历不如 双一流大佬,论文比不上A会学霸,但还是决定曲线救国,从项目方面入手,算法研究不行我就从算法落地方向找突破口,整个简历都是围绕着项目展开的,面试过程也尽量把面试官往项目上引,后期的几个面试也基本都是一个项目扣半个多小时,扣着扣着就到时了。
最后祝大家都能拿到自己想要的offer!!!!!过程虽然很曲折,但结果一定是美好的!!!
往期精彩回顾
适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载机器学习的数学基础专辑
获取一折本站知识星球优惠券,复制链接直接打开:
本站qq群704220115。\
加入微信群请扫码: