nlp面试-深度学习以及算法39问,方便你度过面试难关

170 阅读3分钟

为了方便大家更好的学习和提问,特建立微信群

​​

深度学习L3深度学习有没有用到归一化?用到了什么归一化?归一化的操作是什么?有什么作用?
深度学习L3数据不均匀对模型训练有什么影像,数据分布不均匀的问题怎么解决
深度学习L3bert的架构是什么 目标是什么 输入包括了什么 三个embedding输入是怎么综合的
深度学习L3transformer里面每一层的主要构成有哪些
深度学习L3bert中MLM任务的具体策略是什么
深度学习L3bert的mask策略
深度学习L3BERT结构、transformer中feed forward的作用
深度学习L3bert有什么可以改进的地方
深度学习L3了解bert之后的大规模预训练模型吗
深度学习L3bert中的双向注意力,bert中的嵌入怎么实现
深度学习L3Seq2seq模型中decode和encode的差别有哪些
深度学习L3CNN结构pooling的作用是什么
深度学习L3bert的position embedding要加一些其他的运算方式
深度学习L3RNN LSTM 为什么能缓解梯度消失
深度学习L3梯度消失 梯度爆炸
深度学习L3强化学习在什么场景下使用,
深度学习L3强化学习不收敛的情况
深度学习L3textcnn为什么有效,有什么优缺点,怎么改进
深度学习L3深度语义匹配模型
深度学习L3注意力机制和自注意力机制,怎么实现注意力和自注意力
深度学习L3transform模型的结构,
深度学习L3transformer用的是哪种normalization,为什么不用BN
深度学习L3transform自主力机制和实现原理,有什么需要改进点
深度学习L3深度学习一阶优化和二阶优化的方法有哪些,基于动量的方法为什么能快速收敛
深度学习L3fasttext和textCNN说一下
深度学习L3大型预训练模型除了bert以外还知道哪些
深度学习L3GPT和bert间主要的区别在哪 双向transformer会带来什么样的好处 你知道GPT为什么不用双向模型吗 bert作为双向模型如何解决未来文本的信息泄漏问题
深度学习L3GPT/BERT 中分别是怎么用 Transformer 的?
深度学习L3LSTM的型的参数个数和时间复杂度
深度学习L3无监督学习怎么计算文本相似度
深度学习L3BatchNorm和LayerNorm的区别?
算法题L1如何判断一句话是否含有反动、暴力元素,有标注数据怎么做,无标注数据怎么做
算法题L1如何识别标题党
算法题L1如何进行实体消歧,如“普通老百姓”,可能是电视剧名字,也可能是人的称谓
算法题L1写一下单链表冒泡排序
算法题L1你知道哪些排序算法
算法题L1反转链表(递归 非递归)
算法题L1topk最大(堆 递归算法 )
算法题L1打印二叉树第k层
算法题L1快速排序的时间复杂度 空间复杂度