为了方便大家更好的学习和提问,特建立微信群
| 深度学习 | L3 | 深度学习有没有用到归一化?用到了什么归一化?归一化的操作是什么?有什么作用? |
|---|---|---|
| 深度学习 | L3 | 数据不均匀对模型训练有什么影像,数据分布不均匀的问题怎么解决 |
| 深度学习 | L3 | bert的架构是什么 目标是什么 输入包括了什么 三个embedding输入是怎么综合的 |
| 深度学习 | L3 | transformer里面每一层的主要构成有哪些 |
| 深度学习 | L3 | bert中MLM任务的具体策略是什么 |
| 深度学习 | L3 | bert的mask策略 |
| 深度学习 | L3 | BERT结构、transformer中feed forward的作用 |
| 深度学习 | L3 | bert有什么可以改进的地方 |
| 深度学习 | L3 | 了解bert之后的大规模预训练模型吗 |
| 深度学习 | L3 | bert中的双向注意力,bert中的嵌入怎么实现 |
| 深度学习 | L3 | Seq2seq模型中decode和encode的差别有哪些 |
| 深度学习 | L3 | CNN结构pooling的作用是什么 |
| 深度学习 | L3 | bert的position embedding要加一些其他的运算方式 |
| 深度学习 | L3 | RNN LSTM 为什么能缓解梯度消失 |
| 深度学习 | L3 | 梯度消失 梯度爆炸 |
| 深度学习 | L3 | 强化学习在什么场景下使用, |
| 深度学习 | L3 | 强化学习不收敛的情况 |
| 深度学习 | L3 | textcnn为什么有效,有什么优缺点,怎么改进 |
| 深度学习 | L3 | 深度语义匹配模型 |
| 深度学习 | L3 | 注意力机制和自注意力机制,怎么实现注意力和自注意力 |
| 深度学习 | L3 | transform模型的结构, |
| 深度学习 | L3 | transformer用的是哪种normalization,为什么不用BN |
| 深度学习 | L3 | transform自主力机制和实现原理,有什么需要改进点 |
| 深度学习 | L3 | 深度学习一阶优化和二阶优化的方法有哪些,基于动量的方法为什么能快速收敛 |
| 深度学习 | L3 | fasttext和textCNN说一下 |
| 深度学习 | L3 | 大型预训练模型除了bert以外还知道哪些 |
| 深度学习 | L3 | GPT和bert间主要的区别在哪 双向transformer会带来什么样的好处 你知道GPT为什么不用双向模型吗 bert作为双向模型如何解决未来文本的信息泄漏问题 |
| 深度学习 | L3 | GPT/BERT 中分别是怎么用 Transformer 的? |
| 深度学习 | L3 | LSTM的型的参数个数和时间复杂度 |
| 深度学习 | L3 | 无监督学习怎么计算文本相似度 |
| 深度学习 | L3 | BatchNorm和LayerNorm的区别? |
| 算法题 | L1 | 如何判断一句话是否含有反动、暴力元素,有标注数据怎么做,无标注数据怎么做 |
| 算法题 | L1 | 如何识别标题党 |
| 算法题 | L1 | 如何进行实体消歧,如“普通老百姓”,可能是电视剧名字,也可能是人的称谓 |
| 算法题 | L1 | 写一下单链表冒泡排序 |
| 算法题 | L1 | 你知道哪些排序算法 |
| 算法题 | L1 | 反转链表(递归 非递归) |
| 算法题 | L1 | topk最大(堆 递归算法 ) |
| 算法题 | L1 | 打印二叉树第k层 |
| 算法题 | L1 | 快速排序的时间复杂度 空间复杂度 |