稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
bert
订阅
avatar
用户44723942941
更多收藏集

微信扫码分享

微信
新浪微博
QQ

3篇文章 · 0订阅
  • CVer从0入门NLP(三)———GPT、BERT模型
    Hello,大家好,祝JYM中秋快乐,阖家团圆。节前最后一篇,陪你走到最后一刻。🥗🥗🥗本节将为大家介绍GPT和BERT的原理,一起来学学叭。🍚🍚🍚
    • 秃头小苏
    • 2年前
    • 5.3k
    • 14
    • 9
    人工智能 NLP GPT
    CVer从0入门NLP(三)———GPT、BERT模型
  • 深度学习经典模型之BERT(下)
    BERT inputs 切词方法 BERT的切词方法用的是WordPiece embeddings,其思想是如果一个词在整个里面出现的概率不大的话,就应该把它切开,看他的一个子序列,如果它的一个子序列
    • _山海
    • 1年前
    • 2.3k
    • 1
    • 评论
    LLM 人工智能 深度学习
  • 深度学习经典模型之BERT(上)
    概述 BERT是一个双向transformer编码器的言表示模型。来自论文:BERT: Pre-training of Deep Bidirectional Transformers for Lang
    • _山海
    • 1年前
    • 1.5k
    • 5
    • 3
    LLM 深度学习 人工智能