稀土掘金 稀土掘金
    • 首页
    • AI Coding
    • 数据标注 NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
bert
订阅
avatar
用户44723942941
更多收藏集

微信扫码分享

微信
新浪微博
QQ

4篇文章 · 0订阅
  • 一个小技巧,帮你显著提高 AI 的回答质量!
    随着 AI 技术突飞猛进的发展,各种大模型的上限虽然在不断增强,但模型有的时候似乎有点学会偷懒了。典型的现象是,有时模型在回答问题时可能会放弃寻找多样的可能性,直接偷懒给类似提问一个最普通同时也最不容
    • ConardLi
    • 2月前
    • 5.0k
    • 44
    • 9
    前端 后端 人工智能
    一个小技巧,帮你显著提高 AI 的回答质量!
  • CVer从0入门NLP(三)———GPT、BERT模型
    Hello,大家好,祝JYM中秋快乐,阖家团圆。节前最后一篇,陪你走到最后一刻。🥗🥗🥗本节将为大家介绍GPT和BERT的原理,一起来学学叭。🍚🍚🍚
    • 秃头小苏
    • 2年前
    • 5.4k
    • 15
    • 9
    人工智能 NLP GPT
    CVer从0入门NLP(三)———GPT、BERT模型
  • 深度学习经典模型之BERT(下)
    BERT inputs 切词方法 BERT的切词方法用的是WordPiece embeddings,其思想是如果一个词在整个里面出现的概率不大的话,就应该把它切开,看他的一个子序列,如果它的一个子序列
    • _山海
    • 2年前
    • 2.5k
    • 1
    • 评论
    LLM 人工智能 深度学习
  • 深度学习经典模型之BERT(上)
    概述 BERT是一个双向transformer编码器的言表示模型。来自论文:BERT: Pre-training of Deep Bidirectional Transformers for Lang
    • _山海
    • 2年前
    • 1.5k
    • 5
    • 3
    LLM 深度学习 人工智能