首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
董董灿是个攻城狮
掘友等级
AI算法攻城狮
AI算法开发,公众号:董董灿是个攻城狮
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
24
文章 23
沸点 1
赞
24
返回
|
搜索文章
最新
热门
Transformer 通关秘籍6:词汇表:文本到数值的转换
前面几节一直在介绍 token 相关的内容,相信你看到这里,对 token 肯定很了解了吧。如果对 token 本身还有其他疑问,可以在本文下留言。 本节开始,进入下一步骤,由 token 到数值
一文学会 Qwen2-0.5B+Lora+alpaca_zh 微调实战,附完整可运行源代码
预训练大模型在训练过程中,虽然学到了很多通用知识,但是很多时候,大模型本身并不能在专业领域表现得非常好。 比如你让 Qwen 模型回答“量子力学中的叠加态是什么”,它可能会给出一个笼统的解释,但要是让
Transformer 通关秘籍5:GPT4 模型的 tokenization 的可视化网站
在前面几节,你了解了 token 的概念以及对文本进行分词的大致过程后。 本节给出一个使用 GPT4 模型(当前 OpenAI 最强大的模型)拆分 token 并将拆分结果进行可视化的网站,你可以
Transformer 通关秘籍4:一文看懂文本的 tokenization(分词)的过程
前面两节分别通过两个代码示例展示了模型将文本转换为 token 之后是什么样的,希望你可以对此有一个感性的认识。 本节来简要介绍一下将一个连续的文本转换为 token 序列的大致过程,这个过程被称
Transformer 通关秘籍3:利用 GPT2 将文本 token 化
在上一节,利用 BERT 模型将一个文本进行了 token 化。那你可能会问,是不是所有的模型将同一个文本 token 化之后,结果都一样呢? 当然不是。 这是因为不同的模型对文本进行 tok
Transformer 通关秘籍2:利用 BERT 将文本 token 化
在上一节,我们介绍了 token 的概念。 你可以这么认为, token 是自然语言处理场景(如文本生成、AI聊天)下,AI 模型能够处理的最小单位。 在计算机视觉中,模型以像素为单位来处理图
利用 Resnet50 微调图像分类模型,完成宠物数据集的识别,附源代码。。
在[这篇文章](https://mp.weixin.qq.com/s?__biz=MzAwOTc2NDU3OQ==&mid=2649043192&idx=1&sn=edb9e6a364c37e5bf
利用 Resnet50 重新训练,完成宠物数据集的识别,附源代码。。
如果你对深度学习有所了解,知道神经网络可以识别图片,但还没自己动手训练过模型,这篇文章会非常适合你。 这篇文章将使用 PyTorch 和 ResNet50,基于 Oxford-IIIT Pet 数
Transformer 通关秘籍1:什么是 token?
可以说,学习自然语言处理、大模型、Transformer 任何一个技术,都离不开 token这个概念。 本专栏就从这个最基础的概念开始讲起。 多年前,第一次接触到自然语言处理模型 BERT
一文看懂 Claude 3.7 Sonnet,为什么是第一个融合推理模式的 AI 模型
## 1. Claude 3.7 Sonnet 有何特别之处? Claude 3.7 Sonnet 是 Anthropic 最新发布的 AI 模型,发布过程中,最突出最吸引眼球的特点是**首个“
下一页
个人成就
优秀创作者
文章被点赞
749
文章被阅读
236,782
掘力值
7,265
关注了
2
关注者
365
收藏集
0
关注标签
8
加入于
2023-04-05