首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
编程之季
掘友等级
四季轮转,代码不息。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
AI调教秘籍|3步让通用大模型秒变你的专属助手!
现有模型的局限性 一些模型能识别提示中的指令并执行零样本推理,而较小的大语言模型可能无法执行任务。包含示例(单样本或少样本推理)能帮助模型识别任务,但对小模型效果不佳,且占用上下文窗口空间。 微调方法
🔥DeepSeek开源周连甩7大核弹技术🚀
💥 硅谷连夜开会研究的中国黑科技 国产团队DeepSeek开源周炸场全球!连续6天放出「AGI基建革命」终极武器,开发者看完集体破防: 🌟 核弹级技术清单 1️⃣ FlashMLA 3000GB/s吞
✨ LLM魔法课堂|调参小技巧让AI文采飞起!✨
🍭 字数限制:Max New Tokens 就像给AI设定“小作文上限”📝,比如100/150/200字 但AI可能提前收尾(遇到停止符⏹️),实际字数≤设定值 🤖 默认模式:Greedy Decod
🤖一文读懂大语言模型提示工程
👋今天来聊聊超火的大语言模型提示工程,学会了能让你和 AI 的互动效果直线上升📈! ✨ 关键术语科普 📌提示(prompt):就是咱们喂给模型的文本,它可是引导模型输出的关键~ 📌推理(inferen
Generative AI with Large Language Models - Transformers(week1-7)
《Attention is All You Need》是谷歌研究人员于 2017 年发表的一篇研究论文,该论文引入了 Transformer 模型。这是一种全新的架构,彻底改变了自然语言处理(NLP)
Generative AI with Large Language Models - Transformers architecture学习笔记(week1-6
Transformer 架构优势 超越 RNN:使用 Transformer 架构构建大语言模型,显著提升自然语言任务性能,相比早期 RNN 实现再生能力的飞跃。 自注意力机制: 学习相关性:能学习句
开源界的圣诞老人提前来了?这家自称“车库创业"的AGI团队要连甩五个王炸
当别的AI公司还在用PR稿画饼时,这支自称“比你家车库还小"的AGI战队直接掀了牌桌——他们要在下周开启“开源周"!是的你没听错,连续5天每天开源一个生产级项目,这波操作堪比程序员界的“十二道锋味"。
Generative AI with Large Language Models - Course Introduction学习笔记(week1-1)
关于本课程 在《生成式人工智能与大语言模型(LLMs)》课程中,你将学习生成式人工智能的工作原理基础,以及如何将其应用于实际场景。 课程收获 深度理解生成式人工智能,阐述基于大语言模型的生成式人工智能
Generative AI with Large Language Models - Introduction Week1学习笔记(wee1-2)
Transformer 网络工作原理 复杂但重要:这是个复杂话题,2017 年《Attention Is All You Need》论文阐述了 Transformer 架构内复杂数据处理过程。
Generative AI with Large Language Models - Generative AI & LLMs学习笔记(week1-3)
by DeepLearning.AI & Amazon Web Services 关于本课程 在《生成式人工智能与大语言模型(LLMs)》课程中,你将学习生成式人工智能的工作原理基础,以及如何将其应用
下一页
个人成就
文章被点赞
1
文章被阅读
1,857
掘力值
124
关注了
2
关注者
0
收藏集
0
关注标签
4
加入于
2023-12-16