首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型应用开发
订阅
用户6871739327641
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
LangChain vs LangGraph:从困惑到清晰的认知之路(扫盲篇)
在学习 AI 的过程中,我发现一个很普遍的现象:很多开发者(包括我自己)对 LangChain 和 LangGraph 的关系都是一知半解的。
深入解析大型语言模型:从训练到部署大模型
简介 随着数据科学领域的深入发展,大型语言模型——这种能够处理和生成复杂自然语言的精密人工智能系统—逐渐引发了更大的关注。 LLMs是自然语言处理(NLP)中最令人瞩目的突破之一。这些模型有潜力彻底改
精通Transformer——微调语言模型用于文本分类
在本章中,我们将学习如何配置一个预训练模型以进行文本分类,并如何微调它以适应任何文本分类的下游任务,例如情感分析、多类分类或多标签分类。我们还将讨论如何处理句子对和回归问题,并提供一个实现示例。我们将
精通Transformer——从生成模型到大型语言模型
在本章中,您将学习生成语言模型(GLMs)和大型语言模型(LLMs)。接下来,您将学习如何在自己的文本上预训练任何语言模型,例如生成预训练变换器2(GPT-2),并将其用于自然语言生成(NLG)等任务
从零开始构建大型语言模型——处理文本数据
本章内容包括: 为大型语言模型训练准备文本数据 将文本拆分为单词和子词词元 使用字节对编码(Byte Pair Encoding)作为更高级的文本标记化方法 通过滑动窗口方法对训练示例进行采样 将词元
实操大型语言模型——文本分类
文本分类是自然语言处理中的常见任务。其目标是训练模型为输入文本分配一个标签或类别(见图4-1)。文本分类在全球范围内广泛应用于各种场景,从情感分析和意图检测到实体提取和语言检测。语言模型(无论是表示型
使用LLaMA-Factory快速训练自己的专用大模型
本文聊聊 LLama-Factory,它是一个开源框架,这里头可以找到一系列预制的组件和模板,让你不用从零开始,就能训练出自己的语言模型(微调)。不管是聊天机器人,还是文章生成器,甚至是问答系统...
使用Unsloth微调Llama3-Chinese-8B-Instruct中文开源大模型
Unsloth是一个开源的大模型训练加速项目,可以显著提升大模型的训练速度,减少显存占用。本文将使用Unsloth微调Llama3-Chinese-8B-Instruct中文开源大模型。
使用llama.cpp实现LLM大模型的格式转换、量化、推理、部署
llama.cpp的主要目标是能够在各种硬件上实现LLM推理,只需最少的设置,并提供最先进的性能。提供1.5位、2位、3位、4位、5位、6位和8位整数量化,以加快推理速度并减少内存使用。
这款国产化大模型应用开发平台太好用了!
最近看到的一个开源的提示词编排平台[bisheng](https://github.com/dataelement/bisheng),音同「毕昇」,项目介绍说 「“毕昇”是活字印刷术的发明人,活字印刷