首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
CodeDevMaster
掘友等级
全栈开发工程师
积跬步,至千里。
获得徽章 16
动态
文章
专栏
沸点
收藏集
关注
作品
赞
348
文章 322
沸点 26
赞
348
返回
|
搜索文章
最新
热门
LangChain之内存记忆 ( Memory )
大多数LLM应用都具有对话功能,如聊天机器人,记住先前的交互非常关键。对话的重要一环是能够引用之前提及的信息,这些信息需要进行存储,因此将这种存储过去交互信息的能力称为记忆 ( Memory )。
LangChain之链的应用(下)
LangChain根据功能、用途的不同,提供了大量的Chain链,以下是一些Chain链的使用示例。
LangChain之链的认识(上)
Chain是LangChain中非常重要的一个组件,可以帮助我们更好地组织和管理应用程序的各个功能模块,提高开发效率和应用程序的复杂性。
Ollama:一个在本地部署、运行大型语言模型的工具
Ollama是一个开源项目,它专为在本地机器上能便捷部署、以及运行大型语言模型(LLM)而设计的工具。
使用llama.cpp实现LLM大模型的格式转换、量化、推理、部署
llama.cpp的主要目标是能够在各种硬件上实现LLM推理,只需最少的设置,并提供最先进的性能。提供1.5位、2位、3位、4位、5位、6位和8位整数量化,以加快推理速度并减少内存使用。
使用Unsloth微调Llama3-Chinese-8B-Instruct中文开源大模型
Unsloth是一个开源的大模型训练加速项目,可以显著提升大模型的训练速度,减少显存占用。本文将使用Unsloth微调Llama3-Chinese-8B-Instruct中文开源大模型。
安装CUDA Toolkit解决异常:OSError: CUDA_HOME environment variable is not set.
安装CUDA Toolkit解决异常:OSError: CUDA_HOME environment variable is not set.
一款更加轻量级的虚拟机:Multipass
一款超级轻量级的虚拟机:Multipass。它专为想要通过单个命令获得全新 Ubuntu 环境的开发人员而设计,下载一个全新的镜像需要几秒钟的时间,并且在几分钟内就可以启动并运行VM。
LangChain之各个输出解析器的使用
输出解析器负责获取 LLM 的输出并将其转换为更合适的格式。借助LangChain的输出解析器重构程序,使模型能够生成结构化回应,并可以直接解析这些回应。
LangChain之各类提示模板的使用
语言模型的提示是用户提供的一组指令或输入,用于指导模型的响应,帮助模型理解上下文并生成相关且连贯的基于语言的输出,例如回答问题、完成句子或参与某项活动、对话。
下一页
个人成就
2024年度人气作者No.145
优秀创作者
文章被点赞
2,923
文章被阅读
729,170
掘力值
16,570
关注了
75
关注者
481
收藏集
18
关注标签
100
加入于
2018-05-04