首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
llm
订阅
郑祥忠
更多收藏集
微信扫码分享
微信
新浪微博
QQ
16篇文章 · 0订阅
Langchain-Chatchat大语言模型本地知识库的踩坑、部署、使用
Langchain-Chatchat是一个基于ChatGLM大语言模型与Langchain应用框架实现的大语言模型本地知识库应用项目。
比OpenAI官方提示词指南更全,这26条黄金准则让LLM性能飙升50%以上
> 今天,穆罕默德・本・扎耶德*人工智能*大学 VILA Lab 带来了一项关于如何更好地为不同规模的大模型书写提示词(prompt)的研究,让大模型性能在不需要任何额外训练的前提下轻松提升 50%
LangChain的Agent使用介绍
越来越多的人开始尝试接触和使用大模型,在感叹大模型带来的惊人表现的同时,也发现大模型没法查询到最新的信息,做科学计算方面很弱等问题,那么LangChain框架正好能弥补这个问题。
langchain chatchat中我们不得不关注的配置
五个配置 认识到langchain chatchat中用到的深度学习技术 包括向量搜索引擎、生成式语言模型、重排序模型与生成式语言模型在线接口。 chatchat-space/Langchain-Ch
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
之前尝试了基于LLaMA使用LaRA进行参数高效微调,有被惊艳到。相对于full finetuning,使用LaRA显著提升了训练的速度。 虽然 LLaMA 在英文上具有强大的零样本学习和迁移能力,但
LangChain + ChatGLM2-6B 搭建个人专属知识库
之前教过大家利用 langchain + ChatGLM-6B 实现个人专属知识库,非常简单易上手。最近,智谱 AI 研发团队又推出了 ChatGLM 系列的新模型 ChatGLM2-6B
【关于 ChatGLM 微调】那些你不知道的事
本教程主要介绍对于 ChatGLM-6B 模型基于 [P-Tuning v2](https://github.com/THUDM/P-tuning-v2) 的微调。P-Tuning v2 将需要微调的
LangChain 一 hello LLM
前言 先是OpenAI引爆AI狂热,再是Llama2、通义千问、文心一言百家齐放,最近Google Gemini一出来就是梭哈。LLM已逐步被传统应用整合,升级为AI应用。其中,LangChain
全面剖析检索增强生成 (RAG)
什么是 RAG RAG,即检索增强生成,是一种将预训练的大型语言模型的功能与外部数据源相结合的技术。这种方法将 GPT-3 或 GPT-4 等 LLM 的生成能力与专用数据搜索机制的精确性相结合,从
揭秘LoRA与QLoRA:百次实验告诉你如何微调LLM!
LoRA(低秩适应)是目前应用最广泛、参数效率最高的自定义大型语言模型(LLM)微调技术之一。本文不仅介绍了使用QLoRA节省内存的方法,还讨论了选择最佳LoRA设置的实用技巧,为有兴趣应用此技术的读