首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ai
订阅
jymsy
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
大模型应用(八)一文搞懂Fine-tuning,模型微调有啥好处,从理论到实操
我们前面几篇博文中出现的大模型,都是通用的大模型。但在更专业的领域,需要更专业的模型,这就需要模型的微调能力。
LangGPT —— 让人人都能编写高质量 Prompt
LangGPT —— 让人人都能编写高质量 Prompt 要用好现有大模型的能力严重依赖高质量 prompt, 然而编写高质量 prompt 在现阶段还是个手艺活,太依赖个人经验。
Fastapi系列-request:Request全局变量代理实践
前言 关于全局变量代理,最明显则是我们的flask框架中的request的变量,本身它是一个线程安全的,所以我们在使用的时候,可以随意在某个模块里导入进行使用。如果对于FastApi你也有类似此类的需
Langchain-Chatchat+Qwen实现本地知识库
1.基础介绍 Langchain-Chatchat一种利用 langchain 思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。大致过
LLM+本地知识库?简单又没那么简单
最近在研究如何将大语言模型结合本地知识库进行问答,虽然网上已经有很多教程,但大部分都是基于LangChain进行文本分割,然后调用模型向量化的API。这种方式的确很简单,但有这么几个前提: 大模型不使
【可能是全网最丝滑的LangChain教程】八、LangChain进阶之LLM
LangChain进阶系列教程第一篇,主要是对Model I/O中的LLM组件的详细解析,欢迎阅读~