首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AIGC
盛夏光年爱学习
创建于2023-12-26
订阅专栏
AI,大模型相关
等 2 人订阅
共13篇文章
创建于2023-12-26
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
深入理解rerank重排序的工作原理
本文章介绍了为什么要使用rerank模型,以及embedding模型和rerank的模型的特点,非常适合了解技术背后的原因。
jetty容器部署 websocket 踩坑记
jetty容器部署 websocket的war包报错,jetty容器默认不支持websocket,需要使用命令生成websocket的module。
流式响应Nginx配置踩坑记
后端流式响应测试环境https请求正常,服务上线后,https请求页面响应卡顿,经过排查,Nginx流式响应的配置默认开启缓冲区,本文记录排查过程。
图解Transformer
1.导语 谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。
RAG系列之:深入浅出 Embedding
RAG系列之:深入浅出 Embedding 什么是文本向量化? 文本向量化就是将文本数据转成数字数据
一文读懂:大模型RAG
一文读懂:大模型RAG RAG 检索增强生成(Retrieval Augmented Generation),简称 RAG,已经成为当前最火热的LLM应用方案。
检索增强生成(RAG)的挑战与优化措施
如何理解检索增强生成(RAG) 简单来说,RAG就是让LLM通过外部知识源获取额外信息,从而生成更准确、更符合上下文的答案,并减少错误信息(或称为“幻觉”)的产生。
手把手教你Langchain-chatchat 接入Dify
Dify 可以方面的管理多个大模型,方面用户快速使用和切换多个大模型,此外,Dify可以很方便的查看应用的使用数据。
Langchain-chatchat系列四: Langchain源码debug
Langchain源码debug: - configs/ 配置文件路径 - server/ api服务、大模型服务等服务程序等核心代码 - webui_pages/ webui服务 - startup
Python Langchain基础应用框架的使用
前言 Langchain代码中使用了FastApi和Streamlit框架,本文简单介绍总结一些python基础应用框架的概念和使用方式。
Langchain-chatchat系列二: Langchain核心组件及应用
一、Langchain核心组件 LangChain 包含六部分组成: Models:模型,各种类型的模型和模型集成,比如GPT-4 Prompts:提示,包括提示管理、提示优化和提示序列化 Memor
Langchain-chatchat系列一: Langchain基本概念
一、Langchain的chain是指的是什么? langchain字面意思是长长的链子,那么chains 链子具体指的是什么呢? 智普AI助手的回答如下: LangChain 中的 "chain"
win10 Langchain-chatchat 知识库本地搭建记录
win10 Langchain-chatchat 知识库本地搭建记录,以智普api为例,记录踩坑记录。