首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
SimFG
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
最新
热门
如何更好配置大模型缓存
如何更好的配置大模型缓存呢?加速 ⏩ 省钱💰!!! 在我们内部使用的GPTCache产品,根据目前已有的数据,发现cache的缓存效果还不错,当然还有提升空间。
To ChatGPT:让你更加随意的使用所有ChatGPT应用
现在其实已经有很多在线的llm服务了,当然也存在许多开源部署方案,但是不知道大家有没有发现一个问题,目前基于ChatGPT开发的应用,都是使用的OpenAI的接口。有什么办法解除这个限制呢?
为什么GPTCache是 AutoGPT short-term memory更好的选择
AutoGPT 是一个自主ai程序,其根据用户输入的目标,不断拆解成一个个小任务,然后不断进行执行,最终达成用户设定目标。
GPTCache:大模型时代的应用缓存
ChatGPT 和其他大语言模型,可以被广泛应用于各种开发场景中。这种情况下如何大批量处理请求,绕过LLM请求限制,降低成本呢?
🎉 GPTCache新功能介绍
GPTCache最新功能介绍,更加容易定制化LLM Cache。 为了阅读以下内容,您需要了解GPTCache的基本使用,参考: - [Readme文档](https://github.com/zi
GPTCache,LangChain,强强联合
LangChain命中缓存的条件是,必须是完全相同的两个问题,在实际使用过程,要命中缓存还是有一定难度,其缓存利用率有比较大的提升空间。GPTCache的接入,将可以很好的完善LangChain缓存模
最近频繁使用 LLM,有没有既提升性能又节省成本的办法?
想提升大型语言模型(LLM)应用的性能?用 GPTCache。 想提升 LLM 应用性能的同时降低开销?还得用 GPTCache!
GPT Cache:2 如何配置缓存存储
如何配置缓存存储,包括设置大小、存储方式、搜索等,介绍目前最基本的三种缓存管理,包括了map、标量数据库+向量索引搜索和标量数据库+向量数据库
GPT Cache:1 介绍
⚡ GPT Cache 是一个强大的缓存库,可用于加速和降低依赖 LLM 服务的聊天应用程序的成本。 而且它类似于aigc场景中的redis。
个人成就
文章被点赞
21
文章被阅读
7,896
掘力值
253
关注了
0
关注者
2
收藏集
0
关注标签
0
加入于
2020-11-17