首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Marshal
掘友等级
自由职业者
程序员
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 3
沸点 1
赞
4
返回
|
搜索文章
最新
热门
Windows 11 安装 WSL 和 Docker
介绍一种 Windows 下使用 WSL 和 Docker 的方式,不使用 Docker Desktop,而是直接在 VM 中安装 Docker。
自用个人知识库的实现
介绍一种结合 Obsidian 笔记软件和大模型相关技术的个人知识库问答实现方法。 这种方法的主要好处是不用再手动维护笔记的分类和链接关系,借助模型的语义理解能力快速形成答案。
RAG 实现生成工作总结和工作任务查询功能
本文介绍了通过 RAG 实现工作总结和工作细节问题回答的方法。另外在文中也给出了生产实践中遇到的问题,以及解决问题的方向和思路。
对 RAG 概念验证阶段的性能评估实践
RAG 在概念验证阶段(POC)应该做一个性能评估,确定生成的回答是否能满足用户最基本需求。本文介绍如何在实践中运用 Ragas 实现这一评估过程。
使用大模型自然语言查询数据库
使用大模型,通过自然语言的查询语句,从数据库获取结果,是目前大模型和结构化数据交互的一种主流形式。本文介绍了了使用大模型,将自然语言生成查询结果的过程和方法,并给出初步结论。
基于 LLMPerf 对模型做负载测试
LLMPerf 可以做针对大语言模型的负载测试和正确性测试,提供了对应的命令行工具。 安装和配置 LLMPerf 比较繁琐,我封装了 Docker 镜像,方便直接使用。 下面介绍怎么使用。
基于 LlamaIndex 的嵌入和重排查询
通过JupyterLab 笔记实现代码,介绍如何实现基于 LlamaIndex 的嵌入和重排查询。尤其是在显存受限的设备上(4GB)怎么跑通程序逻辑。
在 4GB 显存下运行 LLM 基础开发环境
有 nvidia 4GB 显存的设备,就可以搭建一个用于 LLM 的基本开发环境。 比如这里使用的是 NVIDIA GeForce GTX 1650, 4GB 显存。
个人成就
文章被点赞
3
文章被阅读
8,037
掘力值
198
关注了
5
关注者
7
收藏集
1
关注标签
43
加入于
2020-10-22