首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
LLM
订阅
Thame
更多收藏集
微信扫码分享
微信
新浪微博
QQ
67篇文章 · 0订阅
3K star!为RAG而生的数据清洗神器
今天我们分享一个开源项目,它为微调或者RAG而生,将任何非结构化数据转换为结构化,它就是:OmniParse
node+websoket极速构建一个私有ChatGPT!AI套壳居然如此简单!
大家好,我是石小石! 随着人工智能Chatgpt的出现,各种国产的AI大模型应用而出,如豆包、文心一言、通义千问、kimi等等,同时,我们也发现有各种各样的套壳APP在割韭菜! 在这篇文章中,我将介绍
Java开发者LLM实战——使用LangChain4j构建本地RAG系统
1、引言 由于目前比较火的chatGPT是预训练模型,而训练一个大模型是需要较长时间(参数越多学习时间越长,保守估计一般是几个月,不差钱的可以多用点GPU缩短这个时间),这就导致了它所学习的知识不会是
OCR小白也能上手!Llama-OCR只需5行代码,轻松实现高质量识别!
最简单且高质量的OCR工具,它来了! 一款基于 Llama 模型实现的开源OCR:Llama-OCR。 对于经常需要将图片、收据或包含表格的 PDF 文档转换为可编辑的文本时候,这款工具就显得尤为重要
Chroma + Ollama 搭建本地RAG应用
本篇文章我们将基于Ollama本地运行大语言模型(LLM),并结合ChormaDB、Langchain来建立一个小型的基于网页内容进行本地问答的RAG应用。
接入AI后,开源项目瞬间有趣了😎
和AI对话时按下回车的那一刻,我会永远期待它带给我的结果。AI虽香,但过度依赖会影响我们独立思考的能力
LangChain.js 实战系列:搭配 LangSmith 实现调试、监控、测试
LangSmith 是 LangChain 推出的 AI 应用调试、监控和测试平台。 LangSmith 会记录大模型发起的所有请求,除了输入输出,还能看到具体的所有细节,包括: 请求的大模型、模型名
LLM大模型新手训练指南
LLM大模型新手训练指南, 本文将介绍`如何微调模型` - 即采用预先训练的模型并为其提供少量数据(通常为几 MB),以使其行为与您所想的任何任务保持一致。例如,如果您想要一个编码助手模型,您可以根据
vue - 解决 ai输出 latex格式公式 问题
思考 最近用chatGPT API的时候,涉及到输出数学函数公式这一part。 然后在进行测试的时候,发现 输出数学公式的格式是以下这样子: 然后,我测试了一下可以免费使用的星火大模型,它上面输出的数
RAG 实践- Ollama+RagFlow 部署本地知识库
前言 上一篇文章我们介绍了如何利用 Ollama+AnythingLLM 来实践 RAG ,在本地部署一个知识库。借助大模型和 RAG 技术让我可以与本地私有的知识库文件实现自然语言的交互。 本文我们