首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Ai
订阅
qklin3120
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
[笔记] Cursor 全面指南:将AI融入代码编辑,免费使用 - 神级思考模型:让 AI 真正会思考 , 持续更新免费试用
本指南详细介绍了 Cursor 这款集成了先进大型语言模型(LLM)如GPT-4和Claude 3.5的代码编辑器,下载安装到日常使用的各个步骤,还深入探讨了如何通过合法途径优化和充分利用其功能。
Spring AI 支持 Mcp协议了,通过Mcp集成本地文件管理
Model Context Protocol 是Anthropic 于2024年11月重磅开源的「模型上下文协议」MCP。其是一种开放的通信协议,是人工智能领域的 “USB 接口”
大模型工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
深入对比分析SGLang、Ollama、VLLM、LLaMA.cpp等主流大模型部署工具的特点、性能和适用场景,帮助开发者和用户选择最适合的AI模型部署工具
LangChain + ChatGLM2-6B 搭建个人专属知识库
之前教过大家利用 langchain + ChatGLM-6B 实现个人专属知识库,非常简单易上手。最近,智谱 AI 研发团队又推出了 ChatGLM 系列的新模型 ChatGLM2-6B
基于 Quivr 搭建个人专属知识库
上一篇里,树先生教大家利用 ChatGLM-6B + langchain 实现个人专属知识库,实际运行下来,发现2个问题: 1、购买的 16G 显存的 GPU 云服务,在 FP16 精度下,多轮对话到
LangChain + ChatGLM 实现本地知识库问答
本文使用LangChain+ChatGLM来实现一个简单的基于本地知识库的问答系统,可以在完全不使用openai提供的api来完成本地知识库问答系统的搭建。