首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
精神状态良好
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
6
文章 6
沸点 0
赞
6
返回
|
搜索文章
最新
热门
实战:从零构建本地 Code Review 插件
第一步:安装前置依赖 在动手写代码前,先准备好必需的运行环境。 安装 Ollama:前往 Ollama 官网 下载并安装。 下载模型:打开终端,拉取一个适合代码任务的模型。这里推荐 deepseek-
Ollama 入门:本地跑通第一个大模型
1. Ollama 是什么 Ollama 可以理解为一个本地的“大模型运行环境 + 模型管理工具”。在命令行里它主要解决: 模型的下载与版本管理 模型的运行与交互 本地服务的启动 2. 安装与验证 2
解决依赖冲突overrides 和 resolutions
最近构建时又遇到版本冲突的问题了,所以记录下来。 依赖冲突的场景 解决方案一:overrides overrides 是 npm 官方在 v8.3 版本引入的字段,用于精确控制依赖版本。 解决方案二:
RAG 是什么?如何让大模型基于文档作答
RAG 是什么? RAG = 检索(Retrieval) + 生成(Generation) 检索:先从外部知识(你的文档、代码、规范)里找出与问题最相关的片段(证据)。 生成:把“问题 + 证据”交给
告别聊天式编程:引入 OpenSpec,构建结构化的 AI 开发工作流
OpenSpec 是什么?它的核心价值是什么? 简单来说,OpenSpec 是一套规格驱动 (Spec-driven) 的 AI 开发工作流。它通过引入一个轻量级的规范流程,确保在AI动手写代码之前
🚀 如何高效编写提示词:从需求到实现的实战指南
核心框架:指令-背景-约束 指令:明确任务目标 指令回答的是“你想让 AI 做什么?”,需要清晰、具体地描述任务要求。一个好的指令,通常具备以下特征: 背景:提供关键上下文 背景信息为AI提供它尚未掌
个人成就
文章被点赞
4
文章被阅读
1,118
掘力值
133
关注了
1
关注者
0
收藏集
1
关注标签
0
加入于
2018-09-30