首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
大佬做AI漫画日入400+,普通人做 AI 漫画日入几何?
前言 最近刷到一篇文章,把我给整不会了。 标题很简单,但杀伤力极强: 👉 AI 做公众号漫画,竟然日入 400+ 准确来说是 443.89。 不是 4.43, 也不是 44.39, 是 443.89。
手搓本地 RAG:我用 Python 和 Spring Boot 给 AI 装上了“实时代码监控”
最近 DeepSeek 很火,API 便宜又好用。但接入项目后我发现一个痛点:它不懂我的私有代码。每次问业务逻辑,它只能瞎编。微调模型太贵且麻烦,于是我决定用最朴素的技术栈——Python Watch
每位漏洞赏金猎人必备的十大顶级工具解析
本文深入介绍了漏洞赏金猎人在实战中必须掌握的十大核心工具,包括Nikto等工具的功能、使用场景与具体操作命令,旨在帮助安全研究者高效地进行侦察、扫描与漏洞利用。
26届计算机毕设选题 基于Python机器学习与ECharts可视化技术的月季花电商数据挖掘及销量预测系统 基于ECharts动态图表与随机森林模型的月季产业数
26届计算机毕设选题 基于Python机器学习与ECharts可视化技术的月季花电商数据挖掘及销量预测系统 基于ECharts动态图表与随机森林模型的月季产业数
opencode 安装 -> 使用
opencode 安装 -> 使用 OpenCode 是一款开源 AI 编程工具 https://github.com/anomalyco/opencode 安装 需要先安装node.js,推荐nod
🛠️_开发效率与运行性能的平衡艺术[20260207143147]
作为一名经历过无数项目开发的工程师,我深知开发效率与运行性能之间的平衡是多么重要。在快节奏的互联网行业,我们既需要快速交付功能,又需要保证系统性能。今天我要分享的是如何在开发效率和运行性能之间找到最佳
文明成果
我不是自夸 以我的脑子加上持续学习知识积累 未来的知识科普将是全人类的文明成果 如果我需要名利 赋予名声 如果有后代的话 那我的后代不用活了 永远都在想如何超越我 其实名望是非常不利后代发展 所以祭司
做了个 macOS 菜单栏 AI 启动器,⌥Space 一键直达 ChatGPT / Claude / Gemini
为什么做这个 每天写代码要切好几个 AI 用——Claude 问架构、ChatGPT 查 API、Gemini 翻译文档。每次都是:切浏览器 → 找标签页 → 复制问题 → 粘贴 → 等待。一天下来这
无敌大胖猫的每日接纳成功日记 之 放下 0207
我并不需要严肃对待学习。我不需要对有用的东西保持严肃。我不需要开始学习了,就板起脸来。这不是我。这是我眼中的上课的老师。我不需要对开始学习这件事切换态度,切换风格,切换面具。
Claude Opus 4.6 模型新特性(2026年2月5日发布)
核心能力提升 编码能力大幅增强:计划更周密,agentic 任务持续时间更长,在大型代码库中运行更稳定,代码审查和 debug 能力更强,能更好地发现自己的错误。 1M token 上下文窗口(Bet
OSI参考模型&&TCP/IP模型
OSI参考模型&&TCP/IP模型 在计算机网络领域,OSI 参考模型与 TCP/IP 模型是两个至关重要的概念。它们为网络通信提供了标准的框架和协议,使得全球范围内的计算机能够进行开放式通信。本文将
RAG效果好不好,全看这一步做没做对
为什么文档切分如此重要 检索增强生成(RAG)技术在过去一年中获得了广泛的关注和应用。RAG的核心思想是在模型生成答案之前,先从知识库中检索相关的信息,然后将检索到的信息作为上下文提供给模型,从而提高
切分粒度,如何影响 TopK 的风险分布
很多 RAG 系统的问题,早在 TopK 之前就注定了 在 RAG 系统里,TopK 往往被当成一个“显眼参数”: K 设小了 → 召回不够 K 设大了 → 模型胡说 于是大家花大量时间在调: T
向量数据库到底香不香?这篇选型指南帮你不再踩坑
向量数据库的核心优势 向量数据库之所以在近年来获得如此广泛的关注,源于其在特定场景下展现出的独特优势。这些优势使得向量数据库成为构建AI应用不可或缺的底层组件。 语义理解能力是向量数据库最显著的优势。
大模型 Temperature=0为什么输出不同结果
我们知道,大模型接口参数中,temperatue 是控制温度的,按理说,当temperature = 0时,温度最低,每次都取概率最大的那个,输出应保持一致。但在实际时,这种情况很少发生,每次输出还是
拒绝"炼丹"玄学:一文读懂 LoRA、P-Tuning 与全量微调的核心差异
当微调术语成为学习的第一道门槛 "师兄,我想做一下模型微调,LoRA 和 P-Tuning 哪个效果好啊?" "这个要看你的数据量和任务类型。不过你先告诉我,Full Fine-tuning 和 Lo
拒绝玄学炼丹:大模型微调显存需求精确计算指南,全参数微调与LoRA对比全解析
显存计算为什么是一门玄学 "我的模型7B参数,24GB显存够不够?" "LoRA训练需要多少显存?" "QLoRA真的能让我用消费级显卡跑起来吗?" 这些问题在大模型开发的社区中每天都会出现,但答案往
16个AI两周手搓编译器:Claude Opus 4.6 正在改写代码规则
甚至不需要我多说什么,Anthropic 这次扔出来的“深水炸弹”——Claude Opus 4.6,光是这一个案例就足以让整个技术圈炸锅: 16个智能体,没有任何人类插手,花了大概两万美金,两周时间
别再二选一了:高手都在用的微调+RAG混合策略,今天一次讲透
"我们公司有大堆内部文档,想用大模型来做智能问答。有人说该用RAG,有人说该微调,我到底该听谁的?" 这个问题,在大模型应用的社区中几乎是每天都会出现的热门议题。支持RAG的人说:"知识库可以实时更新
你的大模型微调对了吗?科学评估让训练效果肉眼可见
在人工智能领域,大模型微调已经成为企业级应用和学术研究的标配技术。然而,一个困扰着无数开发者和研究人员的核心问题是:如何判断微调是否真正有效?训练 loss 下降了,是否意味着模型真的变好了?答案远没
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30