首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
LaRecipe模板注入漏洞(CVE-2025-53833)深度剖析:从SSTI到RCE的完整攻击链分析
深入分析CVE-2025-53833漏洞,这是一个影响LaRecipe文档生成器(版本<2.8.1)的严重服务器端模板注入漏洞。未经身份验证的攻击者可利用该漏洞执行任意代码,窃取敏感信息如数据库凭据和
Gemini安全防御:对抗指令注入攻击
本文阐述了某机构在保护Gemini模型免受间接提示注入攻击方面的技术策略。文章详细介绍了自动化红队测试、模型加固等安全技术,通过多层防御体系显著提升了模型对抗恶意指令的能力,确保AI代理的安全可靠。
告别手写公式的烦恼
告别手写公式的烦恼 数学公式的数字化困境 记得大学时整理数学笔记,最头疼的就是那些复杂的手写公式。想要把它们变成电子版,要么一个字一个字地敲LaTeX代码,要么用鼠标在公式编辑器里艰难地点选。直到发现
openFuyao 社区 2025 年度报告,致谢所有同行者!
自 2025 年 5 月宣布开源以来,openFuyao 社区已汇聚 30 家成员单位、300 多名开发者、成立 16 个 SIG,围绕多样化算力集群生产场景,探索算力极致释放新路径。
Deepseek技术深挖:Multi-head Latent Attention (MLA) 全解析
一、 技术背景:KV Cache 的“维度灾难” 在标准 Transformer 或 GQA 架构中,随着上下文长度和模型维度的增加,KV Cache 成为系统的头号性能杀手: 显存占用量 (VRAM
NVIDIA免费API的申请与配置
前言 小伙伴们大家好,我是小溪,见字如面。今天记录一下申请英伟达免费API的流程,希望对有需要的小伙伴有所帮助。对其他免费API内容感兴趣的小伙伴可以看往期内容: 智谱清言提供的免费模型及工具推荐 限
2026数字助理时代真的要来临了——直接自然语言操作AI助理,马斯克预言真的来了
今天年前最后一天班,马上下班了,让AI看看还有没有回老家的火车票。结果AI还真的自己打开浏览器,打开12306页面,自己搜索。神奇了。2026数字助理时代真的要来临了。 后台真的自动打开浏览器去处理了
一天一个开源项目(第22篇):nanochat - 百元级「最好的 ChatGPT」,Karpathy 的极简 LLM 训练套件
深入解读 nanochat,Andrej Karpathy 打造的极简 LLM 实验套件,用单一复杂度旋钮(depth)在单机多卡上完成 tokenization、预训练、微调、评估与聊天 UI
Transform 注意力机制:多头注意力、KV Cache、PagedAttention、FlashAttention
一、 注意力机制:多维语义的并行构建 注意力机制是 Transformer 的灵魂,其核心任务是在海量序列中实现高价值特征的选择性聚合。 1.1 核心公式与参数定义 $$\text{Attention
我的本地知识库探索之旅:安全与高效并存
我的本地知识库探索之旅:安全与高效并存 初识本地知识库 作为一名经常需要处理大量文档的职场人,我一直在寻找一种既能快速查找文件内容,又能保护数据隐私的解决方案。直到最近,我接触到了本地知识库这个概念。
高压电线电力巡检六类目标的图像识别数据集分享(适用于目标检测任务)
高压电线电力巡检六类目标的图像识别数据集分享(适用于目标检测任务) 数据集分享 如需下载该数据集,可通过以下方式获取: 网盘链接: https://pan.baidu.com/s/1rNbncL8NW
AI 共舞,还是被“注意力刺客”偷袭?——程序员的数字专注力守护指南
AI 共舞,还是被“注意力刺客”偷袭?——程序员的数字专注力守护指南 引言 “帮我生成一个 RecyclerView 的 ViewHolder 样板代码。” 作为一名安卓工程师,这或许是你我再熟悉不过
Gemini客户端 vs 网页版:这3个优势让我果断换了
Gemini客户端 vs 网页版:这3个优势让我果断换了 Gemini客户端出了一周,我一直在用。 今天对比一下客户端和网页版,看看到底哪个更好用。 我为什么换客户端 先说说我的使用场景。 我是一个A
高质量大模型数据集
一、引言 在大模型微调的全流程中,数据集是决定模型效果的核心要素,如同汽车的燃料 —— 优质燃料能让汽车高效运行,高质量数据集能让模型精准适配任务;反之,劣质燃料会导致汽车故障,低质量数据集会让模型性
LoRA微调技术:高效定制化
引言 在大模型微调技术中,LoRA(Low-Rank Adaptation,低秩适配) 是目前最受欢迎的参数高效微调方法。它解决了全参数微调算力成本高、容易导致灾难性遗忘的问题,让普通开发者也能借助
热榜全是 GLM-5 封神,我拿真实项目跑了一圈,结果有点意外
今天刷掘金,GLM-5 直接霸榜了。#5、#22、#37 全是它,标题一个比一个猛: "测完 GLM-5 我沉默了" "GLM-5 真够顶的:超 24 小时自己跑代码" "爆肝 2 天,用 GLM-5
大数据原理实践
引言 在大模型微调的实践中,很多开发者都会遇到这样的问题:为每个任务单独训练一个模型,不仅耗时耗力,而且模型的泛化能力很差——换一个类似的任务,模型就“失灵”了。有没有一种方法,能让一个模型同时掌握多
POP原理落地到实际微调
作为AI博主,经常有读者问我:“懂了PPO原理,怎么落地到实际微调中?” 其实大模型微调的核心价值,从来都不在“纸上谈兵”的理论理解,而在亲手操盘的实战落地。PPO(近端策略优化)作为RLHF(人类反
RAG技术实战
引言 检索增强生成,也就是大家常说的RAG,早已不是停留在论文里的技术概念,而是实实在在走进了各行各业的AI应用核心。它最核心的价值,就是解决通用大模型的两大痛点:[知识滞后](https://zhi
LLM嵌入K-Means、DBSCAN聚类、PCA主成分分析新闻文本聚类研究|附代码数据
全文链接:https://tecdat.cn/?p=44991 原文出处:拓端数据部落公众号 文本智能分析实战:从嵌入到聚类的全流程解析 在信息爆炸的当下,如何高效处理海量无标注文本数据并按主题归类,
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30