稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
  • 后端
  • 前端
  • Android
  • iOS
  • 人工智能
  • 开发工具
  • 代码人生
  • 阅读
  • LaRecipe模板注入漏洞(CVE-2025-53833)深度剖析:从SSTI到RCE的完整攻击链分析
    深入分析CVE-2025-53833漏洞,这是一个影响LaRecipe文档生成器(版本<2.8.1)的严重服务器端模板注入漏洞。未经身份验证的攻击者可利用该漏洞执行任意代码,窃取敏感信息如数据库凭据和
    • qife122
    • 3天前
    • 8
    • 点赞
    • 评论
    人工智能 AIGC
  • Gemini安全防御:对抗指令注入攻击
    本文阐述了某机构在保护Gemini模型免受间接提示注入攻击方面的技术策略。文章详细介绍了自动化红队测试、模型加固等安全技术,通过多层防御体系显著提升了模型对抗恶意指令的能力,确保AI代理的安全可靠。
    • 用户576110558132
    • 3天前
    • 8
    • 点赞
    • 评论
    人工智能 AIGC
  • 告别手写公式的烦恼
    告别手写公式的烦恼 数学公式的数字化困境 记得大学时整理数学笔记,最头疼的就是那些复杂的手写公式。想要把它们变成电子版,要么一个字一个字地敲LaTeX代码,要么用鼠标在公式编辑器里艰难地点选。直到发现
    • 刘淑芬1111
    • 3天前
    • 8
    • 点赞
    • 评论
    前端
    告别手写公式的烦恼
  • openFuyao 社区 2025 年度报告,致谢所有同行者!
    自 2025 年 5 月宣布开源以来,openFuyao 社区已汇聚 30 家成员单位、300 多名开发者、成立 16 个 SIG,围绕多样化算力集群生产场景,探索算力极致释放新路径。
    • openFuyao
    • 3天前
    • 10
    • 点赞
    • 评论
    LLM
    openFuyao 社区 2025 年度报告,致谢所有同行者!
  • Deepseek技术深挖:Multi-head Latent Attention (MLA) 全解析
    一、 技术背景:KV Cache 的“维度灾难” 在标准 Transformer 或 GQA 架构中,随着上下文长度和模型维度的增加,KV Cache 成为系统的头号性能杀手: 显存占用量 (VRAM
    • 树獭叔叔
    • 3天前
    • 14
    • 1
    • 评论
    后端 AIGC
  • NVIDIA免费API的申请与配置
    前言 小伙伴们大家好,我是小溪,见字如面。今天记录一下申请英伟达免费API的流程,希望对有需要的小伙伴有所帮助。对其他免费API内容感兴趣的小伙伴可以看往期内容: 智谱清言提供的免费模型及工具推荐 限
    • 小溪彼岸
    • 3天前
    • 215
    • 点赞
    • 评论
    NVIDIA
    NVIDIA免费API的申请与配置
  • 2026数字助理时代真的要来临了——直接自然语言操作AI助理,马斯克预言真的来了
    今天年前最后一天班,马上下班了,让AI看看还有没有回老家的火车票。结果AI还真的自己打开浏览器,打开12306页面,自己搜索。神奇了。2026数字助理时代真的要来临了。 后台真的自动打开浏览器去处理了
    • 用户02173273393
    • 3天前
    • 13
    • 点赞
    • 评论
    程序员
  • 一天一个开源项目(第22篇):nanochat - 百元级「最好的 ChatGPT」,Karpathy 的极简 LLM 训练套件
    深入解读 nanochat,Andrej Karpathy 打造的极简 LLM 实验套件,用单一复杂度旋钮(depth)在单机多卡上完成 tokenization、预训练、微调、评估与聊天 UI
    • 冬奇Lab
    • 3天前
    • 57
    • 点赞
    • 评论
    人工智能 GPT ChatGPT
    一天一个开源项目(第22篇):nanochat - 百元级「最好的 ChatGPT」,Karpathy 的极简 LLM 训练套件
  • Transform 注意力机制:多头注意力、KV Cache、PagedAttention、FlashAttention
    一、 注意力机制:多维语义的并行构建 注意力机制是 Transformer 的灵魂,其核心任务是在海量序列中实现高价值特征的选择性聚合。 1.1 核心公式与参数定义 $$\text{Attention
    • 树獭叔叔
    • 3天前
    • 9
    • 点赞
    • 评论
    后端 OpenAI
  • 我的本地知识库探索之旅:安全与高效并存
    我的本地知识库探索之旅:安全与高效并存 初识本地知识库 作为一名经常需要处理大量文档的职场人,我一直在寻找一种既能快速查找文件内容,又能保护数据隐私的解决方案。直到最近,我接触到了本地知识库这个概念。
    • 用户040350271558
    • 3天前
    • 7
    • 点赞
    • 评论
    前端
    我的本地知识库探索之旅:安全与高效并存
  • 高压电线电力巡检六类目标的图像识别数据集分享(适用于目标检测任务)
    高压电线电力巡检六类目标的图像识别数据集分享(适用于目标检测任务) 数据集分享 如需下载该数据集,可通过以下方式获取: 网盘链接: https://pan.baidu.com/s/1rNbncL8NW
    • CodeJourney
    • 3天前
    • 10
    • 点赞
    • 评论
    后端
  • AI 共舞,还是被“注意力刺客”偷袭?——程序员的数字专注力守护指南
    AI 共舞,还是被“注意力刺客”偷袭?——程序员的数字专注力守护指南 引言 “帮我生成一个 RecyclerView 的 ViewHolder 样板代码。” 作为一名安卓工程师,这或许是你我再熟悉不过
    • 滑板上的老砒霜
    • 3天前
    • 215
    • 2
    • 1
    AI编程 Android 客户端
    AI 共舞,还是被“注意力刺客”偷袭?——程序员的数字专注力守护指南
  • Gemini客户端 vs 网页版:这3个优势让我果断换了
    Gemini客户端 vs 网页版:这3个优势让我果断换了 Gemini客户端出了一周,我一直在用。 今天对比一下客户端和网页版,看看到底哪个更好用。 我为什么换客户端 先说说我的使用场景。 我是一个A
    • Maynor在掘金
    • 3天前
    • 20
    • 点赞
    • 评论
    人工智能
  • 高质量大模型数据集
    一、引言 在大模型微调的全流程中,数据集是决定模型效果的核心要素,如同汽车的燃料 —— 优质燃料能让汽车高效运行,高质量数据集能让模型精准适配任务;反之,劣质燃料会导致汽车故障,低质量数据集会让模型性
    • 小刘的大模型笔记
    • 3天前
    • 6
    • 点赞
    • 评论
    前端
  • LoRA微调技术:高效定制化
    引言 在大模型微调技术中,LoRA(Low-Rank Adaptation,低秩适配)  是目前最受欢迎的参数高效微调方法。它解决了全参数微调算力成本高、容易导致灾难性遗忘的问题,让普通开发者也能借助
    • 小刘的大模型笔记
    • 3天前
    • 5
    • 点赞
    • 评论
    前端
  • 热榜全是 GLM-5 封神,我拿真实项目跑了一圈,结果有点意外
    今天刷掘金,GLM-5 直接霸榜了。#5、#22、#37 全是它,标题一个比一个猛: "测完 GLM-5 我沉默了" "GLM-5 真够顶的:超 24 小时自己跑代码" "爆肝 2 天,用 GLM-5
    • ofox
    • 3天前
    • 27
    • 点赞
    • 评论
    AI编程 LLM
  • 大数据原理实践
    引言 在大模型微调的实践中,很多开发者都会遇到这样的问题:为每个任务单独训练一个模型,不仅耗时耗力,而且模型的泛化能力很差——换一个类似的任务,模型就“失灵”了。有没有一种方法,能让一个模型同时掌握多
    • 小刘的大模型笔记
    • 3天前
    • 9
    • 点赞
    • 评论
    前端
  • POP原理落地到实际微调
    作为AI博主,经常有读者问我:“懂了PPO原理,怎么落地到实际微调中?” 其实大模型微调的核心价值,从来都不在“纸上谈兵”的理论理解,而在亲手操盘的实战落地。PPO(近端策略优化)作为RLHF(人类反
    • 小刘的大模型笔记
    • 3天前
    • 9
    • 点赞
    • 评论
    前端
  • RAG技术实战
    引言 检索增强生成,也就是大家常说的RAG,早已不是停留在论文里的技术概念,而是实实在在走进了各行各业的AI应用核心。它最核心的价值,就是解决通用大模型的两大痛点:[知识滞后](https://zhi
    • 小刘的大模型笔记
    • 3天前
    • 11
    • 点赞
    • 评论
    前端
  • LLM嵌入K-Means、DBSCAN聚类、PCA主成分分析新闻文本聚类研究|附代码数据
    全文链接:https://tecdat.cn/?p=44991 原文出处:拓端数据部落公众号 文本智能分析实战:从嵌入到聚类的全流程解析 在信息爆炸的当下,如何高效处理海量无标注文本数据并按主题归类,
    • 拓端tecdat
    • 3天前
    • 8
    • 点赞
    • 评论
    算法
  • 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30