首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
自然语言处理
黑唐僧
创建于2025-10-26
订阅专栏
自然语言处理相关笔记汇总
暂无订阅
共12篇文章
创建于2025-10-26
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
复数:从数学基础到AI应用的全面指南
复数:从数学基础到AI应用的全面指南 理解复数(Complex Number)的概念,不仅是学习数学的重要一步,它更是你深入理解现代计算机科学、信号处理乃至AI领域的一把钥匙。接下来,我会从它的基本定
ROUGE评估指标详解:文本生成任务的自动化评估利器
ROUGE评估指标详解:文本生成任务的自动化评估利器 ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一套用于自动评估文本生成任务(如
BLEU评估指标详解:机器翻译质量的自动化评估方法
BLEU评估指标详解:机器翻译质量的自动化评估方法 BLEU(Bilingual Evaluation Understudy)是一种用于评估机器翻译文本质量的自动评估指标,它通过比较机器翻译结果与人工
深入理解n-gram:从理论基础到现代应用
深入理解n-gram:从理论基础到现代应用 理解n-gram能帮你把握自然语言处理(NLP)发展的一个关键脉络。下面这份详解,我将从它的核心思想讲起,梳理其发展历程,并说明它如何深刻影响了我们今天使用
Transformer位置编码器完整笔记
Transformer位置编码器完整笔记 1. 背景介绍 1.1 为什么需要位置编码? Transformer模型使用自注意力机制,但自注意力本身是位置无关的。这意味着: "猫追狗"和"狗追猫"对模型
Transformer缩放注意力机制:为什么除以√d_k是深度学习的精妙设计?
Transformer缩放注意力机制:为什么除以√d_k是深度学习的精妙设计? 引言:从面试问题到技术洞察 作为一名技术爱好者,我曾在面试中被问到:"Transformer中Q·Kᵀ为什么要除以√d_
深度模型训练救星:Transform-LayerNorm如何让Transformer从“难以训练”到“效果惊人”?
深度模型训练救星:Transformer-LayerNorm如何让Transformer从“难以训练”到“效果惊人”?
Transformer双掩码机制解析:从原理到SOTA性能的基石
Transformer双掩码机制解析:从原理到SOTA性能的基石 在自然语言处理领域,Transformer架构无疑是一场革命。从BERT到GPT,从机器翻译到ChatGPT,几乎所有现代大语言模型都
Transformer架构:手撸源码实践(附带仓库地址)
Transformer架构:手撸源码实践 1. 引言 Transformer架构自2017年在论文《Attention Is All You Need》中被提出以来,彻底改变了自然语言处理(NLP)领
NLP-让机器理解人类语言的数学魔法
Word Embedding:让机器理解人类语言的数学魔法 前言:从符号到语义的跨越 在自然语言处理(NLP)的世界里,有一个核心挑战困扰了研究者们数十年:计算机如何才能真正"理解"文字的含义?对于人
nlp-文本转向量的三种核心技术详解:从One-Hot到Word2Vec
文本转向量的三种核心技术详解:从One-Hot到Word2Vec 在自然语言处理(NLP)领域,计算机无法直接理解人类语言的文本内容,需要将文本转换为数值向量才能进行处理。文本转向量(Text to
nlp-Jieba分词
jieba分词详解:中文自然语言处理的基础工具 在自然语言处理(NLP)领域,分词是中文文本处理的第一步也是非常关键的一步。与英文等西方语言不同,中文词语之间没有明显的分隔符,因此需要专门的分词工具来