首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
黑唐僧
掘友等级
人工智能相关公司
目标导向。愿为目标付出非凡代价
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
24
文章 23
沸点 1
赞
24
返回
|
搜索文章
最新
热门
复数:从数学基础到AI应用的全面指南
复数:从数学基础到AI应用的全面指南 理解复数(Complex Number)的概念,不仅是学习数学的重要一步,它更是你深入理解现代计算机科学、信号处理乃至AI领域的一把钥匙。接下来,我会从它的基本定
ROUGE评估指标详解:文本生成任务的自动化评估利器
ROUGE评估指标详解:文本生成任务的自动化评估利器 ROUGE(Recall-Oriented Understudy for Gisting Evaluation)是一套用于自动评估文本生成任务(如
BLEU评估指标详解:机器翻译质量的自动化评估方法
BLEU评估指标详解:机器翻译质量的自动化评估方法 BLEU(Bilingual Evaluation Understudy)是一种用于评估机器翻译文本质量的自动评估指标,它通过比较机器翻译结果与人工
深入理解n-gram:从理论基础到现代应用
深入理解n-gram:从理论基础到现代应用 理解n-gram能帮你把握自然语言处理(NLP)发展的一个关键脉络。下面这份详解,我将从它的核心思想讲起,梳理其发展历程,并说明它如何深刻影响了我们今天使用
大语言模型的涌现能力:从量变到质变的AI革命
引言 大语言模型的"涌现能力"是AI领域一个令人着迷的现象。简单来说,它指的是当模型的参数规模、数据量或计算量超过某个临界值时,其性能会突然出现质的飞跃,获得在更小规模模型中所不具备的新能力,比如复杂
Transformer位置编码器完整笔记
Transformer位置编码器完整笔记 1. 背景介绍 1.1 为什么需要位置编码? Transformer模型使用自注意力机制,但自注意力本身是位置无关的。这意味着: "猫追狗"和"狗追猫"对模型
Transformer缩放注意力机制:为什么除以√d_k是深度学习的精妙设计?
Transformer缩放注意力机制:为什么除以√d_k是深度学习的精妙设计? 引言:从面试问题到技术洞察 作为一名技术爱好者,我曾在面试中被问到:"Transformer中Q·Kᵀ为什么要除以√d_
深度模型训练救星:Transform-LayerNorm如何让Transformer从“难以训练”到“效果惊人”?
深度模型训练救星:Transformer-LayerNorm如何让Transformer从“难以训练”到“效果惊人”?
Transformer双掩码机制解析:从原理到SOTA性能的基石
Transformer双掩码机制解析:从原理到SOTA性能的基石 在自然语言处理领域,Transformer架构无疑是一场革命。从BERT到GPT,从机器翻译到ChatGPT,几乎所有现代大语言模型都
Transformer架构:手撸源码实践(附带仓库地址)
Transformer架构:手撸源码实践 1. 引言 Transformer架构自2017年在论文《Attention Is All You Need》中被提出以来,彻底改变了自然语言处理(NLP)领
下一页
个人成就
文章被点赞
17
文章被阅读
6,676
掘力值
307
关注了
50
关注者
16
收藏集
19
关注标签
1
加入于
2021-04-20