首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
鸿尘墨竹
更多收藏集
微信扫码分享
微信
新浪微博
QQ
11篇文章 · 0订阅
【python OCR】PaddleOCR简单demo入门
本文已参与「新人创作礼」活动,一起开启掘金创作之路。 PaddleOCR开源地址: 参考资料:快速入门PaddleOCR,并使用其开发一个搜题小工具 一、配置环境 安装依赖库:CPU版本的paddle
斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
关系抽取实现方式
关系抽取是自然语言处理领域的重要任务,本文简要概述了两种实现方式:片段网络和指针网络。片段网络通过识别文本中的关键片段来抽取关系,而指针网络则利用指针机制直接指向文本中的关系实体。
最简单的LSTM讲解,多图展示,源码实践,建议收藏
小知识,大挑战!本文正在参与“ 程序员必备小知识 本文同时参与 「掘力星计划」 ,赢取创作大礼包,挑战创作激励金 距离上一次的RNN有段时间了,一方面不想写,一方面因为其他的事情被牵扯了精力,
带你熟悉NLP预训练模型:BERT
BERT(来自Transformer的双向自编码器)预训练模型,旨在通过联合左侧和右侧的上下文,从未标记文本中预训练出一个深度双向表示模型。
现代循环神经网络7-序列到序列学习(seq2seq)
本文详解seq2seq模型,编码器压缩输入为上下文向量,解码器生成目标序列。结合代码图解,解析损失计算与BLEU评估,助你掌握机器翻译核心实现。
[深度学习]5大神经网络架构(介绍)
以下是深度学习中五大典型神经网络架构的详细解析,涵盖结构、特点、区别及应用场景,以表格对比形式呈现核心差异: 一、卷积神经网络(CNN) 核心结构: 特点: 局部感知:卷积核滑动扫描局部区域(如3×3
Transformer模型-1-概述、核心部件及应用场景
Transformer概述 什么是Transformer Transformer模型是由谷歌公司提出的一种基于自注意力机制的神经网络模型,用于处理序列数据。相比于传统的循环神经网络模型,Transfo
Transformer模型详解-学习提纲
Transformer模型详解-1-概述 Transformer模型详解-2-整体架构 Transformer模型详解-3-输入模块 - 建设中 Transformer模型详解-4-多头注意力机制与自
阿里也出手了!灵码AI IDE问世
各位程序员小伙伴们,是不是还在为写代码头秃?别担心,阿里云带着它的通义灵码 AI IDE 来拯救你啦!