首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
鸿尘墨竹
更多收藏集
微信扫码分享
微信
新浪微博
QQ
14篇文章 · 0订阅
让机器“听懂人话”:多轮对话里的意图识别实战
多轮对话系统中,意图识别作为核心的流程入口节点,承担着理解用户真实需求的关键职责。多轮对话里的意图识别实战.
Git分支管理及命名规范
主要分支:Master和Develop。前者用于正式发布,后者用于日常开发。 除了常设分支以外,还有一些临时性分支,用于应对一些特定目的的版本开发。临时性分支主要有三种: 代码库有且仅有一个主分支,所有提供给用户使用的正式版本,都在这个主分支上发布。 Git默认主分支Maste…
👦抠腚男孩的AI学习之旅 | 2、玩转Prompt提示词工程
🤔 Prompt 是什么?Prompt 工程又是什么?LLM是如何工作额?你与AI关系的最佳比喻"导演 & 演员"、基础Prompt框架 (CRTF、RTF、COSTAR、SPAR)、进阶框架...
【python OCR】PaddleOCR简单demo入门
本文已参与「新人创作礼」活动,一起开启掘金创作之路。 PaddleOCR开源地址: 参考资料:快速入门PaddleOCR,并使用其开发一个搜题小工具 一、配置环境 安装依赖库:CPU版本的paddle
斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
关系抽取实现方式
关系抽取是自然语言处理领域的重要任务,本文简要概述了两种实现方式:片段网络和指针网络。片段网络通过识别文本中的关键片段来抽取关系,而指针网络则利用指针机制直接指向文本中的关系实体。
最简单的LSTM讲解,多图展示,源码实践,建议收藏
小知识,大挑战!本文正在参与“ 程序员必备小知识 本文同时参与 「掘力星计划」 ,赢取创作大礼包,挑战创作激励金 距离上一次的RNN有段时间了,一方面不想写,一方面因为其他的事情被牵扯了精力,
带你熟悉NLP预训练模型:BERT
BERT(来自Transformer的双向自编码器)预训练模型,旨在通过联合左侧和右侧的上下文,从未标记文本中预训练出一个深度双向表示模型。
现代循环神经网络7-序列到序列学习(seq2seq)
本文详解seq2seq模型,编码器压缩输入为上下文向量,解码器生成目标序列。结合代码图解,解析损失计算与BLEU评估,助你掌握机器翻译核心实现。
[深度学习]5大神经网络架构(介绍)
以下是深度学习中五大典型神经网络架构的详细解析,涵盖结构、特点、区别及应用场景,以表格对比形式呈现核心差异: 一、卷积神经网络(CNN) 核心结构: 特点: 局部感知:卷积核滑动扫描局部区域(如3×3