首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习与人工智能
订阅
thewayma123
更多收藏集
微信扫码分享
微信
新浪微博
QQ
27篇文章 · 0订阅
10 分钟搞定神经网络
本文简单介绍了神经网络的基本原理、组成和基础算法,并通过示例介绍了最简单的神经网络是如何工作的。原文:Learn How Neural Networks Work
一文讲清Transformer工作原理,36张图解 Transformer
01 整体视角 我们先从高层角度看一下这个模型,把它当作一个黑盒来看。在机器翻译的应用中,它接收一段源语言的句子,输出目标语言的翻译结果。 如果我们“打开”这个像擎天柱一样强大的结构,会看到里面主要包
《Attention is all you need》通俗解读,彻底理解版:注意力机制的运算
这是《Attention Is All You Need》通俗解读的第3篇,前文见这里: 《Attention is all you need》通俗解读,彻底理解版:part1 《Attention
从零开始构建大型语言模型——实现注意力机制
本章内容: 使用注意力机制的原因 基本的自注意力框架,逐步深入到增强的自注意力机制 允许LLMs逐个生成词元的因果注意力模块 通过dropout随机屏蔽部分注意力权重以减少过拟合 将多个因果注意力模块
浅谈Attention与Self-Attention,一起感受注意力之美
本文已参与「新人创作礼」活动,一起开启掘金创作之路。 浅谈Attention与Self-Attention的前世今生 前言 2017年的某一天,Google 机器翻译团队发表了《Attentio
🚀从零构建AI智能体:九大核心技术拆解与落地建议
今天我们来系统梳理AI智能体架构设计的九大核心技术,这些技术构成了现代AI应用开发的核心框架,涵盖从基础推理到多智能体协作、从数据处理到人机交互的关键层面。欢迎各位指正交流。 一、AI 智能体(AI
什么是监督学习?
监督学习是一种机器学习方法,模型通过带标签的数据进行学习。这意味着每个数据点都包括: 输入(特征) :用于进行预测的信息(例如,电子邮件的文本)。 输出(标签) :模型旨在预测的正确答案(例如,“垃圾
《深入浅出LLM 》(二):大模型基础知识
本作者推出全新系列《深入浅出LLM》专栏,将分为基础篇、进阶篇、实战篇等,将分别从各个大模型模型的概念、经典模型、创新点、微调、分布式训练、数据集、未来发展方向、RAG、Agent及项目实战等展开介绍
何谓 DeepSeek “蒸馏”?
可以说 DeepSeek通过“大模型强化学习+小模型蒸馏”的技术路径,不仅能与OpenAI的正面竞争,更提供了一个新的大模型研发思路。本篇一起来深入了解一下:何谓 DeepSeek “蒸馏”?
一文了解 DeepSeek R1 模型:AI 推理领域的革命性突破
网址:DeepSeek 官方网站 2025 年 1 月 20 日,DeepSeek 发布了全新的开源推理大模型 DeepSeek-R1。 这一模型在数学、编程和推理等多个任务上达到了与 OpenAI