首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习
订阅
yanyuyao
更多收藏集
微信扫码分享
微信
新浪微博
QQ
111篇文章 · 0订阅
解密“混合专家模型” (MoE) 的全部魔法
解密“混合专家模型” (MoE) 的全部魔法 在当今大语言模型 (LLM) 的竞赛中,您一定听说过 GPT-4、Mixtral 8x7B 这样的“巨无霸”。它们之所以能在保持惊人性能的同时实现高效推理
突破跨模态识别瓶颈!火箭军工程大学提出MFENet:让AI在白天黑夜都能准确识人
想象这样一个安防场景:白天,监控摄像头(可见光模式)清晰地捕捉到一个人的影像;到了夜晚,摄像头自动切换到红外模式,画面变成了基于热辐射的黑白图像。对于人类来说,我们很容易判断这是同一个人,但对于AI系
30亿参数逆袭!MonkeyOCR-3B如何革新文档解析?
在AI的世界里,大模型似乎成了唯一的衡量标准。参数量动辄千亿万亿,显存需求高得让人望而却步,仿佛不烧钱就玩不转高性能AI。然而,最近OCR领域的一颗新星——MonkeyOCR-3B
基于U-Net与EfficientNet的衣物智能分割
基于U-Net与EfficientNet的衣物智能分割 如何让机器像人一样精准地识别和分割图像中的服装?这是许多技术领域和行业正在追寻的目标。 本项目使用深度学习技术,从图像中准确提取人物的服装区域,
全网最详细各种 LLM 资源:学习资源、常用工具、数据论文及其他(持续更新中~)
数据 Data 此处命名为数据,但这里并没有提供具体数据集,而是提供了处理获取大规模数据的方法 我们始终秉持授人以鱼不如授人以渔
图像中的 Transformer:ViT 与 Swin 的原理和对比
图像中的 Transformer:ViT 与 Swin 的原理和对比 前言 Transformer 最初是为自然语言处理(NLP)设计的,代表作如 BERT 和 GPT 系列。但这个经典模型架构其实也
LLM为什么都是decoder-only架构,而不是encoder-only
今天在知乎上面看到了一位高赞网友的面试经历: 想和大家分享一下,下面是他的阐述: 面试官:“为什么现在的大模型大都是decoder-only架构?" 懵逼的我TAT:“呃呃,和encoder-only
AI大模型开发实战指南:从多模态到情感计算(附完整实战代码)
1.多模态机器学习与典型任务 2.跨模态预训练 3.Language-Audio/Vision-Audio /Vision-Language 4.定位相关任务
集成学习双雄:Boosting和Bagging简介
在机器学习的世界里,集成学习(Ensemble Learning)是一种强大的技术,它通过组合多个模型来提高预测性能。 集成学习通过组合多个基学习器的预测结果,获得比单一模型更优秀的性能。其核心思想是
深度学习特征融合策略梳理与指南
说到深度学习的特征融合,最近在做一个分割项目,在特征融合方面踩了不少坑,想和大家详细分享一下我的经验和理解。