首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
学术论文
阿里云大数据AI技术
创建于2022-08-18
订阅专栏
阿里云学术论文
暂无订阅
共20篇文章
创建于2022-08-18
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
BladeDISC++:Dynamic Shape AI 编译器下的显存优化技术
本文将介绍阿里云 PAI 团队近期发布的 BladeDISC++项目,探讨在动态场景下如何优化深度学习训练任务的显存峰值,
【NeurIPS'24】阿里云 PAI 团队论文被收录为 Spotlight,并完成主题演讲分享
近日,人工智能领域全球顶级学术会议 NeurIPS 正式召开。阿里云 PAI 团队的论文被 NeurIPS 2024 收录,并入选 Spotlight。
【EMNLP2024】基于多轮课程学习的大语言模型蒸馏算法 TAPIR
阿里云人工智能平台 PAI 与复旦大学王鹏教授团队合作,在自然语言处理顶会 EMNLP 2024 上发表论文《Distilling Instruction-following Abilities of
【EMNLP2024】面向长文本的文视频表征学习与检索模型 VideoCLIP-XL
阿里云人工智能平台 PAI 与华南理工大学金连文教授团队合作,在自然语言处理顶会 EMNLP 2024 上发表论文。
【EMNLP2024】阿里云人工智能平台 PAI 多篇论文入选 EMNLP2024
阿里云与华南理工大学金连文教授团队、复旦大学王鹏教授团队共同研发的论文入选 EMNLP2024。此次入选标志着阿里云人工智能平台 PAI 在自然语言处理和多模态算法能力方面研究获得了学术界认可。
【MM2024】阿里云 PAI 团队图像编辑算法论文入选 MM2024
《面向StableDiffusion的多目标图像编辑算法VICTORIA》论文入选MM2024,此次入选标志着阿里云人工智能平台PAI在图像编辑算法方面的研究获得了学术界的充分认可。
【KDD2024】面向集群整体作业运行变慢的异常检测
阿里云计算平台大数据基础工程技术团队主导,与浙江大学合作论文《Cluster-Wide Task Slowdown Detection in Cloud System》
【KDD2024】大数据基础工程技术集群异常检测论文入选
阿里云计算平台大数据基础工程技术团队主导,与浙江大学合作的论文《Cluster-Wide Task Slowdown Detection in Cloud System》被数据挖掘领域顶会接收
【ASPLOS2024】RECom:通过编译器技术加速推荐模型推理,论文中选并获得荣誉奖项!
2024年5月,关于推荐模型自动编译优化的论文 《RECom: A Compiler Approach to Accelerate Recommendation Model Inference wit
【ACL2024】基于动态辅助融合的大模型序列编辑
阿里云人工智能平台PAI与集团安全部内容安全算法团队、华东师范大学何晓丰教授团队合作,在自然语言处理顶级会议ACL2024上发表论文
【ACL2024】基于长尾检索知识增强的大语言模型
阿里云人工智能平台PAI与阿里集团安全部内容安全算法团队、华东师范大学何晓丰教授团队合作,在自然语言处理顶级会议ACL2024上发表论文。
【ACL2024】面向Stable Station的交互式多轮Prompt生成模型DiffChat
阿里云人工智能平台PAI与华南理工大学金连文教授团队合作,在自然语言处理顶级会议 ACL 2024 上发表论文
【ACL2024】阿里云人工智能平台PAI多篇论文入选ACL2024
阿里云人工智能平台PAI的多篇论文在ACL2024上入选。 论文成果是阿里云与阿里集团安全部、华南理工大学金连文教授团队、华东师范大学何晓丰教授团队共同研发。
算法 KECP 被顶会 EMNLP 收录,极少训练数据就能实现机器阅读理解
KECP是一种面向机器阅读理解的小样本学习算法,采用Prompt-Tuning作为基础学习范式,在仅需要标注极少训练数据的情况下,在给定文章中抽取满足要求的文本作为答案。
Span 抽取和元学习能碰撞出怎样的新火花,小样本实体识别来告诉你!
这是一种面向命名实体识别的小样本学习算法,采用两阶段的训练方法,检测文本中最有可能是命名实体的Span,并且准确判断其实体类型,在仅需要标注极少训练数据的情况下,提升预训练语言模型在命名实体识别任务上
模型精度再被提升,统一跨任务小样本学习算法 UPT 给出解法!
UPT是一种面向多种NLP任务的小样本学习算法,致力于利用多任务学习和预训练增强技术,在仅需要标注极少训练数据的情况下,提升大规模预训练语言模型在多种场景下的模型精度。
这种精度高,消耗资源少的大模型稀疏训练方法被阿里云科学家找到了!已被收录到IJCAI
论文通过减少模型稀疏训练过程中需要更新的参数量,从而减少大模型稀疏训练的时间以及资源开销,是首个大模型参数高效的稀疏训练算法PST。
被USENIX ATC收录,只需10天即可训练出10万亿超大模型的分布式训练框架EPL,在这!
高效大模型训练框架Whale(EPL)入选USENIX ATC'22,支持异构GPU集群的超大规模模型的高效的分布式训练框架Whale
【SIGIR 2022】面向长代码序列的Transformer模型优化方法,提升长代码场景性能
本文主要介绍了论文主导通过引入稀疏自注意力的方式来提高Transformer模型处理长序列的效率和性能。
【ICDE 2022】稀疏模型训练框架HybridBackend,单位成本下训练吞吐提升至5倍
近日,阿里巴巴投稿的论文《PICASSO: Unleashing the Potential of GPU-centric Training for Wide-and-deep Recommender