刷题神器!把LeetCode题目生成卡片;苏黎世联邦理工『数据科学数学基础』课程;深度学习实例锦囊(含代码) ;前沿论文 | ShowMeAI资讯日报

4,743 阅读8分钟

我报名参加金石计划1期挑战——瓜分10万奖池,这是我的第30篇文章,点击查看活动详情

👀日报合辑 | 📆电子月刊 | 🔔公众号下载资料 | 🍩@韩信子

工具&框架

🚧 『S3PRL』自监督语音预训练和表征学习工具包

github.com/s3prl/s3prl

s3prl.github.io/s3prl/

s3prl是一个语音开源工具包,它的名字来自于Self-Supervised Speech Pre-training and Representation Learning的缩写。这个工具库构建好了自监督的语音预训练模型这个上游任务,可以迁移应用于各种下游任务。

🚧 『giget』Git库命令行下载工具

github.com/unjs/giget

giget 是一个 git 库命令行下载工具,具备如下特性:

  • 支持流行的各种git平台(GitHub、GitLab、Bitbucket、Sourcehut)开箱即用
  • 内置和自定义模板注册表
  • 使用tarball gzip快速下载,无需依赖本地git和tar
  • 支持磁盘缓存的在线和离线工作
  • 支持使用子目录下载
  • 支持下载私人模板的授权

🚧 『Leetcode Anki card generator』把LeetCode题目生成卡片的刷题神器

github.com/prius/leetc…

刷题神器,通过运行这个项目的脚本,可以自动生成带有所有leetcode问题的 Anki 卡片,方便刷题和学习。

🚧 『redframes』用于机器学习和可视化的数据操纵库

github.com/maxhumber/r…

redframes(rectangular data frames)是一个用于机器学习和可视化的数据操作工具库。它与pandas完全互通,与scikit-learn兼容,并且兼容matplotlib工具库。

redframes有着非常精简的语法,让大家专注于核心工作而无需一直查看工具库使用方法。

🚧 『PyPOTS』用于对部分观测时间序列进行数据挖掘 Python 工具箱/库

github.com/WenjieDu/Py…

PyPOTS 是一个用于时间序列数据挖掘的 Python 工具库,支持对具有缺失值的不完整多变量时间序列进行预测/计算/分类/聚类的任务。

博文&分享

👍 『Mathematics of Data Science』ETH Zurich · 数据科学数学基础 · 课程课件下载

people.math.ethz.ch/~abandeira/

pdf下载:people.math.ethz.ch/~abandeira/…

  • Notes on this Draft and Current Status / 草稿与现状说明
  • Curses in High Dimensions / 维数灾难
  • Singular Value Decomposition and Principal Component Analysis / 奇异值分解和主成分分析
  • Graphs, Networks, and Clustering / 图、网络和聚类
  • Nonlinear Dimension Reduction and Diffusion Maps / 非线性降维和扩散映射
  • Concentration of Measure and Matrix Inequalities / 度量集中和矩阵不等式
  • Max Cut, Lifting, and Approximation Algorithms / 最大切割、提升和逼近算法
  • Community Detection and the Power of Convex Relaxations / 社团检测和凸松弛
  • Linear Dimension Reduction via Random Projections / 随机投影的线性降维
  • Compressive Sensing and Sparsity / 压缩感知和稀疏性

👍 『Self-Supervised Representation Learning for Speech Processing』(Interspeech 2022 Tutorial)面向语音处理的自监督表示学习

docs.google.com/presentatio…

教程包含以下主题:

  • Historical Context of Representation Learning / 表征学习的历史背景
  • Speech Representation Learning Paradigms / 语音表示学习范式
  • Multi-modal SSL / 多模式 SSL
  • Benchmarks for Self-Supervised Learning Approaches / 自我监督学习方法的基准
  • Analysis of Self-Supervised Representations / 自我监督表示的分析
  • From Representation Learning to Zero Resources / 从表征学习到零资源
  • Topics beyond Accuracy / 超越准确性的主题
  • Toolkits for Self-Supervised Speech Representation Learning / 自我监督语音表征学习工具包

数据&资源

🔥 『Deep Learning Examples』深度学习实例集

github.com/LambdaLabsM…

集合收集了几个不错的深度学习实例,包含比较完整的项目说明和代码。

  • Finetune Stable Diffusion text-to-image model / Stable Diffusion文本生成图像模型的微调
  • YoloV5 - object detection example using YoloV5 / Yolov5:使用 Yolov5 的目标检测示例
  • GPTNeoX - Large Language Model Multi-Node Distributed Training / GPTNEOX:大语言模型多节点分布式训练
  • Experiment Tracking / 实验跟踪
  • PyTorch DDP - Multi node training with PyTorch DDP, torch.distributed.launch, torchrun and mpirun / Pytorch DDP:使用Pytorch DDP、Torch.distributed.Launch、Torchrun和Mpirun进行多节点训练

研究&论文

公众号后台回复关键字 日报,免费获取整理好的论文合辑。

科研进展

  • 2022.09.06 『图像生成』 A Survey on Generative Diffusion Model
  • 2022.09.14 『对比学习』 SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding
  • 2022.09.08 『人脸合成』 Text-Free Learning of a Natural Language Interface for Pretrained Face Generators

⚡ 论文:A Survey on Generative Diffusion Model

论文时间:6 Sep 2022

领域任务图像生成

论文地址arxiv.org/abs/2209.02…

代码实现github.com/chq1155/A-S…

论文作者:Hanqun Cao, Cheng Tan, Zhangyang Gao, Guangyong Chen, Pheng-Ann Heng, Stan Z. Li

论文简介:This survey makes a summary of the field of the diffusion model./这份调查报告对扩散模型的领域做了一个总结。

论文摘要:得益于深度潜伏表征,深度学习在生成任务中显示出巨大潜力。生成模型是一类能够随机生成与某些隐含参数有关的观察结果的模型。最近,扩散模型凭借其强大的生成能力,成为生成模型的一个提升类别。如今,已经取得了巨大的成就。除了计算机视觉、语音生成、生物信息学和自然语言处理之外,更多的应用将在这一领域得到探索。然而,扩散模型有其天然的缺点,即生成过程缓慢,导致了许多增强的工作。本调查对扩散模型的领域进行了总结。我们首先通过两个里程碑式的工作--DDPM和DSM来说明主要问题。然后,我们提出了多种加快扩散模型的先进技术--训练计划、无训练抽样、混合建模和分数与扩散统一。关于现有模型,我们还根据具体的NFE提供了FID得分、IS和NLL的基准。此外,我们还介绍了扩散模型的应用,包括计算机视觉、序列建模、音频和人工智能的科学。最后,我们对这一领域进行了总结,并提出了限制和进一步的方向。

⚡ 论文:SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding

论文时间:14 Sep 2022

领域任务:Contrastive Learning,对比学习

论文地址arxiv.org/abs/2209.06…

代码实现github.com/alibabarese…

论文作者:Wanwei He, Yinpei Dai, Binyuan Hui, Min Yang, Zheng Cao, Jianbo Dong, Fei Huang, Luo Si, Yongbin Li

论文简介:Pre-training methods with contrastive learning objectives have shown remarkable success in dialog understanding tasks./具有对比性学习目标的预训练方法在对话理解任务中显示出了明显的成功。

论文摘要:具有对比性学习目标的预训练方法在对话理解任务中显示出明显的成功。然而,目前的对比性学习仅将自我增强的对话样本视为积极的样本,而将所有其他的对话样本视为消极的样本,这使得即使是语义相关的对话也有不同的表征。在本文中,我们提出了SPACE-2,一个树状结构的预训练对话模型,它通过半监督的对比性预训练,从有限的已标记的对话和大规模的未标记的对话体中学习对话表征。具体来说,我们首先定义了一个通用的语义树结构(STS)来统一不同对话数据集的不一致的注释模式,这样就可以利用所有标记数据中存储的丰富结构信息。然后,我们提出了一个新颖的多视图得分函数,以提高所有可能的对话的相关性,这些对话共享相似的STS,并且在监督对比预训练期间只推开其他完全不同的对话。为了充分利用未标记的对话,还增加了一个基本的自监督对比损失,以完善所学的表征。实验表明,我们的方法可以在由七个数据集和四个流行的对话理解任务组成的DialoGLUE基准上取得最先进的结果。为了保证可重复性,我们将代码和数据发布在 github.com/AlibabaRese…

⚡ 论文:Text-Free Learning of a Natural Language Interface for Pretrained Face Generators

论文时间:8 Sep 2022

领域任务:Face Generation,人脸合成

论文地址arxiv.org/abs/2209.03…

代码实现github.com/duxiaodan/f…

论文作者:Xiaodan Du, Raymond A. Yeh, Nicholas Kolkin, Eli Shechtman, Greg Shakhnarovich

论文简介:We propose Fast text2StyleGAN, a natural language interface that adapts pre-trained GANs for text-guided human face synthesis./我们提出了Fast text2StyleGAN,这是一个自然语言界面,可以将预先训练好的GANs用于文本指导的人脸合成。

论文摘要:我们提出了Fast text2StyleGAN,这是一个自然语言界面,可以将预先训练好的GANs适应于文本指导的人脸合成。利用对比性语言-图像预训练(CLIP)的最新进展,在训练期间不需要文本数据。Fast text2StyleGAN被表述为一个条件变异自动编码器(CVAE),在测试时为生成的图像提供额外的控制和多样性。我们的模型在遇到新的文本提示时不需要重新训练或微调GANs或CLIP。与之前的工作相比,我们不依赖于测试时的优化,使我们的方法比之前的工作快了好几个数量级。根据经验,在FFHQ数据集上,与之前的工作相比,我们的方法能更快、更准确地从具有不同细节水平的自然语言描述中生成图像。

我们是 ShowMeAI,致力于传播AI优质内容,分享行业解决方案,用知识加速每一次技术成长!

◉ 点击 日报合辑,在公众号内订阅话题 #ShowMeAI资讯日报,可接收每日最新推送。

◉ 点击 电子月刊,快速浏览月度合辑。