这是我参与11月更文挑战的第5天,活动详情查看:2021最后一次更文挑战
七月在线AI Lab推荐的GitHub高星开源项目分享给大家,希望对你有帮助。
1、nanodet 超快速轻量级无锚物体检测模型
项目特点:
- 超轻量:模型文件只有 980KB(INT8) 或 1.8MB(FP16)。
- 超快:在移动 ARM CPU 上为 97fps(10.23ms)。
- 训练友好:比其他模型低得多的 GPU 内存成本。Batch-size=80 在 GTX1060 6G 上可用。
- 易于部署:提供各种后端的C++实现和基于ncnn推理框架的Android演示。
Android 演示:
模型基准:
模型 | 分辨率 | COCO mAP | 延迟(ARM 4 Threads) | FLOPS | Params | 模型尺寸 | |
---|---|---|---|---|---|---|---|
NanoDet-m | 320*320 | 20.6 | 10.23ms | 0.72G | 0.95M | 1.8MB(FP16) | 980KB(INT8) |
NanoDet-m | 416*416 | 23.5 | 16.44ms | 1.2G | 0.95M | 1.8MB(FP16) | 980KB(INT8) |
NanoDet-m-1.5x | 320*320 | 23.5 | 13.53ms | 1.44G | 2.08M | 3.9MB(FP16) | 2MB(INT8) |
NanoDet-m-1.5x | 416*416 | 26.8 | 21.53ms | 2.42G | 2.08M | 3.9MB(FP16) | 2MB(INT8) |
NanoDet-g | 416*416 | 22.9 | Not Designed For ARM | 4.2G | 3.81M | 7.7MB(FP16) | 3.6MB(INT8) |
YoloV3-Tiny | 416*416 | 16.6 | 37.6ms | 5.62G | 8.86M | 33.7MB | |
YoloV4-Tiny | 416*416 | 21.7 | 32.81ms | 6.96G | 6.06M | 23.0MB |
NanoDet 是一种 FCOS 风格的单阶段无锚物体检测模型,它使用 ATSS 进行目标采样,使用 Generalized Focal Loss 进行分类和框回归。
配置环境:
- Linux or MacOS
- CUDA >= 10.0
- Python >= 3.6
- Pytorch >= 1.6
2、graph-notebook 扩展 Jupyter 笔记本轻松查询和可视化图形
图形笔记本(graph notebook)提供了一种使用 Jupyter 笔记本与图形数据库进行交互的简单方法。使用这个开源 Python 包,您可以连接到任何支持 Apache TinkerPop 或 RDF SPARQL 图形模型的图形数据库。这些数据库可以在您的桌面或云中本地运行。图数据库可用于探索各种用例,包括知识图和身份图。
连接到以下图形数据库的说明:
Endpoint | Graph model | Query language |
---|---|---|
Gremlin Server | property graph | Gremlin |
Blazegraph | RDF | SPARQL |
Amazon Neptune | property graph or RDF | Gremlin or SPARQL |
配置环境:
- Python 3.6.1-3.6.12
- Jupyter Notebook 5.7.10
- Tornado 4.5.3
- A graph database that provides a SPARQL 1.1 Endpoint or a Gremlin Server
3、maskdetection mask detection technology
为了进一步帮助抗击冠状病毒,滴滴出行决定免费向公众开放其口罩检测技术。该口罩检测技术由滴滴AI团队研发,基于DFS人脸检测算法和滴滴平台采用的人脸属性识别算法。该模型克服了一天中复杂的光照变化、人脸姿势变化、人脸尺度等多个难点,采用加权损失函数和数据增强方法来处理白天和夜间不同的口罩类型和不均匀的口罩数据。
该系统可以通过上传的图像识别不戴口罩的司机,准确率达到99.5%,滴滴在车载摄像头的现场检查中准确率达到98%。该模型在包含 200,000 张人脸的数据集上进行了训练,以确保其稳健性。
该快速检测系统可广泛应用于旅游场景,手机拍照、监控画面等,24小时不间断工作。
配置环境:
- google/protobuf
- openblas or atlas
- opencv
- cuda/cudnn(if GPU is used)
- Caffe
模型:
- 模型由公共 ResNet50-caffemodel 预训练。
- 通过收集的私有数据进行训练。
- 引入注意力机制。
注意:
滴滴的口罩识别服务旨在更好地保护用户免受公共卫生风险。该技术内置了注意力学习机制,专注于识别面具的存在,同时弱化对其他面部区域的识别。该服务受各种误差源的影响,包括亮度、姿势或部分图像捕获。
4、MetalCamera iOS 上基于 Swift、Metal 的图像和视频处理
MetalCamera 是一个开源项目,用于在 Mac 和 iOS 上执行 GPU 加速的图像和视频处理。使用 GPU 的方法有很多,包括 CIFilter,但它并不开放或难以扩展功能和贡献。这个存储库的主要目标是提供一个接口和测试性能,当您对 iOS 环境中的图像处理和机器学习有想法时,可以更轻松地开发并将其应用于实际服务。
在这个阶段,正在开发以简单地提供以下功能。
- 相机输入/输出处理
- 将图像帧保存到视频
- 基本的图像处理和过滤器
- 下载和处理 CoreML 模型
- 可视化 CoreML 模型的结果
- 基准算法。
配置环境:
- Swift 5
- Xcode 11.5 or higher on Mac
- iOS: 13.0 or higher
5、TNSCUI2020-Seg-Rank1st 在MICCAI 2020 TN-SCUI 挑战中排名第一的解决方案
数据预处理:
由于不同的采集协议,部分甲状腺超声图像有不相关区域(如图1所示)。首先,我们采用阈值法去除这些可能带来冗余特征的区域。特别地,我们对像素值从0到255的原始图像进行沿x轴和y轴平均的操作,分别去除均值小于5的行和列。然后将处理后的图像大小调整为256x256像素作为第一个分割网络的输入。
级联分割框架:
利用骰子损耗函数对两个具有相同编码解码器结构的网络进行训练。事实上,我们选择DeeplabV3+ with efficientnet-B6 encoder作为第一网络和第二网络。训练第一个分割网络(级联的I阶段)提供结节的粗略定位,在粗定位的基础上,训练第二次分割网络(级联的II阶段)进行精细分割。我们的初步实验表明,在第一个网络中提供的上下文信息可能不会对第二个网络的细化起到显著的辅助作用。因此,我们只使用ground truth(GT)获得的感兴趣区域(region of interest,ROI)内的图像来训练第二个网络。(在训练这两个网络的过程中,输入数据是唯一的区别。)
当训练第二个网络时,我们将GT得到的结节ROI展开,然后将扩大的ROI中的图像裁剪出来,并将其大小调整为512x512像素,以供第二个网络使用。我们观察到,在大多数病例中,大结节一般边界清楚,而且小结节的灰度值与周围正常的甲状腺组织的灰度值差异较大(如图所示)。因此,背景信息(结节周围组织)对于小结节的分割具有重要意义。如下图所示,在预处理后大小为256x256像素的图像中,首先得到结节感兴趣区域的最小外平方,然后若正方形边长n大于80,则外扩m为20,否则m为30。
数据增强和测试时间增强:
在这两个任务中,以下方法在数据增强中执行:1) 水平翻转, 2) 垂直翻转, 3) 随机剪切, 4)随机仿射变换 ,5) 随机检尺,6) 随机翻译, 7) 随机旋转, 和 8) 随机剪切变换。此外,随机选择以下方法之一进行额外的增强:1) 锐磨, 2)局部辨析, 3) 调整对比, 4) 模糊(高斯,平均值,中值), 5) 高斯噪声的加法,和 6)擦除。
TTA(Test time augmentation)通常提高分割模型的泛化能力。在我们的框架中,TTA包括用于分割任务的垂直翻转,水平翻转和180度旋转。
通过规模和类别平衡策略进行交叉验证:
我们使用五折交叉验证来评估我们所提出的方法的性能。我们的观点是,有必要保持训练集和验证集中结节的大小和类别分布相似。实际上,结节的大小是将预处理后的图像统一为256x256像素后,结节的像素数量。我们将规模分为三个等级:1) 小于1722像素,2) 小于5666像素大于1722像素,和 3)大于5666像素。这两个阈值,1722像素和5666像素, 很接近三分位数,通过卡方独立检验,大小分层与良、恶性分类有统计学意义(p<0.01)。我们将每个尺寸等级组的图像分为5个等级,并将不同等级的单次折叠合成新的单次折叠。这一策略确保了最后五次折叠具有类似的大小和种类分布。
基于2020 TN-SCUI训练数据集和DDTI数据集的分割结果:
fold | Stage Ⅰ | TTA at stage Ⅰ | Stage Ⅱ | TTA at stage Ⅱ | DsC | IoU (%) |
---|---|---|---|---|---|---|
1 | √ | 0.8699 | 79.00 | |||
1 | √ | √ | 0.8775 | 80.01 | ||
1 | √ | √ | 0.8814 | 80.75 | ||
1 | √ | √ | √ | 0.8841 | 81.05 | |
1 | √ | √ | √ | 0.8840 | 81.16 | |
1 | √ | √ | √ | √ | 0.8864 | 81.44 |
2 | √ | √ | √ | √ | 0.8900 | 81.99 |
3 | √ | √ | √ | √ | 0.8827 | 81.07 |
4 | √ | √ | √ | √ | 0.8803 | 80.56 |
5 | √ | √ | √ | √ | 0.8917 | 82.07 |
配置环境:
- segmentation_models_pytorch == 0.1.0
- ttach == 0.0.3
- torch >=1.0.0
- torchvision
- imgaug
6、Rath 自动化数据探索分析和智能可视化设计应用
Rath是新一代的可视化分析工具,它提供了自动化的数据探索分析能力与自动可视化设计能力。Rath既可以在你对数据无从下手时提供分析入口的建议,也可以在你的分析过程中提供实时的分析辅助和建议。Rath会帮你完成大部分数据探索分析的工作,使得你可以专注于领域问题本身。
Rath 可能帮助你快速完成对一个数据集的自动化可视化分析。它既可以帮助你在自助分析时提供实时的建议,也可以直接根据数据实时的特征生成数据报表。
相比于tableau、Congos Analytics等可视化分析工具,Rath可以大幅降低数据分析的门槛,使用户可以关注于实际的问题。
相比于PowerBI、帆软等报表搭建工具,Rath可以制作动态的可视化报表。使得你的报表可以针对数据的特性实时变化,始终把重要的问题暴露出来。
主要组件:
- 数据源面板 数据源面板用于数据上传、采样(目前支持流数据,即上传的文件大小没有限制)、清理和定义字段类型(维度、度量)。在视觉洞察中,我们将维度视为自变量或特征,将度量视为因变量或目标。
- Notebook Notebook 是一个让用户了解自动分析过程中发生了什么以及 Rath 如何使用视觉洞察力的面板。它显示了应用程序如何做出决策,并提供交互式界面来调整算法使用的一些参数和运算符。
- Gallery Gallery显示了具有有趣发现的可视化部分。在图库中,您可以找到有趣的可视化并使用关联功能找到更多相关的可视化。您还可以在图库中搜索特定信息。这里有一些设置可以调整图表中的一些视觉元素。
- 仪表板 为您自动生成仪表板。rath 会找出一组可视化的内容,哪些内容是相互联系的,可以用来分析一个特定的问题。
主要功能:
- 单变量总结 第一步,独立分析数据集中的所有字段。它获取场的分布并计算其熵。此外,它将为每个字段定义语义类型(数量、顺序、时间、名义)。将鼠标悬停在字段上时,将显示该字段的更多详细信息。然后,它会找到具有高熵的字段并尝试通过对字段进行分组来减少它(例如)。只有维度参与这个过程。
- 相关性分析
- 聚类分析 它可以帮助您根据相关性对所有度量进行聚类。它将所有强相关的变量放在一起以形成特定视图(具有指定维度)。