背景
本文基于 PHM2010 刀具磨损数据集,系统对比了 10种深度学习模型 在跨工况刀具磨损预测任务上的表现。
10种模型包括:PatchTST、iTransformer、TimeMixer、ModernTCN、BiLSTM、LSTM、GRU、CNN、TCN、Transformer
数据与实验设计
数据集:PHM2010 刀具磨损公开数据集,包含6把刀具,本文采用(C1、C4、C6)三把刀具的全寿命切削数据。每次切削采集 7 通道信号(三向切削力、三向振动、声发射),经过信号处理,构建特征矩阵。
实验方案:采用留一法跨工况验证,共3组实验:
-
实验1:C1+C4 训练 → C6 测试
-
实验2:C1+C6 训练 → C4 测试
-
实验3:C4+C6 训练 → C1 测试
模型选择
本期选择了覆盖 4大类架构 的10种模型:
经典序列模型
-
BiLSTM
:双向长短时记忆网络,能同时利用过去和未来信息
-
LSTM
:单向长短时记忆网络,经典时序基线
-
GRU
:门控循环单元,LSTM 的轻量替代
经典卷积模型
-
CNN
:一维卷积网络,提取局部时序特征
-
TCN
:时序卷积网络,通过膨胀卷积扩大感受野
标准 Transformer
-
Transformer
:基于自注意力机制的编码器,捕获全局依赖
2023-2024 最新模型
-
PatchTST
(ICLR 2023):将时间序列切成重叠的 patch 作为 token,用 Transformer 编码,大幅减少 token 数量的同时保留局部上下文
-
iTransformer
(ICLR 2024):反转注意力维度——不在时间步之间做 attention,而在特征通道之间做 attention,让模型自动学习传感器通道间的关联
-
TimeMixer
(ICLR 2024):纯 MLP 架构,通过多尺度下采样 + 跨尺度混合,无需 attention 即可捕获不同粒度的退化模式
-
ModernTCN
(ICLR 2024):借鉴 ConvNeXt 设计理念改造 TCN,大核深度可分离卷积 + 倒瓶颈结构,纯卷积架构中的最新代表
结果展示
实验1:
实验2:
实验3:
三组实验的综合结果如下:
小结论
1. PatchTST 一骑绝尘
PatchTST 在三组实验中 R² 均超过 0.90,平均 R² 达到 0.9351,远超其他模型。其成功的关键在于:重叠 patch 切分保留了丰富的局部时序上下文,Transformer 注意力又能捕获全局退化趋势,两者互补效果显著。此外,我们为其配置了 warmup + 余弦退火学习率策略和 SmoothL1 损失函数,对最终效果也有明显帮助。
2.研究框架
本期文章不是为了提出一个新模型,而是为大家提供一个刀具寿命预测的框架,可以随意添加任何模型进行对比,出图方便;代码中涉及到的数据特征提取方法、网络参数等都可以给准备研究刀具寿命预测课题的你一个良好的示范。
代码获取
承诺以上实验均可完整实现。代码内提供了数据下载链接。
此代码依据torch框架搭建,可以使用GPU加速。
代码获取链接: