2022/03/10
【BUGFix】
- 代码可以跑起来了,解决了困扰多日的TypeError
- 修复了在打印loss与accuracy的可视化图表的时候只能打印loss而不能打印accuracy的bug
【尚存在的问题】
- 通过试验发现python在
from ... import ...或者import ...的时候,会将该包先运行一次进行检验,在加载完成且检验无错误后,将包加载到内存区,这就涉及到一个运行效率的问题.因为做的是机器学习,且设备配置有限,所以导致运行效率低下.正在寻找解决的方法. - 在导入keras的时候会出现
Cannot find reference 'keras' in '__init__.py | __init__.py',但不影响运行,凡是不影响运行的一律当没bug处理^ ^
2022/03/30
好久没更新了,忘了还有这么一篇日志。
今天将train_test_split中的test_size参数与model.fit()中的validation_data参数搞懂了,之前就觉的奇怪,为什么在datasplit的时候明明划分过训练集和验证集了,而在train的时候还要再用validation_size指定一次。validation_data指的是在训练集中分出多少不用于训练,而是用于验证,这里应该是重复了,所以我采用了在训练模型的时候用validation_data指定之前用test_size划分的验证集.
再记录一下今天经过修改的模型和损失吧:
2022/04/02
一直听说深度学习训练模型的时候最好是用GPU跑,因为模型训练的时候多是一些类似于1+1的运算,再加上GPU的线程数是大于CPU的,所以用GPU训练可能会快一点,但我一直没当回事,毕竟之前用的语料是title,一直到今天用content训练的时候,发现,哇,好慢啊,10轮的训练得跑一个多小时,然后就突然想起来gpu、cpu这个问题了,所以就下了个cuda试了试,发现效果好得出奇!真的快了很多!
但不知道为什么,Attention-BiLSTM、BiLSTM和TextCNN三个模型的F1-Score并没有太大的差距。之前用title训练的时候就没有太大差距,我还以为是因为句子长度太短了,但今天用content的时候还是发现没有太大的差距。那这样的话我增加Attention层的意义在哪啊?