本周主要做了RNN和LSTM的实验。数据量少时,随意调整RNN的参数确实会出现有时性能比LSTM好或差的情况,这是本周刚开始时的一个困惑。当两个模型选好参数后,数据量少的时候,RNN模型性能优,数据量增大时,LSTM模型优,可见,处理需要记忆更长历史信息的序列时,LSTM模型更优。
本周主要做了RNN和LSTM的实验。数据量少时,随意调整RNN的参数确实会出现有时性能比LSTM好或差的情况,这是本周刚开始时的一个困惑。当两个模型选好参数后,数据量少的时候,RNN模型性能优,数据量增大时,LSTM模型优,可见,处理需要记忆更长历史信息的序列时,LSTM模型更优。
另外,还要注意模型是否过拟合。我觉得目前我们数据量太少,得到的结果很可能是过拟合的。一定要小心这个问题。