@heartbeating 感谢指教!我对代码不是很理解,也不会调参……这个代码不是已经加入attention了吗?我根据提出的改进意见进行了修改,发现只有1、2修改后可以正常运行。第3条“使用attention,设置LSTM”这里修改后会报错:首先是改动lstm_units=128,源代码=64就没有问题,其次是name="lstm1",源代码是"bilstm",这里修改后也无法正常运行,还有加入了“return_sequences=True”也不可以。如果这段代码是CNN+LSTM+Attention机制没有什么致命错误,我要不直接用吧,我改不明白/(ㄒoㄒ)/哭泣
2023-04-17