我正在通过TFRecordDataset训练神经网络。但是,在每个时期结束时(即使用)ETA: 0s
,训练会停滞数十秒。作为参考,一个时期大约需要一分钟才能完成大约25GB的数据集(在解析功能的子集之前)。
我正在使用Nvidia Titan RTX GPU运行TensorFlow 2.3.1。这是预期的行为吗?也许是由于输入管道中的预处理?该预处理是仅由CPU执行还是转移至GPU?谢谢!
如果你有一个验证集并且正在使用model.fit()
,则可能是计算损失和指标所需的时间。在大多数情况下,应花费额外的25%来计算80/20拆分的指标。