关于batch训练的问题和训练
发布于 1月前 作者 tensorflowlaker2000 来自问答

有个问题不知道tensorflow如何处理的?

如果知道网络结构,给定loss(随意给),能否反向传播

计算梯度并更新参数。


注意,没有input。

貌似很难实现这个基本的功能


3回复

如果不用minibatch仅仅用全部batch训练。 但是batch太大内存溢出。并且不能减小batch 能否分将batch拆开,计算loss,再将多批次的所有loss取平均,用这个平均loss去更新梯度。

如果不用minibatch仅仅用全部batch训练。 但是batch太大内存溢出。并且不能减小batch 能否分将batch拆开,计算loss,再将多批次的所有loss取平均,用这个平均loss去更新梯度。

前向传播和反向传播能否完全解耦?? 反向传播的时候仅看loss,不用再输入喂数据呢

回到顶部