backprop 是 backpropagation 的非正式缩写,指“反向传播”:在训练神经网络时,把输出误差从后往前传回各层,并利用梯度来更新参数(权重、偏置)的算法过程。该术语在深度学习语境中最常见。
/ˈbækˌprɑːp/
(完整形式 backpropagation: /ˌbækˌprɑːpəˈɡeɪʃən/)
We used backprop to train the model.
我们用反向传播来训练这个模型。
By combining backprop with mini-batch gradient descent, the network gradually reduced its loss on the validation set.
将反向传播与小批量梯度下降结合后,网络在验证集上的损失逐步降低。
backprop 来自 backward(向后)+ propagation(传播)的缩写形式,字面意思是“向后传播”。它强调误差信号沿着网络结构从输出层“倒着”传回输入方向,用以计算各参数对损失的影响(梯度)。