V2EX  ›  英汉词典
Enqueued related words: Log-Loss, Softmax

Cross-Entropy

定义 Definition

Cross-entropy(交叉熵)是信息论与机器学习中衡量“两种概率分布差异”的指标:当用一个分布(如模型预测分布)去近似另一个分布(如真实分布)时,交叉熵表示平均需要多少信息量(不确定性/编码长度)。在分类任务中,它常作为损失函数,用来惩罚预测与真实标签不一致的情况。

发音 Pronunciation (IPA)

/ˌkrɔːs ˈɛntrəpi/

例句 Examples

Cross-entropy is a common loss function for classification.
交叉熵是分类任务中常用的损失函数。

To train the neural network, we minimized the cross-entropy between the predicted probability distribution and the true labels.
为了训练神经网络,我们最小化预测概率分布与真实标签之间的交叉熵。

词源 Etymology

cross- 有“交叉、相互”的含义,表示“一个分布相对于另一个分布”;entropy 源自信息论中的“熵”,表示不确定性或信息量。合起来,cross-entropy强调:用“另一套概率分布”来度量(或编码)目标分布时所产生的平均信息量。

相关词 Related Words

文学与经典著作 Literary Works

  • Elements of Information Theory(Thomas M. Cover, Joy A. Thomas)
  • Pattern Recognition and Machine Learning(Christopher M. Bishop)
  • Deep Learning(Ian Goodfellow, Yoshua Bengio, Aaron Courville)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1408 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 13ms · UTC 16:20 · PVG 00:20 · LAX 08:20 · JFK 11:20
♥ Do have faith in what you're doing.