markdown-it demo

以下是常見的 LossFunction:

  1. Mean Squared Error (MSE):預測值和實際值之間的平均平方差。

  2. Binary Crossentropy (BCE):適用於二元分類,預測值和實際值之間的交叉熵。

  3. Categorical Crossentropy (CCE):適用於多元分類,預測值和實際值之間的交叉熵。

  4. Hinge Loss:適用於支持向量機 (SVM)。

  5. Kullback-Leibler Divergence (KL Divergence):預測值和實際值之間的相對熵,用於評估兩個概率分佈之間的相似性。

  6. Huber Loss:比 MSE 更加魯棒,對於離群值的影響更小。

  7. MAE Loss:平均絕對誤差。

  8. Poisson Loss:適用於計數型預測問題,如預測一天中某個時間內的訪問量。

  9. Cosine Proximity:計算預測向量和實際向量之間的餘弦距離。

不同的 LossFunction 適用於不同的機器學習任務,選擇合適的損失函數可以提高模型的性能。

Fork me on GitHub