MachineLearning LossFunction

Posted by Adam on August 24, 2022
以下是常見的 LossFunction: 1. Mean Squared Error (MSE):預測值和實際值之間的平均平方差。 2. Binary Crossentropy (BCE):適用於二元分類,預測值和實際值之間的交叉熵。 3. Categorical Crossentropy (CCE):適用於多元分類,預測值和實際值之間的交叉熵。 4. Hinge Loss:適用於支持向量機 (SVM)。 5. Kullback-Leibler Divergence (KL Divergence):預測值和實際值之間的相對熵,用於評估兩個概率分佈之間的相似性。 6. Huber Loss:比 MSE 更加魯棒,對於離群值的影響更小。 7. MAE Loss:平均絕對誤差。 8. Poisson Loss:適用於計數型預測問題,如預測一天中某個時間內的訪問量。 9. Cosine Proximity:計算預測向量和實際向量之間的餘弦距離。 不同的 LossFunction 適用於不同的機器學習任務,選擇合適的損失函數可以提高模型的性能。