以下是常見的 LossFunction:
1. Mean Squared Error (MSE):預測值和實際值之間的平均平方差。
2. Binary Crossentropy (BCE):適用於二元分類,預測值和實際值之間的交叉熵。
3. Categorical Crossentropy (CCE):適用於多元分類,預測值和實際值之間的交叉熵。
4. Hinge Loss:適用於支持向量機 (SVM)。
5. Kullback-Leibler Divergence (KL Divergence):預測值和實際值之間的相對熵,用於評估兩個概率分佈之間的相似性。
6. Huber Loss:比 MSE 更加魯棒,對於離群值的影響更小。
7. MAE Loss:平均絕對誤差。
8. Poisson Loss:適用於計數型預測問題,如預測一天中某個時間內的訪問量。
9. Cosine Proximity:計算預測向量和實際向量之間的餘弦距離。
不同的 LossFunction 適用於不同的機器學習任務,選擇合適的損失函數可以提高模型的性能。