Mean Squared Error e Mean Absolute Error sono due metriche di analisi per computare l’accuratezza di una variabile continua.
Tecnicamente fanno parte di una famiglia di funzioni che, in ambito machine learning, definiamo cost function, o funzioni di costo.
Nello specifico, in applicazioni di regressione, sono preferibili rispetto alla semplice somma degli errori. Perchè? Scopriamolo!
Somma degli errori: Mean Bias Error (MBE) e il suo inganno nascosto
Un metodo apparentemente efficace per valutare l’accuratezza di un modello è calcolare semplicemente la somma degli errori, ossia della differenza tra il valore reale e quello predetto dal modello:

In questo modo però valori positivi e negativi possono potenzialmente cancellarsi a vicenda, generando un errore pari a 0.
Un modello risulta perfetto, pur non esendolo.
Osservato con occhi attenti, questa semplice metrica risulta ingannevole e quindi difficilmente maneggiabile.
Questa particolarità permette però di calcolare con buona efficacia il Bias di un modello, ed è perciò comunemente indicata come Errore di Bias Medio (Mean Bias Error)
Mean Absolute Error (MAE)
L’errore medio assoluto, o Mean Absolute Error (MAE) è calcolato inserendo l’operatore || (valore assoluto) nella formula del Mean Bias Error:

In questo modo non vi è possibilità che i valori si cancellino a vicenda.
Il Mean Absolute Error (MAE) è spesso conosciuto anche come L1 Loss, e matematicamente rappresenta la distanza tra il valore predetto e quello effettivo. Trattandosi di una distanza, non esistono valori negativi. (Nota il valore assoluto).
La ricerca del modello perfetto conduce inevitabilmente a trovare il valore di MAE più basso possibile.
Il grande vantaggio di questa metrica è la sua facile interpretazione, nonché la sua resistenza agli outliers.
Un MAE di 1.2 su uno specifico modello implica, ad esempio, che i suoi valori predetti avranno un errore medio di +- 1.2
Mean Squared Error (MSE)
Il Mean Squared Error (MSE), o Errore Quadratico Medio, è calcolato elevando al quadrato la differenza tra il valore reale y e quello predetto.
E’ anche conosciuto come L2 Loss, e la sua formula è la seguente:

L’esponente determina una particolarità dell’errore quadratico medio: i grandi errori sono fortemente penalizzati.
L’uso di questa metrica è quindi da preferirsi laddove errori grandi sono particolarmente costosi; l’ambito medico ne è un esempio.
Infatti prevedere con precisione la dose corretta di un certo medicinale è fondamentale. Ecco quindi che un sistema come l’errore quadratico medio ben si appresta a risolvere questa problematica.
Anche in questo caso i valori bassi sono i migliori.
Tuttavia, questo fa sì che il Mean Squared Error sia più sensibile agli outliers del Mean Absolute Error.
La sua radice costuisce la radice dell’errore quadratico medio, ovvero Root Mean Squared Error (RMSE) che in italiano è nota anche come varianza interna.
Dai un’occhiata al mio precedente post. Molti prima di te lo hanno già letto, non perdertelo!
Per approfondire: