sovradattamento

L'overfitting è l'ottimizzazione errata di un modello di intelligenza artificiale (AI), in cui la ricerca dell'accuratezza va troppo oltre e può portare a falsi positivi.

L'overfitting contrasta con l'underfitting, che può anche causare imprecisioni. L'overfitting è spesso indicato come sovrallenamento e underfitting come undertraining. L'overfitting e l'underfitting rovinano l'accuratezza di un modello portando a osservazioni e previsioni di tendenza che non seguono la realtà dei dati.

I falsi positivi derivanti dall'overfitting possono causare problemi con le previsioni e le affermazioni fatte dall'IA. L'underfitting, d'altra parte, può mancare di dati che dovrebbero essere inclusi a causa di omissioni derivanti da un modello troppo specifico. In dati invisibili, un modello overfit commetterà errori che riflettono quelli nei suoi dati di addestramento. Questa inesattezza è spesso il risultato del modello che inizia a cercare di memorizzare i risultati invece di prevedere con precisione dati non visti in precedenza.

Ad esempio, una caccia AI è per il numero 1 nei dati scritti a mano. A seconda della chiarezza della grafia, un falso positivo potrebbe raggruppare alcuni 7 come 1, il che sarebbe un overfit. Al contrario, un'omissione che potrebbe derivare potrebbe essere il mancato riconoscimento di 1 in alcuni stili di scrittura, che sarebbe un underfit.

L'overfitting può essere il risultato di sovrallenamento, mancanza di validazione, validazione impropria o regolazione dei pesi e tentativi di ottimizzazione dopo il test finale. L'overfitting può anche essere il risultato dell'utilizzo di dati di allenamento troppo rumorosi, contenenti informazioni inadatte.