Una semplice formula per il calcolo dell’AIC nel OLS quadro (dal momento che si dice di regressione lineare) può essere trovato nel Gordon (2015, pag. 201):
$$\text{AIC} = n *\ln\Big(\frac{SSE}{n}\Big)+2k $$
Dove SSE significa Somma degli Errori al Quadrato ($\sum(Y_i-\hat Y_i)^2$), $n$ è la dimensione del campione, e $k$ è il numero di predittori del modello più uno per l’intercetta., Sebbene i valori AIC non siano generalmente interpretabili, le differenze tra i valori per i diversi modelli possono essere interpretate (una serie di domande sul CV copre questo problema, ad esempio qui). Quindi, il modello con il più piccolo AIC viene solitamente selezionato. È facile capire perché questo è il caso nella formula sopra: tutto il resto è uguale, mentre l’SSE diminuisce, anche l’AIC diminuisce.
In altre fonti, è possibile trovare una formula più generale di massima verosimiglianza., Ad esempio, nell’analisi di regressione applicata e nei modelli lineari generalizzati, Fox fornisce:
text\text{AIC}_j \equiv – \text{log}_eL(\hat \theta_j)+2s_j Fox
Fox, J. (2016). Analisi di regressione applicata e modelli lineari generalizzati (3a ed.). Los Angeles: Sage Publications.
Gordon, R. A. (2015). Analisi di regressione per le Scienze Sociali. New York e Londra: Routledge.
E l’articolo originale: