Eine einfache Formel für die Berechnung der AIC im OLS-Framework (da Sie lineare Regression sagen) finden Sie in Gordon (2015, S. 201):
$$\text{AIC} = n *\ln\Big(\frac{SSE}{n}\Big)+2k $$
Wobei SSE die Summe der quadratischen Fehler bedeutet ($\sum(Y_i – \hat Y_i)^2$), $n$ ist die Stichprobengröße, und $k$ ist die Anzahl der Prädiktoren im Modell plus eins für den Intercept. , Obwohl AIC-Werte im Allgemeinen nicht interpretierbar sind, können Unterschiede zwischen Werten für verschiedene Modelle interpretiert werden (Eine Reihe von Fragen zu CV behandelt dieses Problem, zum Beispiel hier). Daher wird normalerweise das Modell mit dem kleinsten AIC ausgewählt. Es ist leicht zu erkennen, warum dies in der obigen Formel der Fall ist: Da alle anderen gleich sind, nimmt auch die AIC ab, wenn die SSE abnimmt.
In anderen Quellen finden Sie möglicherweise eine allgemeinere Formel mit maximaler Wahrscheinlichkeit., In der angewandten Regressionsanalyse und verallgemeinerten linearen Modellen bietet Fox beispielsweise:
$$\text{AIC}_j \equiv – \text{log}_eL (\hat \theta_j)+2s_j$$
Fox, J. (2016). Angewandte Regressionsanalyse und generalisierte lineare Modelle (3. Aufl.). Los Angeles: Sage Publications.
Gordon, R. A. (2015). Regressionsanalyse für die Sozialwissenschaften. New York und London: Routledge.
Und der Originalartikel: