R-Squared vs Adjusted R-Squared (Svenska)

R-Squared vs Adjusted R-Squared (Svenska)

Aishwarya Singh

följ
Aug 23, 2019 · 3 min läs

Efter att ha byggt en maskininlärningsmodell är nästa steg att utvärdera modellens prestanda och förstå hur bra vår modell är mot en referensmodell., Utvärderingsmätvärdet som ska användas beror på vilken typ av problem du försöker lösa —oavsett om det är ett övervakat eller oövervakat problem och om det är en klassificering eller en regressionsuppgift.

I det här inlägget kommer jag att prata om två viktiga utvärderingsmått som används för regressionsproblem och markera nyckelskillnaden mellan dem.

R-squared, även känd som koefficientbestämning, definierar graden till vilken variansen i den beroende variabeln (eller målet) kan förklaras av den oberoende variabeln (funktioner).,

låt oss förstå detta med ett exempel-säg att R-squared-värdet för en viss modell kommer ut till 0,7. Detta innebär att 70% av variationen i den beroende variabeln förklaras av de oberoende variablerna.

helst skulle vi vilja att de oberoende variablerna kan förklara all variation i målvariabeln. I det scenariot skulle R-kvadraten vara 1. Således kan vi säga att högre r-kvadratvärdet, bättre i modellen.,

så, i enkla termer, högre R kvadrat, desto mer variation förklaras av dina indatavariabler och därmed bättre är din modell. Dessutom skulle r-kvadraten sträcka sig från 0 till 1. Här är formeln för beräkning av R-squared-

R-squared beräknas genom att dividera summan av kvadrater av residualer från regressionsmodellen (ges av SSres) med den totala summan av kvadrater av fel från medelmodellen (ges av SStot) och sedan subtrahera den från 1.,

en nackdel med r-squared är att det förutsätter att varje variabel hjälper till att förklara variationen i målet.vilket kanske inte alltid är sant. Om vi till exempel lägger till nya funktioner i data (vilket kan eller kanske inte är användbart) skulle R-squared-värdet för modellen antingen öka eller förbli detsamma men det skulle aldrig minska.

detta tas om hand av en något modifierad version av r-squared, kallad den justerade r-squared.,

justerad R-kvadrat

i likhet med R-kvadrat mäter den justerade R-kvadraten variationen i den beroende variabeln (eller målet), förklarad av endast de funktioner som är användbara för att göra förutsägelser. Till skillnad från R-squared skulle den justerade R-squared straffa dig för att lägga till funktioner som inte är användbara för att förutsäga målet.

låt oss matematiskt förstå hur den här funktionen är inrymd i Justerad R-kvadrat., Här är formeln för justerad r-squared

här är R^2 den R-squared beräknade, N är antalet rader och M är antalet kolumner. När antalet funktioner ökar minskar värdet i nämnaren.

  • Om R2 ökar med ett signifikant värde, skulle den justerade r-kvadraten öka.
  • om det inte finns någon signifikant förändring i R2, skulle den justerade r2 minska.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *