R-S Squareduared vs justeret r-s ared
efter opbygning af en maskinindlæringsmodel, er det næste trin at evaluere modelydelsen og forstå, hvor god vores model er mod en benchmark-model., Evalueringsmetriken, der skal bruges, afhænger af den type problem, du forsøger at løse —uanset om det er et overvåget eller uovervåget problem, og hvis det er en klassificering eller en regressionsopgave.
i dette indlæg vil jeg tale om to vigtige evalueringsmålinger, der bruges til regressionsproblemer og fremhæve nøgleforskellen mellem dem.
R-kvadreret, også kendt som koefficientbestemmelse, definerer den grad, i hvilken variansen i den afhængige variabel (eller målet) kan forklares med den uafhængige variabel (funktioner).,
lad os forstå dette med et eksempel — siger, at R-S .uared-værdien for en bestemt model kommer ud til at være 0, 7. Dette betyder, at 70% af variationen i den afhængige variabel forklares af de uafhængige variabler.
ideelt set ønsker vi, at de uafhængige variabler er i stand til at forklare al variationen i målvariablen. I dette scenario ville r-s .uared-værdien være 1. Således kan vi sige, at højere R-kvadreret værdi, bedre i modellen.,
så i enkle vendinger, højere R kvadreret, jo mere variation forklares af dine inputvariabler og dermed bedre er din model. Også R-kvadratet vil variere fra 0 til 1. Her er formlen for beregning af R-S squareduared-
R-s squareduared beregnes ved at dividere summen af kvadrater af rester fra regressionsmodellen (givet af SSR ‘ er) med den samlede sum af kvadrater af fejl fra den gennemsnitlige model (givet ved SStot) og derefter trække den fra 1.,