4 votos

R2 parcial y contribución de los regresores

Hice una pregunta similar en Cross Validated, pero no obtuve respuesta. La siguiente pregunta es suficientemente diferente.

Consideremos la siguiente relación determinista: Yt=Ct+It+Gt+(XtMt)

Si realizamos una regresión OLS de Y sobre las covariables, por supuesto, obtenemos un R2 de 1, y el vector de coeficientes igual a sus homólogos poblacionales, es decir β^=β=1

Esto significa que el efecto marginal de cada regresor es constante. Sin embargo, la contribución de cada regresor depende de su varianza relativa a y. De hecho, en el caso univariante, se puede demostrar que R2=β2var(x)var(y) que muestra que incluso cuando el efecto marginal de x en y es grande, su contribución en el parcial R2 sentido es alto sólo cuando varía mucho, haciendo que y varíe también con él.

Ahora, considera la misma expresión anterior: Yt=Ct+It+Gt+(XtMt)

Dividamos ambos lados por Yt para todo el vector de coeficientes y la matriz de diseño.

Lo conseguimos: 1=CtYt+ItYt+GtYt+(XtMt)Yt

Esto es válido para cada realización de Yt y la matriz de diseño por construcción. Ahora, cada regresor es la contribución relativa (que podemos multiplicar por 100 para obtener el porcentaje de contribución) a la variable dependiente.

Ahora que tenemos la contribución relativa de cada regresor para cada observación, podemos obtener la contribución media del regresor a través de las observaciones.

He realizado algunas simulaciones y he comprobado que la contribución media de cada regresor se aproxima, pero no es exactamente igual a la contribución parcial R2 de cada regresor. ¿Existe alguna relación entre ellos? Intuitivamente, deberían ser iguales, ¿no? Muchas gracias.

4voto

Mythokia Puntos 129

Estoy un poco desconcertado por su pregunta. He hecho una simulación simple, datos adjuntos:

sum x1  x2  x3  x1_proportion   x2_proportion   x3_proportion   ones
1.44975 .884738 .331214 .233797 .6102698    .2284629    .1612673    1
1.75989 .793748 .655205 .310937 .4510212    .3722992    .1766796    1
1.35571 .462276 .882351 .011085 .3409837    .6508396    .0081768    1
1.63689 .002848 .708656 .925386 .0017398    .4329283    .565332     1
1.44575 .862857 .256457 .326439 .5968218    .1773864    .2257918    1
2.10639 .59055  .964992 .550847 .2803613    .4581261    .2615126    1
1.34527 .180885 .497332 .667048 .1344604    .3696907    .4958489    1
1.97426 .299043 .831939 .843283 .1514706    .4213918    .4271376    1
1.7669  .559657 .268161 .939079 .3167457    .1517697    .5314847    1
1.58345 .916163 .520577 .146706 .5785881    .3287623    .0926496    1
1.77596 .832321 .670544 .273091 .4686608    .3775677    .1537714    1
1.89561 .779795 .756137 .359681 .4113679    .398888     .1897441    1
.784696 .000545 .63612  .148031 .0006939    .810658     .1886481    1
1.63006 .25147  .58731  .791278 .1542705    .3603002    .4854293    1
1.8412  .526846 .327903 .986448 .2861431    .1780925    .5357644    1
1.52932 .627659 .802862 .098797 .4104179    .5249804    .0646017    1

A continuación, en Stata (o lo que quiera)

reg suma x1 x2 x3

obtiene 1 para todos los β 's como se anticipó y el error de redondeo a 0 para la constante. R2 's son todos 1. Pero

reg ones x1_proportion x2_proportion x3_proportion, noconst

Obtiene, de nuevo, todos los β s son 1. Y si se permite la constante, se obtendrá simplemente 1 para la constante y 0 para todas β s. En cualquier caso, de nuevo, R2 's son todos 1.

Creo que tienes alguna confusión sobre el significado de la regresión (o no estoy entendiendo la pregunta) aquí, así que voy a profundizar y especular un poco. Creo que en realidad quieres:

enter image description here

... Que x1 representa, por término medio, el 32,4% de la variable "suma", con una desviación típica del 19,6%.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X