6.6 Tabla ANOVA. El contraste de regresión.

En este apartado se descompone la variabilidad de la variable respuesta en variabilidad explicada por el modelo más variabilidad no explicada o residual, esto permitirá contrastar si el modelo es significativo o no. Bajo la hipótesis de que existe una relación lineal entre la variable respuesta y la regresora, se quiere realizar el siguiente contraste de hipótesis,

H0 :  E (Y/X = x) = a0 (es
constante, no depende de x)

frente a la alternativa

H1 :  E (Y /X = x) = a0 + a1x (el
modelo lineal es significativo)

por tanto, si se acepta H0, la variable regresora no influye y no hay relación lineal entre ambas variables. En caso contrario, si existe una dependencia lineal de la variable respuesta respecto a la regresora.

Para todos los datos muestrales se hace la siguiente descomposición

(y - y) = (y - ^y )+ (^y - y),
 i        i   i     i

elevando al cuadrado y sumando se obtiene,

 sum n          n sum sum n
sum n
   (yi- y)2 =    (yi- ^yi)2 +   (^yi -y)2 + 2   (yi- ^yi)(^yi- y),
i=1           i=1           i=1            i=1

en base a la ortagonalidad de los vectores se obtiene que los productos cruzados son cero, de donde se sigue la siguiente igualdad (Teorema de Pitágoras) que permite descomponer la variabilidad de la variable respuesta ( sum n
2)
   i=1(yi- y) en la variabilidad explicada por la recta de regresión (            )
  sum ni=1 (y^i- y)2 más la variabilidad residual o no explicada por el modelo ajustado ( sum           )
   ni=1 (yi- ^yi)2,

  Suma  de         Suma de Suma
de
 Cuadrados        Cuadrados        Cuadrados

Global (scG)   Explicada-(scE)     Residual (scR)
 sum n               sum n                sum n
    (yi- y)2  =      (^yi- y)2   +      (yi- ^yi)2
-i=1-- -----    --i=1-- -------   --i=1--  ------
  g.l.=n-1           g.l.=1            g.l.=n- 2

Ahora se puede construir siguiente tabla ANOVA  

Tabla ANOVA del modelo de regresión simple
Fuente de
Variación
Suma de
Cuadrados
Grados de 
Libertad
Varianzas
Por la recta scE =  sum i = 1n(^yi- y)2 1 ^s e2 = scE-
 1 
Residual scR =  sum i = 1n(yi- ^yi)2 n - 2 ^s R2 = scR--
n-  2
Global scG =  sum i = 1n(yi-  y)2 n - 1 ^s Y 2 = scG--
n-  1

Si H0 es cierta (la variable X no influye), la recta de regresión es aproximadamente horizontal y se verifica que aproximadamente ^y i  ~~ y , y por tanto scE  ~~ 0. Pero scE es una medida con dimensiones y no puede utilizarse como medida de discrepancia, para resolver este inconveniente se divide por la varianza residual y como estadístico del contraste de regresión se utiliza el siguiente

       2 F^R =  ^s2e.
      ^sR

Por la hipótesis de normalidad y bajo H0 se deduce que el estadístico ^FR sigue una distribución F (Contraste de la F) con 1 y n - 2 grados de libertad.

      ^s2e ^FR = ^s2-~ F1,n-2 bajo
H0.
      R
(6.14)
Sí el p - valor = P(            )
 F1,n-2 > ^FR es grande (mayor que a) se acepta H0.

El Contraste de la F es un contraste unilateral (de una cola) pero en este modelo proporciona exactamente el mismo resultado que se obtiene por el contraste individual de la t relativo al coeficiente de regresión a1 (Contraste de la t) estudiado en el apartado anterior.