Nothing Special   »   [go: up one dir, main page]

Demostración Matemática de Un Modelo de Regresión Lineal Múltiple de Tres Variables Explicativas Aplicando El Método de Mínimos Cuadrados Ordinarios

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/329129635

Demostración Matemática de un Modelo de Regresión Lineal Múltiple de Tres


Variables Explicativas Aplicando el Método de Mínimos Cuadrados Ordinarios

Article in Revista de Analisis Economico · December 2014

CITATIONS READS

0 3,813

2 authors, including:

Juan Tenorio
Georgetown University
4 PUBLICATIONS 3 CITATIONS

SEE PROFILE

All content following this page was uploaded by Juan Tenorio on 22 November 2018.

The user has requested enhancement of the downloaded file.


DEMOSTRACIÓN MATEMÁTICA DE UN MODELO DE REGRESIÓN LINEAL
MULTIPLE DE TRES VARIABLES EXPLICATIVAS APLICANDO EL MÉTODO DE
MÍNIMOS CUADRADOS ORDINARIOS (MCO)
JUAN TENORIO
DAVID MOSCOL
RESUMEN
Un modelo econométrico empieza con un conjunto de diversas proposiciones
sobre algún problema o aspecto en la economía. La teoría nos proporciona diferentes
relaciones entre una variable dependiente y un conjunto de variables independientes,
esto con ayuda de la investigación empírica proporciona estimaciones de los parámetros
desconocidos de un modelo, para esta estimación se utilizan diferentes técnicas como
la de MCO (mínimos cuadrados ordinarios), la particularidad de este método es que
puede ser utilizado tanto para muestras pequeñas como para muestras mayores pero
su limitación más esencial son diversos supuestos, que hacen que el método sea a la
vez más rigurosa en su utilización.
Por ser el método más común para la estimación de los parámetros
desconocidos en un modelo de regresión lineal, es necesario distinguir entre muchos
aspectos los valores poblacionales y la estimación que se realiza de ellos en la muestra.
Los resultados obtenidos en la siguiente demostración en un MRLM, donde
utilizaremos tres variables explicativas y para la solución de ello algunos métodos
matemáticos tomados del algebra lineal que nos darán una visión más amplia del
comportamiento de estos parámetros y su relación estadística con las variables
estudiadas.
Palabras clave: mínimos cuadrados ordinarios, variable dependiente, variable
independiente, investigación empírica.
1. Introducción
En el siguiente trabajo se realiza una exhaustiva demostración tomando cierta
cantidad de variables explicativas para un MRLM, donde nos apoyaremos del método
MCO, de esta manera esperamos contribuir con su sentido de la observación
matemática que se emplea en la carrera de economía cabe mencionar que la curiosidad
que nos lleva a evaluar esta condición nos abre un sinfín de dudas e interrogantes sobre
diversas formas de poder lograr obtener estos parámetros y la forma como la
matemática nos proporciona una base sólida en la solución de los diversos problemas
que como científicos sociales nos podemos plantear, claro está sin olvidar nuestra
intuición cualitativa de las cosas y/o acontecimientos que podamos predecir.
El lenguaje que emplearemos es netamente matemático y estadístico para esto
es necesario tener los conceptos claros y concretos de estas dos herramientas usadas
para la economía para así facilitar el mayor entendimiento en la resolución del ejercicio,
tener claro que nos basaremos en la relación que tienen estos parámetros con las
sumatorias de las variables independientes como la dependiente, en la primera parte se
presentara a la ecuación poblacional hasta lograr formar un sistema de derivadas
parciales, en la segunda parte se lograra obtener el intercepto o también llamado
“ordenada en el origen” del modelo y en la tercera parte se podrá visualizar la obtención
de los tres parámetros, Finalmente se presentan las conclusiones y se abren nuevas
posibilidades para una investigación futura.
MODELO DE REGRESIÓN LINEAL MÚLTIPLE

Ecuación poblacional:
𝑌 = ∝ +𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝛽3 𝑋3 + 𝜀 ……(b)
Evaluando el error del modelo:
𝜀 = 𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3
Apliquemos MCO, expresándola en función de los estimadores:
𝑖=𝑛 𝑖=𝑛

∑ 𝜀𝑖2 = ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )2


𝑖=1 𝑖=1

Los estimadores MCO, serán por tanto las soluciones del siguiente problema de
optimización:
𝑖=𝑛

𝐌í𝐧𝐢𝐦𝐨 ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )2


𝑖=1

Es decir los estimadores MCO, cumplirán lo siguiente:


𝑖=𝑛 𝑖=𝑛

∑ 𝜀𝑖 = 0 ; ∑ 𝜀𝑖 𝑋𝑖 = 0
𝑖=1 𝑖=1

Sistema de ecuaciones normales de MCO:

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(1) … … … … … … … …. ∗) = 2 ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )(−1) = 0
𝜕∝
𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(2) … … … … … … … …. ∗) = 2 ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )(−𝑋1 ) = 0
𝜕𝛽1
𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(3) … … … … … … … …. ∗) = 2 ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )(−𝑋2 ) = 0
𝜕𝛽2
𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(4) … … … … … … … …. ∗) = 2 ∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 )(−𝑋3 ) = 0
𝜕𝛽3
𝑖=1

Para un mayor entendimiento del proceso de optimización del MCO, véase GREENE, W. H. (2003). Econometric
Analysis. 7th ed. Upper Saddle River: Prentice Hall – Capitulo 2.
2. Segunda parte:

Hallando el intercepto del modelo, para (1)


𝑖=𝑛

∑(𝑌 − ∝ −𝛽1 𝑋1 − 𝛽2 𝑋2 − 𝛽3 𝑋3 ) = 0
𝑖=1

Operando los términos de las ecuaciones:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑌𝑖 − 𝑛 ∝ 𝛽1 ∑ 𝑋𝑖1 − 𝛽2 ∑ 𝑋𝑖2 − 𝛽3 ∑ 𝑋𝑖3 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Dividiendo a toda las ecuación entre “n”:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
1 1 1 1
̂ = ∑ 𝑌𝑖 − 𝛽1 ∑ 𝑋𝑖1 − 𝛽2 ∑ 𝑋𝑖2 − 𝛽3 ∑ 𝑋𝑖3

𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1 𝑖=1

La recta de regresión de mínimos cuadrados pasa a través del punto de medias:


𝑌̅ = ̂
∝ + 𝛽1 𝑋̅1 + 𝛽2 𝑋̅2 + 𝛽3 𝑋̅3 ………. (a)
Ahora calculamos el intercepto del modelo:

̂ = 𝑌̅ − 𝛽1 𝑋̅1 − 𝛽2 𝑋̅2 − 𝛽3 𝑋̅3


3. Tercera parte:
Para esto restando (a) de (b); podemos volver a escribir la ecuación de regresión en
forma de desviaciones:

𝑦̂ = 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝑥3 + 𝜀

𝑖=𝑛 𝑖=𝑛

∑ 𝜀𝑖2 = ∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 )2


𝑖=1 𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(1) … … … … … … … …. ∗) = 2 ∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (−𝑥𝑖1 ) = 0
𝜕𝛽1
𝑖=1

𝑖=𝑛

∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (𝑥𝑖1 ) = 0


𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
∑ 𝑦̂𝑖 𝑥𝑖1 − 𝛽1 ∑ 𝑥𝑖1 − 𝛽2 ∑ 𝑥𝑖1 𝑥𝑖2 − 𝛽3 ∑ 𝑥𝑖1 𝑥𝑖3 = 0
𝑖=1 𝑖=1 𝑖=1 𝑖=1
Primera ecuación del nuevo sistema:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


2
𝛽1 ∑ 𝑥𝑖1 + 𝛽2 ∑ 𝑥𝑖1 𝑥𝑖2 + 𝛽3 ∑ 𝑥𝑖1 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖1
𝑖=1 𝑖=1 𝑖=1 𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(2) … … … … … … … …. ∗) = 2 ∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (−𝑥𝑖2 ) = 0
𝜕𝛽2
𝑖=1

𝑖=𝑛

∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (𝑥𝑖2 ) = 0


𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
∑ 𝑦̂𝑖 𝑥𝑖2 − 𝛽1 ∑ 𝑥𝑖1 𝑥𝑖2 − 𝛽2 ∑ 𝑥𝑖2 − 𝛽3 ∑ 𝑥𝑖2 𝑥𝑖3 = 0
𝑖=1 𝑖=1 𝑖=1 𝑖=1

Segunda ecuación del nuevo sistema:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


2
𝛽1 ∑ 𝑥𝑖1 𝑥𝑖2 + 𝛽2 ∑ 𝑥𝑖2 + 𝛽3 ∑ 𝑥𝑖2 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1 𝑖=1

𝑖=𝑛
𝜕 ∑𝑖=𝑛 2
𝑖=1 𝜀𝑖
(3) … … … … … … … …. ∗) = 2 ∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (−𝑥𝑖3 ) = 0
𝜕𝛽2
𝑖=1
𝑖=𝑛

∑(𝑦̂𝑖 − 𝛽1 𝑥𝑖1 − 𝛽2 𝑥𝑖2 − 𝛽3 𝑥𝑖3 ) (𝑥𝑖3 ) = 0


𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑦̂𝑖 𝑥𝑖3 − 𝛽1 ∑ 𝑥𝑖1 𝑥𝑖3 − 𝛽2 ∑ 𝑥𝑖2 𝑥𝑖3 − 𝛽3 ∑ 𝑥𝑖3 2 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Tercera ecuación del nuevo sistema:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


2
𝛽1 ∑ 𝑥𝑖1 𝑥𝑖3 + 𝛽2 ∑ 𝑥𝑖2 𝑥𝑖3 + 𝛽3 ∑ 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖3
𝑖=1 𝑖=1 𝑖=1 𝑖=1

Para formar un sistema de ecuaciones se tiene que tener en cuenta que estas tienen que presentar una solución única,
para una mayor comprensión véase, Grossman Stanley. Álgebra Lineal, Mc Graw-Hill, 6ta edición – Capítulo 4.
Sistema de ecuaciones en sumatoria ordenada:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
𝛽1 ∑ 𝑥𝑖1 + 𝛽2 ∑ 𝑥𝑖1 𝑥𝑖2 + 𝛽3 ∑ 𝑥𝑖1 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖1
𝑖=1 𝑖=1 𝑖=1 𝑖=1

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


2
𝛽1 ∑ 𝑥𝑖1 𝑥𝑖2 + 𝛽2 ∑ 𝑥𝑖2 + 𝛽3 ∑ 𝑥𝑖2 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
𝛽1 ∑ 𝑥𝑖1 𝑥𝑖3 + 𝛽2 ∑ 𝑥𝑖2 𝑥𝑖3 + 𝛽3 ∑ 𝑥𝑖3 = ∑ 𝑦̂𝑖 𝑥𝑖3
𝑖=1 𝑖=1 𝑖=1 𝑖=1

APLICANDO LA REGLA DE CRAMER AL SISTEMA: 𝑨𝒙 = 𝒉

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


2
∑ 𝑥𝑖1 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑦̂𝑖 𝑥𝑖1
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝛽1 𝑖=𝑛

∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 2 ∑ 𝑥𝑖2 𝑥𝑖3 [𝛽2 ] = ∑ 𝑦̂𝑖 𝑥𝑖2


𝑖=1 𝑖=1 𝑖=1 𝛽3 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3 ∑ 𝑥𝑖3 ∑ 𝑦̂𝑖 𝑥𝑖3
[ 𝑖=1 𝑖=1 𝑖=1 ] [ 𝑖=1 ]

Para hallar los parámetros en la regla de cramer se multiplica a las dos partes por la
inversa de la matriz A:
𝑥 = 𝐴−1 ℎ

Hallando “𝛽1 ”:

∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3
|∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2
2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2 𝑥𝑖3 |
∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑥𝑖3
2
𝛽1 =
|𝐴|

 Hallando la 𝐷𝑒𝑡(𝐴):
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
𝑖=𝑛 ∑ 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3
| | | |
𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑ 𝑥𝑖1 2 𝑖=𝑛 𝑖=𝑛
− ∑ 𝑥𝑖1 𝑥𝑖2 𝑖=𝑛 𝑖=𝑛
𝑖=1 | | 𝑖=1 | |
∑ 𝑥𝑖2 𝑥𝑖3 ∑ 𝑥𝑖3 2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖3 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛

𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 2


| |
𝑖=1 𝑖=1
+ ∑ 𝑥𝑖1 𝑥𝑖3 𝑖=𝑛 𝑖=𝑛
𝑖=1 | |
∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3
𝑖=1 𝑖=1
Operando las determinantes de las submatrices de A:
2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑥𝑖1 2 [(∑ 𝑥𝑖2 2 ) (∑ 𝑥𝑖3 2 ) − (∑ 𝑥𝑖2 𝑥𝑖3 ) ]


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
− ∑ 𝑥𝑖1 𝑥𝑖2 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖3 ) (∑ 𝑥𝑖2 𝑥𝑖3 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑥𝑖1 𝑥𝑖3 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖3 ) (∑ 𝑥𝑖2 2 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Agrupando los términos en común y las sumatorias obtenemos:


2 2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑥𝑖1 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 − ∑ 𝑥𝑖1 (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖2 ) ∑ 𝑥𝑖3 2 + ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3
2 2 2 2

𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 − (∑ 𝑥𝑖1 𝑥𝑖3 ) ∑ 𝑥𝑖2 2


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Finalmente la determinante de la matriz A es:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛
2 2 2 2 2
∑ 𝑥𝑖1 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 − ∑ 𝑥𝑖1 (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖2 ) ∑ 𝑥𝑖3 + 2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 − (∑ 𝑥𝑖1 𝑥𝑖3 ) ∑ 𝑥𝑖2 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

 Hallando la 𝐷𝑒𝑡(𝐻): Para esto se tiene que hallar el determinante de la matriz de


cramer que se encuentra en el numerador.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
𝑖=𝑛 ∑ 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 𝑖=𝑛 ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3
| | | |
𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑ 𝑦𝑖 𝑥𝑖1 𝑖=𝑛 𝑖=𝑛
− ∑ 𝑥𝑖1 𝑥𝑖2 𝑖=𝑛 𝑖=𝑛
𝑖=1 | | 𝑖=1 | |
∑ 𝑥𝑖2 𝑥𝑖3 ∑ 𝑥𝑖3 2 ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖3 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛

𝑖=𝑛 ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖2 2


| |
𝑖=1 𝑖=1
+ ∑ 𝑥𝑖1 𝑥𝑖3 𝑖=𝑛 𝑖=𝑛
𝑖=1 | |
∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3
𝑖=1 𝑖=1

Las propiedades de las sumatorias condicionan diferentes pasos para hallar la determinante en una matriz no se debe
de confundir a las propiedades que toman los números enteros en operaciones algebraicas, véase Louis Leithold, El
Cálculo, Séptima edición, Oxford, México, 2008- Capitulo 12; La regla de cramer muy usada en sistemas de ecuaciones
ordinarias para hallar una solución particular y en problemas matriciales, véase Nicholson, W.K.: Álgebra lineal con
aplicaciones, 4ta edición, Mc Graw Hill, España, 2003- Capitulo 7.
Agrupemos los términos evaluando las propiedades de sumatorias:
2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑦𝑖 𝑥𝑖1 [(∑ 𝑥𝑖2 2 ) (∑ 𝑥𝑖3 2 ) − (∑ 𝑥𝑖2 𝑥𝑖3 ) ]


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
− ∑ 𝑥𝑖1 𝑥𝑖2 [(∑ 𝑦𝑖 𝑥𝑖2 ) (∑ 𝑥𝑖3 ) − (∑ 𝑦𝑖 𝑥𝑖3 ) (∑ 𝑥𝑖2 𝑥𝑖3 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑥𝑖1 𝑥𝑖3 [(∑ 𝑦𝑖 𝑥𝑖2 ) (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑦𝑖 𝑥𝑖3 ) (∑ 𝑥𝑖2 2 )]


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Finalmente la determinante de la matriz H es:

2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑦𝑖 𝑥𝑖1 ∑ 𝑥𝑖2 2 ∑ 𝑥𝑖3 2 − ∑ 𝑦𝑖 𝑥𝑖1 (∑ 𝑥𝑖2 𝑥𝑖3 ) − ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖3 2 + ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3 − ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 2


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

EL VALOR DEL PARÁMETRO “𝛽1 ” es:

∑𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛


𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3 − ∑𝑖=1 𝑦𝑖 𝑥𝑖1 (∑𝑖=1 𝑥𝑖2 𝑥𝑖3 ) − ∑𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3
𝑖=𝑛 2

+ ∑𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 + ∑𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3

− ∑𝑖=𝑛 𝑖=𝑛 𝑖=𝑛


𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖2
2
𝛽1 =
∑𝑖=𝑛
𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3 − ∑𝑖=1 𝑥𝑖1 (∑𝑖=1 𝑥𝑖2 𝑥𝑖3 ) − (∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ) ∑𝑖=1 𝑥𝑖3
2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2

+2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 − (∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ) ∑𝑖=1 𝑥𝑖2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2

Hallando “𝛽2 ”:

∑𝑖=𝑛
𝑖=1 𝑥𝑖1
2 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3
|∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2 𝑥𝑖3 |
∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑥𝑖3
2
𝛽2 =
|𝐴|

 La 𝐷𝑒𝑡(𝐴) ya obtenida es:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛
2 2 2 2 2
∑ 𝑥𝑖1 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 − ∑ 𝑥𝑖1 (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖2 ) ∑ 𝑥𝑖3 + 2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 − (∑ 𝑥𝑖1 𝑥𝑖3 ) ∑ 𝑥𝑖2 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

 Hallando la 𝐷𝑒𝑡(𝐻): Para esto se tiene que hallar el determinante de la matriz de


cramer que se encuentra en el numerador.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑖=𝑛 ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3


| | | |
𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑ 𝑥𝑖1 2 𝑖=𝑛 𝑖=𝑛
− ∑ 𝑦𝑖 𝑥𝑖1 𝑖=𝑛 𝑖=𝑛
𝑖=1 | | 𝑖=1 | |
∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖3 2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖3 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛

𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑦𝑖 𝑥𝑖2


| |
𝑖=1 𝑖=1
+ ∑ 𝑥𝑖1 𝑥𝑖3 𝑖=𝑛 𝑖=𝑛
𝑖=1 | |
∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑦𝑖 𝑥𝑖3
𝑖=1 𝑖=1

Ordenando de igual manera los términos:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2 2
∑ 𝑥𝑖1 [(∑ 𝑦𝑖 𝑥𝑖2 ) (∑ 𝑥𝑖3 ) − (∑ 𝑥𝑖2 𝑥𝑖3 ) (∑ 𝑦𝑖 𝑥𝑖3 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
− ∑ 𝑦𝑖 𝑥𝑖1 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖3 ) (∑ 𝑥𝑖2 𝑥𝑖3 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑥𝑖1 𝑥𝑖3 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑦𝑖 𝑥𝑖3 ) − (∑ 𝑦𝑖 𝑥𝑖2 ) (∑ 𝑥𝑖1 𝑥𝑖3 )]


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Finalmente la determinante de la matriz H es:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖1 2 ∑ 𝑥𝑖3 2 − ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 2 ∑ 𝑥𝑖2 𝑥𝑖3 − ∑ 𝑦𝑖 𝑥𝑖1 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖3 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑦𝑖 𝑥𝑖1 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3 + ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 − ∑ 𝑦𝑖 𝑥𝑖2 (∑ 𝑥𝑖1 𝑥𝑖3 )
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

EL VALOR DEL PARÁMETRO “𝛽2 ” es:

∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖3 − ∑𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 − ∑𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3
𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2

+ ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 + ∑𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 − ∑𝑖=1 𝑦𝑖 𝑥𝑖2 (∑𝑖=1 𝑥𝑖1 𝑥𝑖3 )
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2

𝛽2 =
∑𝑖=𝑛
𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3 − ∑𝑖=1 𝑥𝑖1 (∑𝑖=1 𝑥𝑖2 𝑥𝑖3 ) − (∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ) ∑𝑖=1 𝑥𝑖3
2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2

+2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 − (∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ) ∑𝑖=1 𝑥𝑖2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2

Hallando “𝛽3 ”:

∑𝑖=𝑛
𝑖=1 𝑥𝑖1
2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖1
|∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2
2 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖2 |
∑𝑖=𝑛
𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑥𝑖2 𝑥𝑖3 ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖3
𝛽3 =
|𝐴|
 La 𝐷𝑒𝑡(𝐴) ya obtenida es:

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛
2 2 2 2 2
∑ 𝑥𝑖1 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 − ∑ 𝑥𝑖1 (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖2 ) ∑ 𝑥𝑖3 + 2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 − (∑ 𝑥𝑖1 𝑥𝑖3 ) ∑ 𝑥𝑖2 2
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

 Hallando la 𝐷𝑒𝑡(𝐻): Para esto se tiene que hallar el determinante de la matriz de


cramer que se encuentra en el numerador.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2
𝑖=𝑛 ∑ 𝑥𝑖2 ∑ 𝑦𝑖 𝑥𝑖2 𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑦𝑖 𝑥𝑖2
| | | |
𝑖=1 𝑖=1 𝑖=1 𝑖=1
∑ 𝑥𝑖1 2 𝑖=𝑛 𝑖=𝑛
− ∑ 𝑥𝑖1 𝑥𝑖2 𝑖=𝑛 𝑖=𝑛
𝑖=1 | | 𝑖=1 | |
∑ 𝑥𝑖2 𝑥𝑖3 ∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑦𝑖 𝑥𝑖3
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛

𝑖=𝑛 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 2


| |
𝑖=1 𝑖=1
+ ∑ 𝑦𝑖 𝑥𝑖1 𝑖=𝑛 𝑖=𝑛
𝑖=1 | |
∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖2 𝑥𝑖3
𝑖=1 𝑖=1

Operando los términos:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
2 2
∑ 𝑥𝑖1 [(∑ 𝑥𝑖2 ) (∑ 𝑦𝑖 𝑥𝑖3 ) − (∑ 𝑥𝑖2 𝑥𝑖3 ) (∑ 𝑦𝑖 𝑥𝑖2 )]
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

− ∑ 𝑥𝑖1 𝑥𝑖2 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑦𝑖 𝑥𝑖3 ) − (∑ 𝑥𝑖1 𝑥𝑖3 ) (∑ 𝑦𝑖 𝑥𝑖2 )]


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑦𝑖 𝑥𝑖1 [(∑ 𝑥𝑖1 𝑥𝑖2 ) (∑ 𝑥𝑖2 𝑥𝑖3 ) − (∑ 𝑥𝑖2 2 ) (∑ 𝑥𝑖1 𝑥𝑖3 )]


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Finalmente la determinante de la matriz H es:


2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

∑ 𝑦𝑖 𝑥𝑖3 ∑ 𝑥𝑖1 2 ∑ 𝑥𝑖2 2 − ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖1 2 ∑ 𝑥𝑖2 𝑥𝑖3 − ∑ 𝑦𝑖 𝑥𝑖3 (∑ 𝑥𝑖1 𝑥𝑖3 ) + ∑ 𝑦𝑖 𝑥𝑖2 ∑ 𝑥𝑖1 𝑥𝑖3 ∑ 𝑥𝑖1 𝑥𝑖2
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

+ ∑ 𝑦𝑖 𝑥𝑖1 ∑ 𝑥𝑖1 𝑥𝑖2 ∑ 𝑥𝑖2 𝑥𝑖3 − ∑ 𝑦𝑖 𝑥𝑖1 ∑ 𝑥𝑖2 2 ∑ 𝑥𝑖1 𝑥𝑖3


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

EL VALOR DEL PARÁMETRO “𝛽3 ” es:

∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 − ∑𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 − ∑𝑖=1 𝑦𝑖 𝑥𝑖3 (∑𝑖=1 𝑥𝑖1 𝑥𝑖3 )
𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2

+ ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 + ∑𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

− ∑𝑖=𝑛
𝑖=1 𝑦𝑖 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖1 𝑥𝑖3
𝑖=𝑛 2 𝑖=𝑛

𝛽3 =
∑𝑖=𝑛
𝑖=1 𝑥𝑖1 ∑𝑖=1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖3 − ∑𝑖=1 𝑥𝑖1 (∑𝑖=1 𝑥𝑖2 𝑥𝑖3 ) − (∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ) ∑𝑖=1 𝑥𝑖3
2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2 𝑖=𝑛 2

+2 ∑𝑖=𝑛𝑖=1 𝑥𝑖1 𝑥𝑖3 ∑𝑖=1 𝑥𝑖1 𝑥𝑖2 ∑𝑖=1 𝑥𝑖2 𝑥𝑖3 − (∑𝑖=1 𝑥𝑖1 𝑥𝑖3 ) ∑𝑖=1 𝑥𝑖2
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 2 𝑖=𝑛 2
4. Conclusiones
Al haber realizado el siguiente trabajo concluimos que los estimadores de mínimos
cuadrados ordinarios(MCO), satisfacen y cumplen las condiciones de insesgadez y
consistencia del modelo, al encontrarlas en función a la data estadística y a la variable
explicada, esto significa también que si “x” y “y” están positivamente relacionados con
la muestra entonces los parámetros tendrán a ser positivos, también vemos que los
instrumentos matemáticos ayudan en gran parte a nuestro desarrollo en como poder
sustentar con una base sólida nuestras predicciones y análisis que brindamos sin olvidar
claro está la matriz de nuestros estudios que son las problemáticas económicos y/o
sociales que susciten, no olvidemos que tanto la estadística y la matemática son
instrumentos necesarios pero más no primordiales que condicionan el enfoque teórico
que podemos darle, los resultados obtenidos de los parámetros pueden ser
interpretados de manera estadística como matricial para un modelo ya sea de 4, 5, 6 o
generalizando el modelo, la relación que existen entre las diversas variables son de
covarianzas y varianzas y esto nos abre la puerta a una demostración más para
comprobar el ciclo o cadena que cumplen al aumentar un regresor más al modelo.
5. Referencias Bibliográficas
GREENE, W. H. (2003). Econometric Analysis. 7th ed. Upper Saddle River: Prentice
Hall
JOHNSTON, J y J. DiNardo. Métodos de Econometría, Traducción de la 4ta Edición
(Murillo C.F.). Barcelona: Vicens Vives. 2001
Stock, J. y M. Watson (2007). Introduction to Econometrics, 2a Edición. Addison-Wesley.
KENNEDY, Peter (2008) A Guide to Econometrics. [6a ed.] Cambridge, Mass.: The MIT

Novales, A. (1993) “Econometría” Segunda Edición (McGraw-Hill).


Stock, J. y M. Watson (2007). Introduction to Econometrics, 2a Edición. Addison-Wesley
Levin Richard, Estadística para Administración y Economía. Editorial Pearson 7ª
educación. México, 2006.
Louis Leithold, El Cálculo, Séptima edición, Oxford, México, 2008
Murray R. Spiegel, Análisis vectorial, McGraw-Hill, México, Primera Edición, México,
2000.
Grossman Stanley. Álgebra Lineal, Mc Graw-Hill, Sexta edición, México, 2008.

Harshbarger,R., y Reynolds, J.: Matemáticas aplicadas a la administración, economía y


ciencias sociales , Séptima Edición, Mc Graw Hill, Méjico, 2004.
Nicholson, W.K.: Álgebra lineal con aplicaciones, 4ta edición, Mc Graw Hill, España,
2003.
KOLMAN Bernard, Algebra Lineal, Octava edición, Pearson, 2006.
Alpha C. Chiang and Kevin Wainwright. Fundamental Methods of Mathematical
Economics. Mc Graw Hill, 2006.

Knut Sydsaeter and Peter J. Hammond. Mathematics for Economic Analysis. Prentice
Hall, 1995.

View publication stats

También podría gustarte