viernes, 21 de noviembre de 2014

Objetivo General

Objetivo General
Dar a conocer lo realizado en el segundo semestre de la licenciatura en administración en la materia de Matemáticas 2,  además mostrar con imágenes y videos un poco más entendible lo que es la teoría.

Objetivo Personal
Mostrar lo que realicé en este curso y reforzar los conocimientos para mi superación.

Indice

Unidad 1. Introducción al cálculo en dos variables.
1.1 Funciones en dos variables.
1.2 Derivadas parciales.
1.3 Máximos y mínimos de funciones de dos variables.

Unidad 2. Integración
2.1 Antiderivada.
2.2 Integral indefinida.
2.2.1 Integración con condiciones iniciales.
2.3 Fórmulas básicas de integración.
2.3.1 Integral indefinida de una constante.
2.3.2 Integral de una constante por variables.
2.3.3 Integral de x.
2.3.4 Integral de e.
2.3.5 Integral de una constante por una función de x.
2.3.6 Integral de una suma (diferencia) de funciones.
2.3.7 Regla de la potencia.
2.3.7.1 Integrales que incluyen u.
2.3.7.2 Integrales que incluyen funciones exponenciales.
2.3.8 Integrales que incluyen funciones logarítmicas.
2.3.9 Integrales que incluyen (1/u) du.
2.3.10 Integrales que incluyen a.
2.3.11 Integrales por partes.
2.4 Aplicaciones: Determinación de funciones de costo utilidades, consumo y ahorro a partir de sus marginales.

Unidad 3. Integral definida
3.1 Área bajo la curva
3.2 Teorema fundamental del cálculo.
3.3 Propiedades de la integral definida.
3.4 Área entre una y dos curvas.
 3.5 Aplicaciones: Excedente del consumidor y del productor, valor presente y valor futuro.

Unidad 4. Sistemas de ecuaciones lineales y matrices.
4.1 Sistemas de ecuaciones lineales.
4.1.1 Definición.
4.1.2 Sistemas de ecuaciones lineales.
4.1.3 Métodos para resolución de sistemas de ecuaciones lineales.
4.1.4 Sistemas de ecuaciones equivalentes.
4.1.5 Eliminación de Gauss y Gauss-Jordan.
4.1.5.1 Definición de matriz.
4.1.5.2 Expresión matricial de un sistema de ecuaciones lineales.
4.1.5.3 Operaciones elementales sobre renglones.
4.1.5.4 Reducción de Gauss y Gauss-Jordan.
4.1.5.5 Sistemas homogéneos.
4.2 Algebra de matrices.
4.2.1 Tipos de matrices.
4.2.2 Operaciones con matrices.
4.2.3 Propiedades de las operaciones con matrices.
4.2.4 Matriz inversa.
4.3 Determinantes.
4.3.1 Definición de un determinante.
4.3.2 Expansión por cofactores.
4.3.3 Propiedades de los determinantes.
4.3.4 Regla de Cramer.
4.4 Aplicaciones: Modelo insumo-producto, análisis de ventas y comportamiento del consumidor.
Bibliografía básica:

Matemáticas para administración y economía Haeusler Pearson/ Prentice Hall, 10° Edición, 2008.

jueves, 6 de noviembre de 2014

Módulo 4: Sistemas de ecuaciones lineales y matrices.

4.1 Sistemas de ecuaciones lineales y  4.1.1 Definición.
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:
El problema consiste en encontrar los valores desconocidos de las variables x1x2 y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señalesanálisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.

4.1.2 Sistemas de ecuaciones lineales: consistentes, inconsistentes y su representación paramétrica del conjunto  solución.
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
·         Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
·         Sistema compatible determinado cuando tiene una única solución.
·         Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.
·         Sistema incompatible si no tiene solución.




4.1.3 Métodos para resolución de sistemas de ecuaciones lineales, método gráfico, igualación, sustitución, eliminación (sumas y restas).

Método de reducción.

 Consiste en multiplicar ecuaciones por números y sumarlas para reducir el número de incógnitas hasta llegar a ecuaciones con solo una incógnita.



Método de igualación 

El método de igualación consiste en lo siguiente:

Supongamos que tenemos dos ecuaciones:

donde a,b,c, y representan simplemente los miembros de estas ecuaciones ( son expresiones algebraicas ).

De las dos igualdades anteriores se deduce que

Si resulta que una incógnita del sistema de ecuaciones no aparece ni en a ni en b, entonces la ecuación

no contendría dicha incógnita.
  

 Método de sustitución.

Lo que se busca es que esta ecuación dependa de menos incógnitas que las de partida.
4.1.4 Sistemas de ecuaciones equivalentes.
Los sistemas de ecuaciones equivalentes son los que tienen el mismo conjunto de soluciones, aunque tengan distinto número de ecuaciones.

Obtenemos sistemas equivalentes por eliminación de ecuaciones dependientes. Si:

  • Todos los coeficientes son ceros.
  • Dos ecuaciones son iguales.
  • Una ecuación es proporcional a otra.
  • Una ecuación es combinación lineal de otras.


Criterios de equivalencia de sistemas de ecuaciones
 1  Si a ambos miembros de una ecuación de un sistema se les suma o se les resta una misma expresión, el sistema resultante es equivalente.

 2  Si multiplicamos o dividimos ambos miembros de las ecuaciones de un sistema por un número distinto de cero, el sistema resultante es equivalente.

 3  Si sumamos o restamos a una ecuación de un sistema otra ecuación del mismo sistema, el sistema resultante es equivalente al dado.

 4  Si en un sistema se sustituye una ecuación por otra que resulte de sumar las dos ecuaciones del sistema previamente multiplicadas o divididas por números no nulos, resulta otro sistema equivalente al primero.


 5  Si en un sistema se cambia el orden de las ecuaciones o el orden de las incógnitas, resulta otro sistema equivalente.
4.1.5 Eliminación de Gauss y Gauss- Jordan.
En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal.

4.1.5.1 Definición de una matriz.
Se puede definir una matriz, como un conjunto de elementos (números) ordenados en filas y columnas.

Para designar una matriz se emplean letras mayúsculas. Cada uno de los elementos de la matriz  (aij) tiene dos subíndices. El primero   indica la fila a la que pertenece y el segundo  j  la columna.

Esta es una matriz de  m  filas  y  n  columnas, es decir, de dimensión  m x n.  Esta matriz también se puede representar de la forma siguiente:  A = (aij) m x n.




Si el número de filas y de columnas es igual  ( m = n ), entonces se dice que la matriz es de orden  n.

4.1.5.2 Expresión matricial de un sistema de ecuaciones lineales.
Un sistema lineal de m ecuaciones con n incógnitas es un sistema de la forma 

sistema lineal

La expresión matricial del sistema es

sistema matricial 

Donde:

A=matriz de coeficientes es la matriz de coeficientes del sistema.
X=matriz incógnitas es la matriz de incógnitas.
B=teérminos independientes es la matriz de términos independientes. 
Luego un sistema lineal de ecuaciones se puede expresar matricialmente como A·X=B 
Si la matriz de coeficientes es invertible, es decir, posee inversa entonces el sistema tiene solución A·X=B => A-1·A·X=A-1·B => X=A-1·B·.
Por tanto resolver un sistema de ecuaciones a través de matrices consiste en poner el sistema en forma matricial. La solución, si la hay, será el producto de la inversa de la matriz de coeficiente (A-1) por la matriz de términos independientes (B)

4.1.5.3 Operaciones elementales sobre renglones.

Dada una matriz A, de tamaño , las siguientes tres operaciones se llaman operaciones elementales de renglón en la matriz A:

  • Multiplicar o dividir un renglón por un número diferente de cero.
  • Sumar el múltiplo de un renglón a otro renglón.
  • Intercambiar dos renglones.
El proceso de aplicar las operaciones elementales de renglón con el propósito de simplificar una matriz, se  llama reducción por renglones.
En el proceso de aplicar operaciones elementales de renglón, se utilizará la siguiente notación:
  • , significa sustituir el iésimo renglón  por el iésimo renglón multiplicando por C.
  • , significa que se sustituye el j-ésimo renglón por la suma del j-ésimo renglón más el iésimo renglón multiplicado por C.
  • , significa que se intercambian los renglones i y j.

Ejemplo 8.
Si  .
La operación  da origen a la matriz .
La operación  dá origen, si se parte de la matriz A, a la matriz
.

4.1.5.4 Reducción de Gauss y Gauss- Jordan 

Es esencialmente el método de reducción. En el método de Gauss se opera   con ecuaciones, como se hace en el método de reducción, pero uno se ahorra el escribir las incógnitas porque al ir los coeficientes de una misma incógnita siempre en una misma columna, uno sabe en todo momento cual es la incógnita a la que multiplican.

4.1.5.5 Sistemas homogéneos.
Si un sistema de m ecuaciones y n incógnitas tiene todos los términos independientes nulos se dice que es homogéneo.

Sólo admite la solución trivial: x1 = x2 =... = xn = 0.

La condición necesaria y suficiente para que un sistema homogéneo tenga soluciones distintas de la trivial es que el rango de la matriz de los coeficientes sea menor que el nº de incógnitas, o dicho de otra forma, que el determinante de la matriz de los coeficientes sea nulo.

r < n
Observemos que esto se debe a que:

De este modo estamos en el caso del teorema de Rouche en el que r(A)=r(A') y su valor es menor al número de incógnitas, siendo así el sistema compatible indeterminado.

Ejemplos:



4.2 Álgebra de Matrices.

Ahora que hay un nuevo conjunto que es el de las matrices , se le va a dar una estructura, definiendo operaciones y propiedades de éstas.
Igualdad de matrices: MATH MATH ( del mismo orden ) son iguales si sus elementos respectivos son iguales; MATH

MATH $\;4=4\;$ $\ $ MATH
con lo cual se obtienen los valores de $x$ y de $y$ que satisfacen que son $x=-\frac{7}{3}$ $y=2$
Suma de matrices: MATH MATH matrices del mismo orden $m\times n$
$A+B=C_{m\times n}$ con MATH
MATH
Multiplicación de una matriz por un escalar: Sea $k$ un número real ( escalar ) y MATH MATH es decir se obtuvo una matriz donde cada elemento quedó multiplicado por el escalar $k$
MATH
Resta de matrices: MATH MATH MATH
Restar dos matrices del mismo orden es restar sus elementos respectivos
MATH
La matriz 0 es aquella donde todos los elementos son cero
Para las operaciones así definidas se puede establecer : $A,B,C$ matrices $k,t$ escalares
1 ) $A+B=B+A$Conmutatividad
2 ) $A+(B+C)=(A+B)+C$Asociatividad
3 ) $A+\QTR{bf}{0}=A$La matriz 0 es la matriz idéntica para la suma
4 ) $A+(-A)=0$Toda matriz tiene una matriz inversa para la suma
5) $k(A+B)=kA+kB$
6) $k(A-B)=kA-kB$
7) $(k+t)A=kA+tA$
8) $(kt)A=k(tA)$
4.2.1Tipos de matrices (cuadrada,rectangular, triangular, matriz, identidad, matriz, transpuesta).

Matriz Cuadrada
Se dice que una matriz A es cuadrada si tiene el mismo número de filas que de columnas. Ejemplos de matriz cuadrada:

Puede ser una matriz con valores A\in\mathcal{M}_{3\times 3}(\mathbb{R})

   A =
   \begin{bmatrix}
      +4 & +7 & -9 \\
      +2  & +1  & +7 \\
      -5 & +6 & +9
   \end{bmatrix}

O también una matríz con subíndices (Genérica)B\in\mathcal{M}_{3\times 3}(\mathbb{R})

   B =
   \begin{bmatrix}
      b_{11} & b_{12} & b_{13}\\
      b_{21} & b_{22} & b_{23}\\
      b_{31} & b_{32} & b_{33}
   \end{bmatrix}

Puede ser de otro tamaño e incluso con variables C\in\mathcal{M}_{4\times 4}(\mathbb{R})

  C =
   \begin{bmatrix}
      +7 & +6 & 6 & -5\\
      +8 & (3*w) & +3 & -1\\
      -1 & +6 & (w+8) & +8\\
      -3& (6-w) & 0 & -6
   \end{bmatrix}
Se llama diagonal principal de una matriz A a la diagonal formada por los elementos  aii.
Se llama diagonal secundaria a la diagonal del cuadrado que no es la principal, tiene por extremos los elementos  a_{1,n} y  a_{n,1}, como características, todos los elementos tienen la particularidad que sus subíndices suman (n+1), por ejemplo  a_{8,  n-7}, donde 8 + (n - 7 ) = n + 1.

Matriz Rectangular

Es aquella matriz que no es cuadrada, esto es que la cantidad de filas es diferente de la cantidad de columnas.
Puede ser de dos formas; vertical u horizontal.

Matriz Triangular superior

Se dice que una matriz es triangular superior si todos los elementos que están por debajo de la diagonal principal son nulos.

Matriz Identidad

Se llama matriz identidad de orden n y se nota In a una matriz cuadrada de orden n en la que los elementos de la diagonal principal son 1 y el resto 0.
I_3\in\mathcal{M}_{3\times 3}(\mathbb{R})

   I_3 =
   \begin{bmatrix}
      1 & 0 & 0\\
      0 & 1 & 0\\
      0 &0 & 1
   \end{bmatrix}

La matriz identidad puede ser de cualquier tamaño, siempre y cuando sea cuadrada

Matriz Traspuesta

Matriz traspuesta (At). Se llama matriz traspuesta de una matriz A a aquella matriz cuyas filas coinciden con las columnas de A y las columnas coinciden con las filas de A.

  • Para una matriz A \in M_{m\times n}(\mathbb{R}), se define la matriz transpuesta de A=(a_{ij}), denotada por A^t \in M_{n\times m}(\mathbb{R}), como A^t=B=(b_{ij}) \quad b_{ji}=a_{ij} \quad \forall i \in \{1,2,\dots,m\} \text{ , } j \in \{1,2,\dots,n\}. Es decir, las filas de la matriz A corresponden a las columnas de B y viceversa.


A = \begin{bmatrix}
1 & 2 & 3 \\
4 & 5 & 6 \end{bmatrix}
,    \ 
  A^t = \begin{bmatrix}
1 & 4 \\
2 & 5 \\ 
3 & 6 \end{bmatrix}
\

4.2.2 Operaciones con matrices(suma, diferencia, multiplicación).

Suma de matrices.
Dadas dos matrices de la misma dimensión, A=(aij) y B=(bij), se define la matriz suma como: A+B=(aij+bij).
La matriz suma se obtienen sumando los elementos de las dos matrices que ocupan la misma misma posición.

Multiplicación de matrices
Dos matrices A y B son multiplicables si el número de columnas de A coincide con el número de filas de B.
Mm x n x Mn x p = M m x p
El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.
Diferencia de matrices
La resta de dos matrices A y B, es decir (A - B), es igual a la suma de A más el opuesto de B. Por lo tanto podemos hacer: A - B = A + (- B).
En la práctica lo que se hace es cambiarle los signos a todos los elementos de la "segunda" matriz y se suma.

Resta de matrices  
Por último, digamos que si se suma una matriz cualquiera con su opuesta, se obtiene la matriz nula.

Resta de matrices 2  
4.2.3 Propiedades de las operaciones con matrices.

Suma y diferencia.
Interna:
La suma de dos matrices de orden m x n es otra matriz dimensión m x n.
Asociativa:
A + (B + C) = (A + B) + C
Elemento neutro:
A + 0 = A
Donde O es la matriz nula de la misma dimensión que la matriz A.
Elemento opuesto:
A + (−A) = O
La matriz opuesta es aquella en que todos los elementos están cambiados de signo.
Conmutativa:
A + B = B + A
                                             Multiplicación
Interna:
La suma de dos matrices de orden m x n es otra matriz dimensión m x n.
Asociativa:
A + (B + C) = (A + B) + C
Elemento neutro:
A + 0 = A
Donde O es la matriz nula de la misma dimensión que la matriz A.
Elemento opuesto:
A + (−A) = O
La matriz opuesta es aquella en que todos los elementos están cambiados de signo.
Conmutativa:
A + B = B + A
                                                  4.2.4 Matriz inversa.
Dada una matriz A, ¿Podremos encontrar otra matriz B tal que A·B=B·A=I?
Esta matriz B existe aunque no siempre, de existir se le llama matriz inversa de A y se nota A-1. Para que exista la inversa de A, ésta tiene que ser cuadrada pues de lo contrario no se podría hacer el producto por la izquierda y por la derecha, luego cuando hablamos de matrices invertibles estamos hablando de matrices cuadradas.
Condición necesaria y suficiente para que una matriz sea invertible es que no sea singular, es decir, que su determinante sea no nulo |A|  0

Cálculo de la matriz inversa
1. Método de Gauss-Jordan 
Este método consiste en colocar junto a la matriz de partida (A) la matriz identidad (I) y hacer operaciones por filas, afectando esas operaciones tanto a A como a I, con el objeto de transformar la matriz A en la matriz identidad, la matriz resultante de las operaciones sobre I es la inversa de A (A-1).
Las operaciones que podemos hacer sobre las filas son:
a) Sustituir una fila por ella multiplicada por una constante, por ejemplo, sustituimos la fila 2 por ella multiplicada por 3.
b) Permutar dos filas
c) Sustituir una fila por una combinación lineal de ella y otras.

matriz inversa

La matriz inversa de A es matriz inversa
2. A través de la matriz de adjuntos
Dada una matriz A, determinamos la matriz de adjuntos de su traspuesta. Si multiplicamos esa matriz por 1/|A| se obtiene la matriz inversa de A.
matriz inversa por la matriz de adjuntos
4.3 Determinantes
A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por |A| o por determinante (A).
|A| = determinante
4.3.1 Definición de un determinante.

En Matemáticas se define el determinante como una forma multilineal alternada de un cuerpo. Esta definición indica una serie de propiedades matemáticas y generaliza el concepto de determinante haciéndolo aplicable en numerosos campos. Sin embargo, el concepto de determinante o de volumen orientado fue introducido para estudiar el número de soluciones de los sistemas de ecuaciones lineales.

4.3.2 Expansión por cofactores.


Se puede probar el siguiente:

Teorema

Todo determinante es igual a la suma de los productos de los elementos de un renglón (o columna) cualquiera por sus cofactores correspondientes.

Esto es
                                   (2)

es el desarrollo del determinante  D  por  el  renglón  i,  y  similarmente

                                                                    (3)

es el desarrollo del determinante  D  por la columna  k.


Las expresiones  (2)  y  (3)   son fórmulas completamente generales, cualquier determinante de cualquier dimensión se puede evaluar usando estas fórmulas.

Ejemplo 3.

Desarrollar por cofactores del segundo renglón y calcular el valor del determinante  D.

              

Para expandir  D,  por cofactores del segundo renglón,  calculamos primero los cofactores  A21A22 y A23 de los elementos del segundo renglón.
              

Entonces: 

                

4.3.3 Propiedades de los determinantes.

Los determinantes tienen las siguientes propiedades que son útiles para simplificar su evaluación.
En los párrafos siguientes consideramos que  A  es una matriz cuadrada.

Propiedad 1.

Si una matriz  A  tiene un renglón (o una columna) de ceros, el determinante de A es cero.



Ejemplo 1.

            Sea  

Desarrollando por cofactores del primer renglón se tiene

                      

Propiedad 2.


El determinante de una matriz  A   es  igual al determinante de la transpuesta de  A.


 Esto es
                                                 

Ejemplo 2.

                      Sea       

La transpuesta de A  es          


Propiedad 3.


Si se intercambian dos renglones (o dos columnas) de una matriz  A entonces el determinante cambia de signo.


Ejemplo 3.

Sea            con      

Intercambiando los renglones  1  y  2   la matriz queda

           con     

Note que los determinantes se calcularon expandiendo por cofactores de la primera columna.

Propiedad 4.


Si una matriz  A  tiene dos renglones (o dos columnas) iguales  entonces   det A = 0.           

 Ejemplo 4.

Sea           entonces  


Propiedad 5.


Cuando un solo renglón (o columna) de una matriz  A  se multiplica por un escalar  r  el determinante de  la matriz  resultante es  r  veces el determinante de  A,   r det A.

 Ejemplo 5.

Sea       cuyo determinante se calculó en el ejemplo 2,  

Multiplicando el tercer renglón de A por el escalar  r = 3 se tiene la matriz  B siguiente

                                                

cuyo determinante, desarrollado por cofactores de la primera columna de B es     

       

Propiedad 6.


Si un renglón de la matriz  A  se multiplica por un escalar    y se suma a otro renglón  de A, entonces el determinante de la matriz resultante es igual  al determinante de A,  det A.   Lo mismo se cumple para las columnas de A.

 Ejemplo 6.

Sea       cuyo determinante se calculó en el ejemplo 2,  

Multiplicando la segunda columna de A por el escalar  2  y sumándola a la columna 3 se obtiene la matriz B siguiente
  
                      

Expandiendo por cofactores de la primera columna se tiene

        


Propiedad 7.


Si  A  y   son matrices de , el determinante del producto AB es igual al producto de los determinantes de A y de B.


Esto es
                                              

Ejemplo 7.

Sean           y           

con       y      

 El producto      

Y su determinante  es     

Entonces     .

Propiedad 8.

 El determinante de la matriz identidad I es igual a 1 (uno)


Ejemplo 8.

I =                   det I = (1)(1) – (0)(0) = 1

Propiedad  9.


El determinante de una matriz singular, es decir, que no tiene inversa, es igual a 0 (cero)


Ejemplo 9.
J =           |J| = (1)(-12) – (-3)(4) = -12 +12 = 0

Se puede fácilmente comprobar que la matriz J no tiene inversa.

4.3.4 Regla de Cramer.

Esta regla es un método de resolución de sistemas de ecuaciones lineales que se puede utilizar cuando la matriz   A   de coeficientes del sistema es cuadrada y de determinante no nulo. El que   A  sea cuadrada significa que el numero de incógnitas y el numero de ecuaciones coincide.

Cuando el sistema de ecuaciones:
satisface las condiciones arriba mencionadas, su solución viene dada por:


En general
donde   A   es la matriz que se obtiene sustituyendo la i-esima columna de   A   por la matriz de los terminos independientes,   B
  Ejemplo
Consideremos el sistema de ecuaciones:


En este sistema de ecuaciones lineales, la matriz   A   de los coeficientes es una matriz cuadrada y    . Por lo tanto, podemos aplicar la regla de Cramer para resolverlo:




4.4 Aplicaciones :Modelo insumo-producto, análisis de ventas y comportamiento del consumidor.

 A fin de presentar en las siguientes líneas la esencia del modelo de Insumo–Producto, imaginemos una economía sin comercio exterior y sin impuestos, para simplificar la exposición. Pensemos en una matriz insumo–producto esquemática como la que se muestra a continuación (véase Leontief, 1986 y Millery Blair, 1985).
Donde el elemento típico de es Wij, que representa las ventas del sector al jes un vector columna que muestra las ventas del sector a la demanda final y es un vector hilera que muestra los pagos del sector a los factores de producción.
Entonces, la matriz insumo producto se puede representar alternativamente como:
que no es más que una representación de la matriz insumo producto en términos de flujos.
Definamos ahora Wij = aij qj , es decir el coeficiente aij = Wij / qj , y tenemos:
que, expresado en forma matricial, se reduce a:
q = Aq + f
donde la matriz es la matriz de coeficientes cuyo elemento típico es aij.
Hasta ahora, el sistema no es más que una forma contable de representación de flujos en la matriz de Insumo–Producto y no se ha postulado ningún comportamiento económico. Sin embargo, si se piensa en este sistema como un sistema de ecuaciones que representa el funcionamiento de una economía y se hace el supuesto de que los sectores operan con funciones de producción que no permiten sustituibilidad entre insumos (coeficientes aijfijos), podemos entonces imaginar que el sistema describe la formación de la oferta y demandas. Se tiene entonces la representación de un modelo económico en el que los precios de los factores son fijos.
Este sistema tiene la siguiente solución:
donde la matriz es conocida como la matriz inversa de Leontief o matriz de multiplicadores (análoga al multiplicador keynesiano).
La matriz (I –A)–1 es fundamental en el análisis insumo–producto, pues muestra los impactos totales de la demanda de producto de cada sector en el resto de los sectores. Es decir, esta matriz tiene características análogas a las del multiplicador keynesiano pues permite incorporar la interdependencia tecnológica del sistema productivo y rastrear la generación de la demanda final hacia atrás en el sistema. Entonces permite calcular cuánta producción se requiere para atender diversos niveles de demanda final y, en consecuencia, cómo deberían cambiar los niveles de producción para satisfacer esos cambios en la demanda final, los que pueden provenir de, por ejemplo, aumentos en los montos de inversión, pública y/o privada, además de otros componentes de la demanda final. Nótese que, en la medida en que se pueden estimar los niveles de producción requeridos en todos los sectores para satisfacer el cambio en la demanda final, se pueden también estimar los requerimientos de insumos, empleo e ingreso de todos los sectores.

Conclusión: Basarse en las propiedades de las operaciones.

Bibliografía:
Matemáticas para administración y economía Haeusler Pearson/ Prentice Hall, 10° Edición, 2008.