viernes, 11 de mayo de 2012

matlab:resolver una matriz por el metodo de gauus jordan


1.- Se declara la matriz en la variable A




2.-Declaramos las consantes en la variable B






3.-Se resuelve el determinanate de matriz A







4.Se une la matriz con las constantes AB=[AB]







5.-Se ocupa el comando format rationa para que la inversa las pase a fracciones.






6.-Con el comando rrf(A) se resuelve la matriz por el metodo de gauss.






7.-Resolver un sistema lineal inviertiendo la martriz con inv(A)*B

miércoles, 9 de mayo de 2012

Teorema de Rouché–Frobenius


Teorema de Rouché–Frobenius

En álgebra lineal, el teorema de Rouché-Frobenius permite calcular el número de soluciones de un sistema de ecuaciones lineales en función del rango de la matriz de coeficientes y del rango de la matriz ampliada asociadas al sistema.


Lleva el nombre del matemático francés Eugène Rouché quien lo enunció y del matemático alemán Ferdinand Georg Frobenius quien fue uno de los muchos matemáticos que lo demostraron. Así, en otros idiomas[1] recibe otros nombres como el teorema de Rouché-Capelli, el teorema de Rouché-Fontené, el teorema de Kronecker-Capelli, etc.


El teorema establece que para que un sistema de ecuaciones lineales sea compatible es condición necesaria y suficiente que la matriz formada por los coeficientes junto con la ampliada por los términos independientes posea el mismo rango. Por lo demás, el sistema constituido será determinado si su rango coincide con el número de incógnitas ó será indeterminado si posee un valor menor a tal número.

link para vermas.......

martes, 17 de abril de 2012

Gabriel CRAMER


Gabriel CRAMER
(31/07/1704 – 4/01/1752)

BIOGRAFÍA:

Nació el 31 de Julio de 1704 en Ginebra (Suiza).

Hijo de Jean Isaac Cramer (médico en Ginebra) y Anne Mallet. Tuvo tres hermanos y los tres tuvieron grandes éxitos académicos. Uno de ellos fue médico como su padre y el otro, llegó a ser profesor de derecho.

Acabó muy rápido sus estudios y en 1722, solo con 18 años, se sacó un doctorado defendiendo la tesis , “La teoría del sonido”. Dos años más tarde (1724), se presentó a la cátedra de filosofía en la Académie de Calvin en Ginebra. A ésta se presentaron tres personas (Amédée de la Rive, Giovanni Ludovico Calandrini y le propio Cramer) Ante la valía de los tres decidieron dividir la cátedra en dos, una de filosofía pura y otra de matemáticas. La de filosofía se la dieron a Amadée al ser el mayor y los otros dos tuvieron que compartir (tareas y sueldo) la de matemáticas, con el acuerdo que cada dos años uno impartía las clases y el otro viajaba por Europa completando su formación. Esto le dio a Cramer la oportunidad de viajar y conocer a otros matemáticos. Así Cramer enseñaba geometría y mecánica, mientras que Calandrini enseñó álgebra y astronomía.

Siguiendo las condiciones del acuerdo en 1727 emprendió viaje por toda Europa. Se dirigió inmediatamente a Basilea, donde estuvo cinco meses trabajando con Johann Bernoulli y
Euler. Poco después se dirigió a San Petersburgo para estar con Daniel Bernoulli. Luego viajó a Inglaterra donde se reunió Halley, de Moivre y Stirling, y otros matemáticos. Desde Inglaterra dirigió a Leiden, donde se reunió con de Gravesan, a continuación, se trasladó a París, donde mantuvo conversaciones con Fontenelle, Maupertuis, Buffon, Clairaut, y otros.

En 1729, regresó a Ginebra, y pronto presentó un trabajo, “Quelle est la causa de la elliptique figura des planètes et de la mobilité de leurs aphélies”, para el premio establecido por la “Academia de París” de 1730. Obtuvo el segundo premio ya que el primero lo consiguió Johann Bernoulli.

En 1734 los "mellizos" se separaron cuando Calandrini fue designado para la cátedra de filosofía y Cramer se convirtió en el único titular de la Cátedra de Matemáticas.

Se dedicó también a otros aspectos, trabajando en el Gobierno local, eso sí, utilizando siempre sus conocimientos matemáticos y emprendió nuevos trabajos como construcción de edificios, excavaciones y actuó como archivista.

En 1747, viajó de nuevo a París, donde se volvió a encontrar y retomó su amistad con Fontenelle y D’Alembert.

Johann Bernoulli muere en 1748, y Cramer se encargó de publicar su Obras Completas, ante la petición (antes de su muerte) de Johann. También publicó ese mismo año su obra más famosa “Introduction à l'analyse des lignes Courbes algébraique”.

El exceso de trabajo provocó (junto a una caída de su coche de caballos) que su salud decayera de forma repentina. Pasó dos meses en la cama de recuperación, y su médico le recomendó que pasara un periodo de calma en el sur de Francia para recuperar completamente su fuerza.

Dejando de Ginebra el 21 de diciembre 1751 comenzó su viaje, pero murió dos semanas más tarde, el 4 de enero de 1752 en Bagnols-sur-Cèze, cerca de Avignon (sur de Francia).

domingo, 18 de marzo de 2012

PROPIEDADES DE LOS DETERMINATES

Historia de los determinantes
Los determinantes fueron introducidos en Occidente a partir del siglo XVI, esto es, antes que las matrices, que no aparecieron hasta el siglo XIX. Conviene recordar que los chinos (Hui, Liu. iuzhang Suanshu o Los nueve capítulos del arte matemático. ) fueron los primeros en utilizar la tabla de ceros y en aplicar un algoritmo que, desde el Siglo XIX, se conoce con el nombre de Eliminación de Gauss-Jordan.
La historia de los determinantes
Los determinantes hicieron su aparición en las matemáticas más de un siglo antes que las matrices. El término matriz fue creado por James Joseph Sylvester, tratando de dar a entender que era “la madre de los determinantes”.
Algunos de los más grandes matemáticos de los siglos XVIII y XIX contribuyeron al desarrollo de las propiedades de los determinantes. La mayoría de los historiadores coinciden en afirmar que la teoría de los determinantes se originó con el matemático alemán Gottfried Wilhelm Leibniz (1646-1716) quien fue con Newton, el co inventor del cálculo diferencial e integral. Leibniz empleó los determinantes en 1693 con relación a los sistemas de ecuaciones lineales simultáneas. No obstante hay quienes creen que el matemático japonés Seki Kowa hizo lo mismo unos 10 años antes.
Las contribuciones más prolíficas a la teoría de los determinantes fueron las del matemático francés Agustin-Louis Cauchy (1789-1857). Cauchy escribió, en 1812 una memoria de 84 páginas que contenía la primera demostración del teorema detAB=detA detB. En 1840 Cauchy hizo muchas otras contribuciones a las matemáticas. En su texto de cálculo de 1829 Leçons sur le calcul différential, dio la primera definición razonablemente clara de límite.
Cauchy escribió ampliamente tanto en las matemáticas puras como en las aplicadas. Solo Euler escribió más. Cauchy hizo contribuciones en varias áreas, incluyendo la teoría de las funciones reales y complejas, la teoría de la probabilidad, geometría, teoría de propagación de las ondas y las series infinitas.
A Cauchy se le reconoce el haber establecido nuevos niveles de rigor en las publicaciones matemáticas. Después de Cauchy, fue mucho más difícil publicar escritos basándose en la intuición; se exigió una estricta adhesión a las demostraciones rigurosas.
El volumen de las publicaciones de Cauchy fue abrumador . Cuando la Academis Francesa de Ciencias comenzó a publicar su revista Comptes Rendus en 1835, Cauchy envió su obra para que se publicara, en poco tiempo los gastos de impresión se hicieron tan grandes, solo por la obra de Cauchy, que la academia impuso un límite de cuatro cuartillas por cada documento a ser publicado.
Hay algunos otros matemáticos que merecen ser mencionados aquí. El desarrollo de un determinante por cofactores fue empleado por primera vez por el matemático francés Pierre de Laplace (1749-1827). Laplace es mejor conocido por la transformación que lleva su nombre que se estudia en los cursos de matemáticas aplicadas.
Un contribuyente principal de la teoría de los determinantes (estando solo Cauchy antes que él) fue el matemático alemán Carl Gustav Jacobi (1804-1851). Fue con él con quien la palabra “determinante” ganó la aceptación definitiva. Lo primero en lo que Jacobi empleó los determinantes fue en las funciones, al establecer la teoría de las funciones de varias variables. Sylvester llamó más tarde jacobiano a éste determinante.

Métodos de cálculo
Para el cálculo de determinantes de matrices de cualquier orden, existe una regla recursiva (teorema de Laplace) que reduce el cálculo a sumas y restas de varios determinantes de un orden inferior. Este proceso se puede repetir tantas veces como sea necesario hasta reducir el problema al cálculo de múltiples determinantes de orden tan pequeño como se quiera. Sabiendo que el determinante de un escalar es el propio escalar, es posible calcular el determinante de cualquier matriz aplicando dicho teorema.
Además de esta regla, para calcular determinantes de matrices de cualquier orden podemos usar otra definición de determinante conocida como Fórmula de Leibniz.
La fórmula de Leibniz para el determinante de una matriz cuadrada A de orden n es:
\det(A) = \sum_{\sigma \in P_n} \sgn(\sigma) \prod_{i=1}^n a_{i,\sigma_i}.\
donde la suma se calcula sobre todas las permutaciónes σ del conjunto {1,2,...,n}. La posición del elemento i después de la permutación σ se denota como σi. El conjunto de todas las permutaciones es Pn. Para cada σ, sgn(σ) es la signatura de σ, esto es +1 si la permutación es par y −1 si es impar (ver Paridad de permutaciones).
En cualquiera de los n! sumandos, el término
\prod_{i=1}^n a_{i, \sigma_i}\
denota el producto de las entradas en la posición (i, σi), donde i va desde 1 hasta n:
a_{1, \sigma_1} \cdot a_{2, \sigma_2} \cdots  a_{n, \sigma_n}.\
La fórmula de Leibniz es útil como definición de determinante; pero, excepto en casos muy pequeños, no es una forma práctica de calcularlo: hay que llevar a cabo n! productos de n factores y sumar n! elementos. No se suele usar para calcular el determinante si la matriz tiene más de tres filas


Matrices de orden inferior
El caso de matrices de orden inferior (orden 1, 2 ó 3) es tan sencillo que su determinante se calcula con sencillas reglas conocidas. Dichas reglas son también deducibles del teorema de Laplace.
Una matriz de orden uno, es un caso trivial, pero lo trataremos para completar todos los casos. Una matriz de orden uno puede ser tratada como un escalar, pero aquí la consideraremos una matriz cuadrada de orden uno:

   A =
   \begin{pmatrix}
      a_{11}
   \end{pmatrix}
El valor del determinante es igual al único termino de la matriz:

   \det A =
   \det 
   \begin{pmatrix}
      a_{11}
   \end{pmatrix}
   =
   \begin{vmatrix}
      a_{11}
   \end{vmatrix}
   =
   a_{1,1}
Los determinantes de una matriz de orden 2:

   A =
   \begin{pmatrix}
      a_{11} & a_{12} \\
      a_{21} & a_{22}
   \end{pmatrix}
se calculan con la siguiente fórmula:

   \det 
   \begin{pmatrix}
      a_{11} & a_{12} \\
      a_{21} & a_{22}
   \end{pmatrix}
   =
   \begin{vmatrix}
      a_{11} & a_{12} \\
      a_{21} & a_{22}
   \end{vmatrix}
   =
     a_{1,1} a_{2,2}
   - a_{1,2} a_{2,1}
Dada una matriz de orden 3:

   A =
   \begin{pmatrix}
      a_{11} & a_{12} & a_{13} \\
      a_{21} & a_{22} & a_{23} \\
      a_{31} & a_{32} & a_{33}
   \end{pmatrix}
En determinante de orden 3 se calcula mediante la regla de Sarrus:

   \det 
   \begin{pmatrix}
      a_{11} & a_{12} & a_{13} \\
      a_{21} & a_{22} & a_{23} \\
      a_{31} & a_{32} & a_{33}
   \end{pmatrix}
   =
   \begin{vmatrix}
      a_{11} & a_{12} & a_{13} \\
      a_{21} & a_{22} & a_{23} \\
      a_{31} & a_{32} & a_{33}
   \end{vmatrix}
   =

   = \;
     a_{1,1} a_{2,2} a_{3,3} 
   + a_{1,2} a_{2,3} a_{3,1} 
   + a_{1,3} a_{2,1} a_{3,2} 
   - (a_{1,3} a_{2,2} a_{3,1} 
   + a_{1,2} a_{2,1} a_{3,3} 
   + a_{1,1} a_{2,3} a_{3,2})

 Determinantes de orden superior

El determinante de orden n, puede desarrollarse a partir de una fila o columna, reduciendo el problema al cálculo de un determinante de orden n-1. Para ello se toma una fila o columna cualquiera, multiplicando cada elemento por su adjunto (es decir, el determinante de la matriz que se obtiene eliminando la fila y columna correspondiente a dicho elemento, multiplicado por (-1)i+j donde i es el número de fila y j el número de columna). La suma de todos los productos es igual al determinante.
En caso de un determinante de orden 4, se obtienen directamente determinantes de orden 3 que podrán ser calculados por la regla de Sarrus. En cambio, en los determinantes de orden superior, como por ejemplo n = 5, al desarrollar los elementos de una línea, obtendremos determinantes de orden 4, que a su vez se deberán desarrollar en por el mismo método, para obtener determinantes de orden 3. Por ejemplo, para obtener con el método especificado un determinante de orden 4, se deben calcular 4 determinantes de orden 3. En cambio, si previamente se logran tres ceros en una fila o columna, bastara con calcular solo un determinante de orden 3 (ya que los demás determinantes estarán multiplicados por 0, lo que los anula).
La cantidad de operaciones aumenta muy rápidamente. En el peor de los casos (sin obtener ceros en filas y columnas), para un determinante de orden 4 se deberán desarrollar 4 determinates de orden 3. En un determinante de orden 5, se obtienen 5 determinates de orden 4 a desarrollar, dándonos 20 determinates de orden 3. El número de determinates de orden 3 que se obtienen en el desarrollo de un determinante de orden n es igual a (n!) \over (3!)
Por ejemplo, mediante este método, para un determinante de orden 10 se deberán calcular 10 x 9 x 8 x 7 x 6 x 5 x 4 = 604.800 determinantes de orden 3.
También puede utilizarse el Método de eliminación Gaussiana, para convertir la matriz en una matriz triangular. Si bien el proceso puede parecer tedioso, estará muy lejos de los 14.529.715.200 de determinantes de orden 3 necesarios para calcular el determinante de una matriz de orden 14.

 Métodos numéricos

Para reducir el coste computacional de los determinantes a la vez que mejorar su estabilidad frente a errores de redondeo, se aplica la regla de Chio, que permite utilizar métodos de triangularización de la matriz reduciendo con ello el cálculo del determinante al producto de los elementos de la diagonal de la matriz resultante. Para la triangularización se puede utilizar cualquier método conocido que sea numéricamente estable. Éstos suelen basarse en el uso de matrices ortonormales, como ocurre con el método de Gauss o con el uso de reflexiones de Householder o rotaciones de Givens.
La precisión limitada del cálculo numérico produce incertidumbre en ocasiones en los resultados de este método. Un valor muy pequeño del determinante podría ser el resultado de una matriz de rango deficiente, aunque no lo es necesariamente. Por otra parte, para matrices casi singulares el resultado no siempre es preciso. Es necesario comprobar el rango de la matriz con otros métodos o calcular el número de condición de la matriz para determinar la fiabilidad del resultado.

 Determinantes en dimensión infinita

Bajo ciertas condiciones puede definirse el determinante de aplicaciones lineales de un espacio vectorial de Banach de dimensión infinita. En concreto en el determinante está definido para los operades de la clase de determinante que puede a partir de los operadores de la clase de traza. Un ejemplo notable fue el determinante de Fredholm que éste definió en conexión con su estudio de la ecuación integral que lleva su nombre:
(*) f(x) = \phi(x) + \int_0^1 K(x,y)\phi(y)\ dy
Donde:
f(x)\, es una función conocida
\phi(x)\, es una la función incógnita
K(x,y)\, es una función conocida llamada núcleo, que da lugar al siguiente operador lineal compacto y de traza finita en el espacio de Hilbert de funciones de cuadrado integrable en el intervalo [0,1]:
\hat{K}:L^2[0,1]\to L^2[0,1], \quad (\hat{K}\phi)(x) = \int_0^1 K(x,y)\phi(y)\ dy :
La ecuación (*) tiene solución si el determinante de Fredholm \scriptstyle \det(I+\hat{K}) no se anula. El determinante de Fredholm en este caso generaliza al determinante en dimensión finita y puede calcularse explícitamente mediante:
\det(I+\hat{K}) = \sum_{k=0}^\infty \frac{1}{k!}\int_0^1\dots\int_0^1
\det[K(x_i,x_j)]_{1\le i, j \le k}\ dx_1\dots dx_k
La propia solcuión de la ecuación (*) puede escribirse de manera simple en términos del determinante cuando este no se anula.

 Primeros ejemplos: áreas y volúmenes

El cálculo de áreas y volúmenes bajo forma de determinantes en espacios euclídeos aparecen como casos particulares de una noción más general de determinante. La letra mayúscula D (Det) se reserva a veces para distinguirlos.

 Determinante de dos vectores en el plano euclídeo

 
Fig. 1. El determinante es el área azul orientada.
Sea P el plano euclídeo. El determinante de los vectores X y X' se obtiene con la expresión analítica
\det(X,X')=\begin{vmatrix} x & x' \\ y & y'\end{vmatrix}=xy'-yx'
o, de manera equivalente, por la expresión geométrica
\det(X,X')=\|X\|\cdot\|X'\|\cdot\sin \theta
en la cual \theta es el ángulo orientado formado por los vectores X y X'.

 Propiedades

  • El valor absoluto del determinante es igual a la superficie del paralelogramo definido por X y X' ( X\sin \theta es en efecto la altura del paralelogramo, por lo que A = Base × Altura).
  • El determinante es nulo si y sólo si los dos vectores son colineales (el paralelogramo se convierte en una línea).
  • Su signo es estrictamente positivo si y sólo si la medida del ángulo (X, X ') se encuentra en ]0,\pi[.
  • La aplicación del determinante es bilineal: la linearidad respecto al primer vector se escribe
\det(aX+bY,X')=a\det(X,X')+b\det(Y,X')\;
y respecto al segundo
\det(X,aX'+bY')=a\det(X,X')+b\det(X,Y')\;
Fig. 2.Suma de las áreas de dos paralelogramos adyacentes.
La figura 2, en el plano, ilustra un caso particular de esta fórmula. Representa dos paralelogramos adyacentes, uno definido por los vectores u y v (en verde), y otro por los vectores u' y v (en azul). Es fácil ver sobre este ejemplo el área del paralelogramo definido por los vectores u+u' y v (en gris): es igual a la suma de los dos paralelogramos precedentes a la cual se sustrae el área de un triángulo y se añade el área de otro triángulo. Ambos triángulos se corresponden por translación y la fórmula siguiente se verifica Det (u+u', v)=Det (u, v)+Det (u', v).
El dibujo corresponde a un caso particular de la fórmula de bilinealidad ya que las orientaciones han sido elegidas de manera que las áreas tengan el mismo signo, aunque ayuda a comprender el contenido geométrico.

Generalización

Es posible definir la noción de determinante en un plano euclídeo orientado con una base ortonormal directa B utilizando las coordenadas de los vectores en esta base. El cálculo del determinante da el mismo resultado sea cual sea la base ortonormal directa elegida para el cálculo.

 Determinante de tres vectores en el espacio euclídeo

Sea E el espacio euclídeo orientado de dimensión 3. El determinante de tres vectores de E se da por
\det(X,X ',X '')=\begin{vmatrix} x & x' &x''\\ y & y'&y''\\ z&z'&z''
\end{vmatrix}=x \begin{vmatrix} y' & y'' \\ z' & z''\end{vmatrix} - x' \begin{vmatrix} y & y'' \\ z & z''\end{vmatrix} + x'' \begin{vmatrix} y & y' \\ z & z'\end{vmatrix} = xy'z''+x'y''z+x''yz'-xy''z'-x'yz''-x''y'z.
Fig. 3. Ilustración gráfica de la trilinealidad.
Este determinante lleva el nombre de producto mixto.

 Propiedades

  • El valor absoluto del determinante es igual al volumen de paralelepípedo definido por los tres vectores.
  • El determinante es nulo si y sólo si los tres vectores se encuentran en un mismo plano (paralelepípedo "plano").
  • La aplicación determinante es trilineal: sobre todo
 \det(aX+bY,X ',X '')=a\det(X,X ',X '')+b\det(Y,X ',X '')\,
Una ilustración geométrica de esta propiedad se da en la figura 3 con dos paralelepípedos adyacentes, es decir con una cara común. La igualdad siguiente es entonces intuitiva:
\det(u+u', v,w)=\det(u, v,w)+\det(u', v,w)\,.

Propiedades

  • El determinante de una matriz es un invariante algebraico, lo cual implica que dada una aplicación lineal todas las matrices que la represente tendrán el mismo determinante. Eso permite definir el valor del determinante no sólo para matrices sino también para aplicaciones lineales.
  • El determinante de una matriz y el de su traspuesta coinciden: \det(A^t)=\det(A)\,

 Determinante del producto

  • Una propiedad fundamental del determinante es su comportamiento multiplicativo frente al producto de matrices:
\det(\mathbf{AB}) = \det(\mathbf{A})\cdot\det(\mathbf{B})
Esta propiedad es más trascendente de lo que parece y es muy útil en el cálculo de determinantes. En efecto, supongamos que queremos calcular el determinante de la matriz \mathbf{A} y que \mathbf{U} es cualquier matriz con derminante uno (el elemento neutro respecto al producto del cuerpo). En este caso, se verifica que:
 
\det(\mathbf{A}) \; = \; \det(\mathbf{A})\cdot\det(\mathbf{U}) \; = \; \det(\mathbf{AU}) 
 \quad \quad
 \det(\mathbf{A}) \;= \;\det(\mathbf{U})\cdot\det(\mathbf{A}) \; = \; \det(\mathbf{UA}) 
\,
Una aplicación lineal entre dos espacios vectoriales de dimensión finita se puede representar mediante una matriz. La matriz asociada a la composición de aplicaciones lineales entre espacios de dimensión finita se puede calcular mediante el producto de matrices. Dadas dos aplicaciones lineales u\, y v\,, se cumple lo siguiente:
\det(u\circ v) = \det(u)\cdot\det(v)

Matrices en bloques

Sean A, B, C, D matrices n\times n, n\times m, m\times n, m\times m respectivamente. Entonces
\det\begin{pmatrix}A& 0\\ C& D\end{pmatrix} = \det\begin{pmatrix}A& B\\ 0& D\end{pmatrix} = \det(A) \det(D) . Esto se puede ver de la formula de Leibiniz Leibniz formula. Empleando la siguiente identidad
\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \begin{pmatrix}A& 0\\ C& I\end{pmatrix} \begin{pmatrix}I& A^{-1} B\\ 0& D - C A^{-1} B\end{pmatrix}
vemos que para una matriz general
\det\begin{pmatrix}A& B\\ C& D\end{pmatrix} = \det(A) \det(D - C A^{-1} B) .
Análogamente, se puede obtener una identidad similar con \det(D) factorizado.
Si d_{ij} son matrices diagonales,
\det\begin{pmatrix}d_{11} & \ldots & d_{1c}\\ \vdots & & \vdots\\ d_{r1} & \ldots & d_{rc} \end{pmatrix} =
\det \begin{pmatrix}\det(d_{11}) & \ldots & \det(d_{1c})\\ \vdots & & \vdots\\ \det(d_{r1}) & \ldots & \det(d_{rc}) \end{pmatrix}.
]

 Derivada de la función determinante

La función determinante puede definirse sobre el espacio vectorial formado por matrices cuadradas de orden n. Dicho espacio vectorial puede convertirse fácilmente en un espacio vectorial normado mediante la norma matricial, gracias a lo cual dicho espacio se convierte en un espacio métrico y topológico, donde se pueden definir límites e incluso derivadas. El determinante puede definirse como un morfismo del álgebra de las matrices al conjunto de los elementos del cuerpo sobre el que se definen las matrices:
\det: M_{n\times n}(\mathbb{K}) \to \mathbb{K}
El diferencial de la función derivada (o jacobiana) viene en términos de la matriz de adjuntos:
\frac{\part \det(\mathbf{A})}{\part \mathbf{H}}:= D(\det)|_\mathbf{A}(\mathbf{H}) = 
\lim_{\epsilon \to 0} \frac{\det(\mathbf{A+\epsilon H}) - \det(\mathbf{A})}{\epsilon} =
\mbox{tr}\left(\mbox{adj}(\mathbf{A})\ \mathbf{H} \right)
Donde:
\mbox{adj}(\mathbf{A}) es la matriz de adjuntos.
\mbox{tr}(\cdot), es la traza de la matriz.

 Menores de una matriz

Además del determinante de una matriz cuadrada, dada una matriz se pueden definir otras magnitudes mediante el empleo de determinantes relacionadas con las propiedades algebraicas de dicha matriz. En concreto dada una matriz cuadrada o rectangular se pueden definir los llamados determinantes menores de orden r a partir del determinante de submatrices cuadradas de rxr de la matriz original. Dada la matriz \mathbf{A} = [a_{ij}]:
\mathbf{A}=
\begin{bmatrix} a_{11} & \dots & a_{1n}\\
\dots & \dots & \dots\\ a_{m1} & \dots & a_{mn} \end{bmatrix}
Se define cualquier menor de rango r como:
\begin{vmatrix} a_{i_1j_1} & \dots & a_{i_1j_r}\\
\dots & \dots & \dots\\ a_{i_rj_1} & \dots & a_{i_rj_r} \end{vmatrix},
\qquad \begin{cases} 1\le i_1 < i_2 < \dots < i_r \le n\\ 
1\le j_1 < j_2 < \dots < j_r \le m \end{cases}
Debe notarse que en general existirá un número elevado de menores de orden r, de hecho el número de menores de orden r de una matriz mxn viene dado por:
\mbox{Min}_r^{m\times n}={m \choose r}{n \choose r}
Una propiedad interesante es que el rango coincide con el orden del menor no nulo más grande posible, siendo el cálculo de menores una de los medios más empleados para calcular el rango de una matriz o de una aplicación lineal.