Matriz hessiana

En matemática, la matriz hessiana de un campo escalar f : R n R {\displaystyle f:\mathbb {R} ^{n}\longrightarrow \mathbb {R} } es la matriz cuadrada de tamaño n × n {\displaystyle n\times n} que tiene como entradas las derivadas parciales de segundo orden.

Esta matriz debe su nombre al matemático alemán Ludwig Otto Hesse y fue introducida por James Joseph Sylvester.

Definición

Sea f : R n R {\displaystyle f:\mathbb {R} ^{n}\longrightarrow \mathbb {R} } un campo escalar cuyas derivadas parciales de segundo orden existen.

La matriz Hessiana de f {\displaystyle f} , denotada por Hess f ( x ) {\displaystyle {\text{Hess}}f(x)} , H f ( x ) {\displaystyle H_{f}(x)} , es una matriz cuadrada n × n {\displaystyle n\times n} definida como:

Hess f ( x ) = ( 2 f x 1 2 ( x ) 2 f x 1 x 2 ( x ) 2 f x 1 x n ( x ) 2 f x 2 x 1 ( x ) 2 f x 2 2 ( x ) 2 f x 2 x n ( x ) 2 f x n x 1 ( x ) 2 f x n x 2 ( x ) 2 f x n 2 ( x ) ) {\displaystyle {\text{Hess}}f(x)={\begin{pmatrix}\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}^{2}}}(x)&\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\partial x_{2}}}(x)&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{1}\partial x_{n}}}(x)\\\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\partial x_{1}}}(x)&\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}^{2}}}(x)&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{2}\partial x_{n}}}(x)\\\vdots &\vdots &\ddots &\vdots \\\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\partial x_{1}}}(x)&\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}\partial x_{2}}}(x)&\cdots &\displaystyle {\frac {\partial ^{2}f}{\partial x_{n}^{2}}}(x)\end{pmatrix}}}

El determinante de la matriz Hessiana es conocido como determinante Hessiano.

Además, se tiene que si f : Ω R {\displaystyle f:\Omega \longrightarrow \mathbb {R} } con Ω R n {\displaystyle \Omega \subseteq \mathbb {R} ^{n}} un conjunto abierto y f C 2 ( Ω ) {\displaystyle f\in {\mathcal {C}}^{2}(\Omega )} , entonces la matriz hessiana está bien definida, y en virtud del teorema de Clairaut (o teorema de Schwarz), es una matriz simétrica.

Aplicaciones

Concavidad/Convexidad

Sea Ω R n {\displaystyle \Omega \subseteq \mathbb {R} ^{n}} un conjunto abierto y f : Ω R {\displaystyle f:\Omega \longrightarrow \mathbb {R} } una función de clase f C 2 ( Ω ) {\displaystyle f\in {\mathcal {C}}^{2}(\Omega )} :

  1. f {\displaystyle f\,} es convexa si y solo si x Ω {\displaystyle \forall x\in \Omega } , la matriz hessiana Hess f ( x ) {\displaystyle {\text{Hess}}f(x)} es semidefinida positiva.
  2. Si x Ω {\displaystyle \forall x\in \Omega } la matriz hessiana Hess f ( x ) {\displaystyle {\text{Hess}}f(x)} es positiva-definida, entonces f {\displaystyle f} es estrictamente convexa.
    • Si f {\displaystyle f} es una función convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un mínimo local.
  3. f {\displaystyle f} es cóncava si y solo si x Ω {\displaystyle \forall x\in \Omega } , la matriz hessiana Hess f ( x ) {\displaystyle {\text{Hess}}f(x)} es semidefinida negativa.
  4. Si x Ω {\displaystyle \forall x\in \Omega } la matriz hessiana Hess f ( x ) {\displaystyle {\text{Hess}}f(x)} es negativa-definida, entonces f {\displaystyle f} es estrictamente cóncava.
    • Si f {\displaystyle f\,} es una función cóncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un máximo local.

Método para determinar el carácter de los puntos críticos

Se verá a continuación cómo hallar los puntos críticos (máximos, mínimos y puntos de inflexión -o silla o de ensilladura) de una función f {\displaystyle f} de múltiples variables.

  1. Se igualan las derivadas parciales primeras a cero.
  2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos críticos.
  3. Se construye la matriz hessiana (derivadas segundas parciales).
  4. Se sustituyen los puntos críticos en la matriz hessiana para obtener tantas matrices como puntos críticos tengamos.
  5. Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos críticos, estos puntos se pueden evaluar mediante el criterio de Sylvester:
  • Si todos los menores principales son mayores que 0, o sea, |Hi|>0 para i = 1 , 2 , , n {\displaystyle i=1,2,\dots ,n} f {\displaystyle f} alcanza el mínimo relativo en el punto.
  • Si los menores principales de índice par son mayores que 0 y los de índice impar son menores que 0, o sea, |Himpar|<0 y |Hpar|>0 ∀i=1,...,n ƒ alcanza el máximo relativo en el punto.
  • Si los menores principales son distintos de 0, es decir, |Hi|≠0 ∀i=1,...,n y no es ninguno de los casos anteriores, es un punto de silla.
Cuando algún |Hi|=0, no se puede determinar nada, por lo que se debe hacer un estudio particular. Para n=2 el criterio se mejora en el sentido de que si |H1|=0 y |H2|<0 f {\displaystyle f} tiene un punto de silla en el punto.


De forma análoga podemos evaluar los extremos relativos de un campo escalar f : R n R {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } estudiando los autovalores de su matriz hessiana.

Teorema 9.6 (CALCULUS volumen 2. Tom M.Apostol): "Sea f {\displaystyle f} un campo escalar con derivadas parciales segundas continuas Dijf en una n {\displaystyle n} -bola B(a), y designemos con H ( a ) {\displaystyle H({\textbf {a}})} la matriz hessiana en el punto estacionario a. Tenemos entonces:

  1. Si todos los autovalores de H ( a ) {\displaystyle H({\textbf {a}})} son positivos, f {\displaystyle f} tiene un mínimo relativo en a.
  2. Si todos los autovalores de H ( a ) {\displaystyle H({\textbf {a}})} son negativos, f {\displaystyle f} tiene un máximo relativo en a.
  3. Si H ( a ) {\displaystyle H({\textbf {a}})} tiene autovalores positivos y negativos, f {\displaystyle f} tiene un punto de ensilladura en a."


El caso particular en el que la función a evaluar grafica una superficie en R 3 {\displaystyle \mathbb {R} ^{3}} , z = f ( x , y ) {\displaystyle z=f(x,y)} y tiene segundas derivadas continuas, se pueden estudiar los puntos críticos evaluando la matriz hessiana en ellos y luego utilizando el criterio de determinación de extremos. Si ( a , b ) {\displaystyle (a,b)} es un punto crítico de f {\displaystyle f} , ( f x ( a , b ) = 0 {\displaystyle f_{x}(a,b)=0} y f y ( a , b ) = 0 {\displaystyle f_{y}(a,b)=0} ) entonces:

- Si el determinante de la matriz hessiana evaluado en el punto ( a , b ) {\displaystyle (a,b)} es mayor que 0, |H|>0, y f x x ( a , b ) < 0 {\displaystyle f_{xx}(a,b)<0} , decimos que f {\displaystyle f} alcanza un máximo relativo en ( a , b ) {\displaystyle (a,b)} .

- Si el determinante de la matriz hessiana evaluado en el punto ( a , b ) {\displaystyle (a,b)} es mayor que 0, |H|>0, y f x x ( a , b ) > 0 {\displaystyle f_{xx}(a,b)>0} , decimos que f {\displaystyle f} alcanza un mínimo relativo en ( a , b ) {\displaystyle (a,b)} .

- Si el determinante de la matriz hessiana evaluado en el punto ( a , b ) {\displaystyle (a,b)} es menor que 0, |H|<0, decimos que f ( a , b ) {\displaystyle f(a,b)} es un Punto de silla.

- Si el determinante de la matriz hessiana evaluado en el punto ( a , b ) {\displaystyle (a,b)} es igual a 0, |H|=0, el criterio no concluye resultado alguno.

Generalizaciones

Matriz hessiana orlada

La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimización condicionada.

Dada la función f : R n R {\displaystyle f:\mathbb {R} ^{n}\longrightarrow \mathbb {R} } y la condición g ( x ) = c {\displaystyle g(x)=c} , la matriz hessiana orlada de la función lagrangiana Λ ( x , λ ) = f ( x ) + λ [ g ( x ) c ] {\displaystyle \Lambda (x,\lambda )=f(x)+\lambda [g(x)-c]} asociada al problema de extremos condicionados es:

Hess Λ ( x , λ ) = ( 2 Λ x 2 ( x , λ ) 2 Λ x λ ( x , λ ) 2 Λ λ x ( x , λ ) 2 Λ λ 2 ( x , λ ) ) = ( 2 Λ x 1 2 ( x , λ ) 2 Λ x 1 x 2 ( x , λ ) 2 Λ x 1 x n ( x , λ ) g x 1 ( x ) 2 Λ x 2 x 1 ( x , λ ) 2 Λ x 2 2 ( x , λ ) 2 Λ x 2 x n ( x , λ ) g x 2 ( x ) 2 Λ x n x 1 ( x , λ ) 2 Λ x n x 2 ( x , λ ) 2 Λ x n 2 ( x , λ ) g x n ( x ) g x 1 ( x ) g x 2 ( x ) g x n ( x ) 0 ) = ( 2 Λ x 2 ( x , λ ) [ g ( x ) ] t g ( x ) 0 ) {\displaystyle {\text{Hess}}\Lambda (x,\lambda )={\begin{pmatrix}\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x^{2}}}(x,\lambda )&\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x\partial \lambda }}(x,\lambda )\\\displaystyle {\frac {\partial ^{2}\Lambda }{\partial \lambda \partial x}}(x,\lambda )&\displaystyle {\frac {\partial ^{2}\Lambda }{\partial \lambda ^{2}}}(x,\lambda )\end{pmatrix}}={\begin{pmatrix}\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{1}^{2}}}(x,\lambda )&\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{1}\partial x_{2}}}(x,\lambda )&\dots &\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{1}\partial x_{n}}}(x,\lambda )&\displaystyle {\frac {\partial g}{\partial x_{1}}}(x)\\\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{2}\partial x_{1}}}(x,\lambda )&\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{2}^{2}}}(x,\lambda )&\dots &\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{2}\partial x_{n}}}(x,\lambda )&\displaystyle {\frac {\partial g}{\partial x_{2}}}(x)\\\vdots &\vdots &\ddots &\vdots &\vdots \\\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{n}\partial x_{1}}}(x,\lambda )&\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{n}\partial x_{2}}}(x,\lambda )&\dots &\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x_{n}^{2}}}(x,\lambda )&\displaystyle {\frac {\partial g}{\partial x_{n}}}(x)\\\displaystyle {\frac {\partial g}{\partial x_{1}}}(x)&\displaystyle {\frac {\partial g}{\partial x_{2}}}(x)&\dots &\displaystyle {\frac {\partial g}{\partial x_{n}}}(x)&0\end{pmatrix}}={\begin{pmatrix}\displaystyle {\frac {\partial ^{2}\Lambda }{\partial x^{2}}}(x,\lambda )&\displaystyle [\nabla g(x)]^{t}\\\displaystyle \nabla g(x)&0\end{pmatrix}}}

Si hay m {\displaystyle m} condiciones, el bloque de ceros en la esquina inferior derecha es de tamaño m × m {\displaystyle m\times m} y hay m {\displaystyle m} filas y m {\displaystyle m} columnas bordeando por abajo y por la derecha.

El determinante de sus principales menores se utiliza como criterio para determinar si un punto crítico de una función es un mínimo, máximo, punto silla o no determinado (extremos condicionados).[1]

Aplicación bilineal hessiana

El concepto de matriz hessiana puede generalizarse a espacios de dimensión infinita, concretamente a aplicaciones definidas sobre espacios vectoriales normados. Si una aplicación (o funcional) está definida es diferenciable en el sentido de Fréchet y su diferencial jacobiana también es diferenciable en el sentido de Fréchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el espacio normado que generaliza la matriz hessiana.

Se dice que una aplicación f : Ω X Y {\displaystyle f:\Omega \in X\to Y} entre espacios vectoriales normados X , Y {\displaystyle X,Y} es diferenciable si existe una aplicación lineal continua L a L ( X , Y ) {\displaystyle L_{a}\in {\mathcal {L}}(X,Y)} tal que:

lim h 0 f ( a + h ) f ( a ) L a ( h ) Y h X = 0 {\displaystyle \lim _{h\to 0}{\frac {\|f(a+h)-f(a)-L_{a}(h)\|_{Y}}{\|h\|_{X}}}=0}

En ese caso se escribe:

D f ( a ) h L a ( h ) {\displaystyle \mathrm {D} f(a)h\equiv L_{a}(h)}

Puede probarse que L ( X , Y ) {\displaystyle {\mathcal {L}}(X,Y)} es a su vez otro espacio vectorial normado con la norma:

A L ( X , Y ) := sup 0 x X A x Y x X {\displaystyle \|A\|_{{\mathcal {L}}(X,Y)}:=\sup _{0\neq x\in X}{\frac {\|Ax\|_{Y}}{\|x\|_{X}}}}

La segunda derivadas cuando existe es:

D 2 f ( a ) := D ( D f ( a ) ) L ( X , L ( X , Y ) ) {\displaystyle \mathrm {D} ^{2}f(a):=\mathrm {D} (\mathrm {D} f(a))\in {{\mathcal {L}}(X,{{\mathcal {L}}(X,Y)})}}

La forma bilineal hessiana viene dada por:

H f ( a ) ( h , k ) := ( D 2 f ( a ) h ) k , h , k X ,   H f ( a ) L ( X × X , Y ) L ( X , L ( X , Y ) ) {\displaystyle H_{f}(a)(h,k):=(\mathrm {D} ^{2}f(a)h)k,\qquad h,k\in X,\ H_{f}(a)\in {\mathcal {L}}(X\times X,Y)\approx {\mathcal {L}}(X,{{\mathcal {L}}(X,Y)})}

Véase también

Referencias

  1. Marsden, Jerrold E.; Tromba, Anthony J. (2004), Cálculo vectorial, Madrid: Pearson Educación S.A., ISBN 978-84-7829-069-7 ., página 230

Enlaces externos

  • Weisstein, Eric W. «Hessian». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. 
  • Discriminante o Hessiano (Matriz Hessiana) para Encontrar Máximos, Mínimos y Puntos de Silla en Funciones de Varias Variables
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q620495
  • Wd Datos: Q620495