Cálculo de variaciones

De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

El cálculo de variaciones es un campo de análisis matemático que utiliza variaciones, que son pequeños cambios en funciones y funcionales , para encontrar máximos y mínimos de funcionales: mapeos de un conjunto de funciones a los números reales . [a] Los funcionales a menudo se expresan como integrales definidas que involucran funciones y sus derivadas . Las funciones que maximizan o minimizan las funciones se pueden encontrar utilizando la ecuación de Euler-Lagrange del cálculo de variaciones.

Un ejemplo simple de tal problema es encontrar la curva de menor longitud que conecta dos puntos. Si no hay restricciones, la solución es una línea recta entre los puntos. Sin embargo, si la curva está restringida a estar sobre una superficie en el espacio, entonces la solución es menos obvia y posiblemente existan muchas soluciones. Estas soluciones se conocen como geodésicas . El principio de Fermat plantea un problema relacionado : la luz sigue el camino de la longitud óptica más corta que conecta dos puntos, donde la longitud óptica depende del material del medio. Un concepto correspondiente en mecánica es el principio de acción mínima / estacionaria .

Muchos problemas importantes involucran funciones de varias variables. Las soluciones de problemas de valores en la frontera para la ecuación de Laplace satisfacen el principio de Dirichlet . El problema de Plateau requiere encontrar una superficie de área mínima que abarque un contorno dado en el espacio: a menudo se puede encontrar una solución sumergiendo un marco en una solución de espuma de jabón. Aunque tales experimentos son relativamente fáciles de realizar, su interpretación matemática está lejos de ser simple: puede haber más de una superficie que minimiza localmente y pueden tener una topología no trivial .

Historia [ editar ]

Se puede decir que el cálculo de variaciones comenzó con el problema de resistencia mínima de Newton en 1687, seguido por el problema de la curva braquistócrona planteado por Johann Bernoulli (1696). [2] Inmediatamente ocupó la atención de Jakob Bernoulli y el Marqués de l'Hôpital , pero Leonhard Euler elaboró ​​el tema por primera vez, a partir de 1733. Lagrange fue influenciado por el trabajo de Euler para contribuir significativamente a la teoría. Después de que Euler vio el trabajo de 1755 de Lagrange, de 19 años, Euler abandonó su propio enfoque parcialmente geométrico en favor del enfoque puramente analítico de Lagrange y renombró el tema como cálculo de variaciones.en su conferencia de 1756 Elementa Calculi Variationum . [3] [4] [1]

Legendre (1786) estableció un método, no del todo satisfactorio, para la discriminación de máximos y mínimos. Isaac Newton y Gottfried Leibniz también prestaron alguna atención temprana al tema. [5] A esta discriminación Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mikhail Ostrogradsky (1834) y Carl Jacobi (1837) han estado entre los contribuyentes. Un trabajo general importante es el de Sarrus (1842) que fue condensado y mejorado por Cauchy (1844). Strauch ha escrito otros valiosos tratados y memorias.(1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) y Carll (1885), pero quizás la obra más importante del siglo es la de Weierstrass . Su célebre curso sobre la teoría está haciendo época, y se puede afirmar que fue el primero en colocarlo sobre una base firme e incuestionable. Los problemas 20 y 23 de Hilbert publicados en 1900 alentaron un mayor desarrollo. [5]

En el siglo XX, David Hilbert , Emmy Noether , Leonida Tonelli , Henri Lebesgue y Jacques Hadamard, entre otros, hicieron contribuciones significativas. [5] Marston Morse aplicó el cálculo de variaciones en lo que ahora se llama teoría Morse . [6] Lev Pontryagin , Ralph Rockafellar y FH Clarke desarrollaron nuevas herramientas matemáticas para el cálculo de variaciones en la teoría del control óptimo . [6] La programación dinámica de Richard Bellman es una alternativa al cálculo de variaciones.[7] [8] [9] [b]

Extrema [ editar ]

El cálculo de variaciones se ocupa de los máximos o mínimos (denominados colectivamente extremos ) de los funcionales. Un funcional asigna funciones a escalares , por lo que los funcionales se han descrito como "funciones de funciones". Los funcionales tienen extremos con respecto a los elementos y de un espacio funcional dado definido sobre un dominio dado . Se dice que un J [ y ] funcional tiene un extremo en la función f  si ΔJ = J [ y ] - J [ f ] tiene el mismo signopara todo y en un vecindario arbitrariamente pequeño de f . [c] La función f se llama un extremal función o extremal. [d] El extremo J [ f ] se llama un máximo local si ΔJ ≤ 0 en todas partes en una vecindad arbitrariamente pequeña de f , y un mínimo local si ΔJ ≥ 0 allí. Para un espacio funcional de funciones continuas, los extremos de las funciones correspondientes se denominan extremos débiles o extremos fuertes., dependiendo de si las primeras derivadas de las funciones continuas son respectivamente todas continuas o no. [11]

Los extremos fuertes y débiles de las funciones son para un espacio de funciones continuas, pero los extremos fuertes tienen el requisito adicional de que las primeras derivadas de las funciones en el espacio sean continuas. Por lo tanto, un extremo fuerte es también un extremo débil, pero lo contrario puede no ser válido. Encontrar extremos fuertes es más difícil que encontrar extremos débiles. [12] Un ejemplo de una condición necesaria que se utiliza para encontrar extremos débiles es la ecuación de Euler-Lagrange . [13] [e]

Ecuación de Euler-Lagrange [ editar ]

Encontrar los extremos de funcionales es similar a encontrar los máximos y mínimos de funciones. Los máximos y mínimos de una función se pueden ubicar encontrando los puntos donde su derivada desaparece (es decir, es igual a cero). Los extremos de los funcionales se pueden obtener encontrando funciones donde la derivada funcional es igual a cero. Esto lleva a resolver la ecuación de Euler-Lagrange asociada . [F]

Considere lo funcional

dónde

x 1 , x 2 son constantes ,
y ( x ) es dos veces diferenciable de forma continua,
y ′ ( x ) = dy / dx   ,
L ( x , y ( x ), y ′ ( x )) es dos veces continuamente diferenciable con respecto a sus argumentos x ,   y ,   y .

Si el funcional J [ y ] alcanza un mínimo local en f , y η ( x ) es una función arbitraria que tiene al menos una derivada y desaparece en los extremos x 1 y x 2 , entonces para cualquier número ε cercano a 0,

El término εη se denomina variación de la función f y se denota por δf . [1] [g]

Sustituyendo   f + εη por y   en el funcional J [ y ], el resultado es una función de ε ,

Dado que la función J [ y ] tiene un mínimo para y = f , la función Φ ( ε ) tiene un mínimo en ε = 0 y, por tanto, [h]

Tomando la derivada total de L [ x , y , y ′], donde y = f + ε η y y ′ = f ′ + ε η se consideran funciones de ε en lugar de x , se obtiene

y dado que   dy / = η  y  dy ′ / = η ' ,

Por lo tanto,

donde L [ x , y , y ′] → L [ x , f , f ′] cuando ε = 0 y hemos utilizado la integración por partes en el segundo término. El segundo término de la segunda línea desaparece porque η = 0 en x 1 y x 2 por definición. Además, como se mencionó anteriormente, el lado izquierdo de la ecuación es cero, de modo que

Según el lema fundamental del cálculo de variaciones , la parte del integrando entre paréntesis es cero, es decir

que se llama ecuación de Euler-Lagrange . El lado izquierdo de esta ecuación se llama la derivada funcional de J [ f ] y se denota δJ / δf ( x ).

En general, esto da una ecuación diferencial ordinaria de segundo orden que se puede resolver para obtener la función extrema f ( x ). La ecuación de Euler-Lagrange es una condición necesaria , pero no suficiente , para un extremo J [ f ] . Una condición suficiente para un mínimo se da en la sección Variaciones y una condición suficiente para un mínimo .

Ejemplo [ editar ]

Para ilustrar este proceso, considere el problema de encontrar la función extrema y = f ( x ), que es la curva más corta que conecta dos puntos ( x 1 , y 1 ) y ( x 2 , y 2 ). La longitud del arco de la curva está dada por

con

[I]

La ecuación de Euler-Lagrange se utilizará ahora para encontrar la función extrema f ( x ) que minimiza la función A [ y ].

con

Dado que f no aparece explícitamente en L , el primer término de la ecuación de Euler-Lagrange desaparece para todo f ( x ) y, por tanto,

Sustituyendo L y tomando la derivada,

Por lo tanto

para alguna constante c . Luego

dónde

Resolviendo, obtenemos

lo que implica que

es una constante y por lo tanto que la curva más corta que conecta dos puntos ( x 1 , y 1 ) y ( x 2 , y 2 ) es

y así hemos encontrado la función extrema f ( x ) que minimiza la funcional A [ y ] de modo que A [ f ] es un mínimo. La ecuación para una línea recta es y = f ( x ) . En otras palabras, la distancia más corta entre dos puntos es una línea recta. [j]

Identidad de Beltrami [ editar ]

En problemas de física, puede darse el caso de que , lo que significa que el integrando es una función de y, pero no aparece por separado. En ese caso, la ecuación de Euler-Lagrange se puede simplificar a la identidad de Beltrami [16]

donde es una constante. El lado izquierdo es la transformación de Legendre con respecto a .

La intuición detrás de este resultado es que, si la variable x es en realidad tiempo, entonces el enunciado implica que el Lagrangiano es independiente del tiempo. Según el teorema de Noether , existe una cantidad conservada asociada. En este caso, esta cantidad es el hamiltoniano, la transformada de Legendre del lagrangiano, que (a menudo) coincide con la energía del sistema. Esta es (menos) la constante en la identidad de Beltrami.

Ecuación de Euler-Poisson [ editar ]

Si depende de derivadas superiores de , es decir, si

entonces debe satisfacer la ecuación de Euler- Poisson ,

[17]

Teorema de Du Bois-Reymond [ editar ]

La discusión hasta ahora ha asumido que las funciones extremas poseen dos derivadas continuas, aunque la existencia de la integral J requiere solo las primeras derivadas de las funciones de prueba. La condición de que la primera variación desaparezca en un extremo puede considerarse como una forma débil de la ecuación de Euler-Lagrange. El teorema de Du Bois-Reymond afirma que esta forma débil implica la forma fuerte. Si L tiene derivadas primera y segunda continuas con respecto a todos sus argumentos, y si

luego tiene dos derivadas continuas y satisface la ecuación de Euler-Lagrange.

Fenómeno de Lavrentiev [ editar ]

Hilbert fue el primero en dar buenas condiciones para que las ecuaciones de Euler-Lagrange dieran una solución estacionaria. Dentro de un área convexa y un Lagrangiano positivo tres veces diferenciable, las soluciones se componen de una colección contable de secciones que van a lo largo del límite o satisfacen las ecuaciones de Euler-Lagrange en el interior.

Sin embargo, Lavrentiev en 1926 demostró que hay circunstancias en las que no hay una solución óptima, pero se puede acercar a una arbitrariamente de cerca aumentando el número de secciones. El fenómeno de Lavrentiev identifica una diferencia en el mínimo de un problema de minimización entre diferentes clases de funciones admisibles. Por ejemplo, el siguiente problema, presentado por Manià en 1934: [18]

Claramente, minimiza lo funcional, pero encontramos que cualquier función da un valor acotado lejos del mínimo.

Los ejemplos (en una dimensión) se manifiestan tradicionalmente a través de y , pero Ball y Mizel [19] obtuvieron la primera función que mostró el Fenómeno de Lavrentiev a través y para Hay varios resultados que dan criterios bajo los cuales el fenómeno no ocurre, por ejemplo, 'estándar crecimiento ', un Lagrangiano sin dependencia de la segunda variable, o una secuencia aproximada que satisfaga la Condición de Cesari (D) - pero los resultados son a menudo particulares y aplicables a una pequeña clase de funcionales.

Conectada con el Fenómeno de Lavrentiev está la propiedad de repulsión: cualquier función que muestre el Fenómeno de Lavrentiev mostrará la propiedad de repulsión débil. [20]

Funciones de varias variables [ editar ]

Por ejemplo, si φ ( x , y ) denota el desplazamiento de una membrana por encima del dominio D en el plano x , y , entonces su energía potencial es proporcional a su área de superficie:

El problema de Plateau consiste en encontrar una función que minimice el área de la superficie asumiendo valores prescritos en el límite de D ; las soluciones se denominan superficies mínimas . La ecuación de Euler-Lagrange para este problema no es lineal:

Consulte Courant (1950) para obtener más detalles.

Principio de Dirichlet [ editar ]

A menudo es suficiente considerar solo pequeños desplazamientos de la membrana, cuya diferencia de energía sin desplazamiento se aproxima por

El funcional V es reducir al mínimo entre todas las funciones de prueba varphi que asumen valores prescritos en el límite de D . Si u es la función minimizadora yv es una función suave arbitraria que desaparece en el límite de D , entonces la primera variación de debe desaparecer:

Siempre que u tenga dos derivadas, podemos aplicar el teorema de divergencia para obtener

donde C es el límite de D , s es longitud de arco a lo largo de C y es la derivada normal de u en C . Dado que v desaparece en C y la primera variación desaparece, el resultado es

para todas las funciones suaves V que se desvanecen en el límite de D . La prueba para el caso de integrales unidimensionales puede adaptarse a este caso para mostrar que

en D .

La dificultad de este razonamiento es la suposición de que la función minimizadora u debe tener dos derivadas. Riemann argumentó que la existencia de una función de minimización suave estaba asegurada por la conexión con el problema físico: las membranas de hecho asumen configuraciones con energía potencial mínima. Riemann llamó a esta idea el principio de Dirichlet en honor a su maestro Peter Gustav Lejeune Dirichlet . Sin embargo, Weierstrass dio un ejemplo de un problema variacional sin solución: minimizar

entre todas las funciones φ que satisfacen y pueden hacerse arbitrariamente pequeñas eligiendo funciones lineales por partes que hacen una transición entre -1 y 1 en una pequeña vecindad del origen. Sin embargo, no hay ninguna función que lo haga . [k] Finalmente se demostró que el principio de Dirichlet es válido, pero requiere una aplicación sofisticada de la teoría de la regularidad para ecuaciones diferenciales parciales elípticas ; véase Jost y Li – Jost (1998).

Generalización a otros problemas de valores límite [ editar ]

Una expresión más general para la energía potencial de una membrana es

Esto corresponde a una densidad externa fuerza en D , una fuerza externa en el límite C , y las fuerzas elásticas con un módulo que actúa sobre C . La función que minimiza la energía potencial sin restricción en sus valores de frontera será denotada por u . A condición de que f y g son continuas, la teoría de la regularidad implica que la función de minimización u tendrá dos derivados. Al tomar la primera variación, no es necesario imponer ninguna condición de frontera al incremento v . La primera variación de viene dada por

Si aplicamos el teorema de la divergencia, el resultado es

Si primero establecemos v  = 0 en C , la integral de límite desaparece, y concluimos como antes que

en D . Entonces, si permitimos que v asuma valores de frontera arbitrarios, esto implica que u debe satisfacer la condición de frontera

en C . Esta condición de frontera es una consecuencia de la propiedad minimizadora de u : no se impone de antemano. Estas condiciones se denominan condiciones de contorno naturales .

El razonamiento anterior no es válido si se desvanece de forma idéntica en C . En tal caso, podríamos permitir una función de prueba , donde c es una constante. Para tal función de prueba,

Mediante la elección apropiada de c , V puede asumir cualquier valor a menos que la cantidad entre paréntesis desaparezca. Por lo tanto, el problema variacional no tiene sentido a menos que

Esta condición implica que las fuerzas externas netas sobre el sistema están en equilibrio. Si estas fuerzas están en equilibrio, entonces el problema variacional tiene solución, pero no es único, ya que se puede agregar una constante arbitraria. Más detalles y ejemplos se encuentran en Courant y Hilbert (1953).

Problemas de valores propios [ editar ]

Los problemas de valores propios unidimensionales y multidimensionales pueden formularse como problemas variacionales.

Problemas de Sturm-Liouville [ editar ]

El problema de valores propios de Sturm-Liouville implica una forma cuadrática general

donde está restringido a funciones que satisfacen las condiciones de contorno

Sea R una integral de normalización

Se requiere que las funciones y sean positivas en todas partes y delimitadas desde cero. El principal problema variacional es minimizar la relación Q / R entre todos los φ que satisfacen las condiciones del punto final. A continuación se muestra que la ecuación de Euler-Lagrange para minimizar u es

donde λ es el cociente

Se puede demostrar (ver Gelfand y Fomin 1963) que la minimización u tiene dos derivadas y satisface la ecuación de Euler-Lagrange. El λ asociado se indicará mediante ; es el valor propio más bajo para esta ecuación y condiciones de contorno. La función de minimización asociada se indicará con . Esta caracterización variacional de los valores propios conduce al método de Rayleigh-Ritz : elija una u aproximada como una combinación lineal de funciones base (por ejemplo, funciones trigonométricas) y lleve a cabo una minimización de dimensión finita entre dichas combinaciones lineales. Este método suele ser sorprendentemente preciso.

El valor propio más pequeño y la función propia más pequeños se pueden obtener minimizando Q bajo la restricción adicional

Este procedimiento se puede ampliar para obtener la secuencia completa de valores propios y funciones propias del problema.

El problema variacional también se aplica a condiciones de contorno más generales. En lugar de exigir que ish desaparezca en los puntos finales, no podemos imponer ninguna condición en los puntos finales y establecer

donde y son arbitrarios. Si establecemos la primera variación de la relación es

donde λ viene dada por la relación como anteriormente. Después de la integración por partes,

Si primero requerimos que v desaparezca en los puntos finales, la primera variación desaparecerá para todos esos v solo si

Si u satisface esta condición, entonces la primera variación desaparecerá para v arbitraria solo si

Estas últimas condiciones son las condiciones de frontera naturales para este problema, ya que no se imponen a las funciones de prueba para la minimización, sino que son una consecuencia de la minimización.

Problemas de valores propios en varias dimensiones [ editar ]

Los problemas de valores propios en dimensiones superiores se definen en analogía con el caso unidimensional. Por ejemplo, dado un dominio D con límite B en tres dimensiones, podemos definir

y

Vamos u sea la función que minimiza el cociente sin condición prescrita en el límite B . La ecuación de Euler-Lagrange satisfecha por u es

dónde

La u minimizadora también debe satisfacer la condición de límite natural

en el límite B . Este resultado depende de la teoría de la regularidad para ecuaciones diferenciales parciales elípticas; ver Jost y Li – Jost (1998) para más detalles. Muchas extensiones, incluidos los resultados de completitud, las propiedades asintóticas de los valores propios y los resultados relacionados con los nodos de las funciones propias se encuentran en Courant y Hilbert (1953).

Aplicaciones [ editar ]

Óptica [ editar ]

El principio de Fermat establece que la luz toma un camino que (localmente) minimiza la longitud óptica entre sus extremos. Si se elige la coordenada x como parámetro a lo largo de la ruta y a lo largo de la ruta, entonces la longitud óptica viene dada por

donde el índice de refracción depende del material. Si lo intentamos , la primera variación de A (la derivada de A con respecto a ε) es

Después de la integración por partes del primer término entre paréntesis, obtenemos la ecuación de Euler-Lagrange

Los rayos de luz se pueden determinar integrando esta ecuación. Este formalismo se utiliza en el contexto de la óptica lagrangiana y la óptica hamiltoniana .

Ley de Snell [ editar ]

Existe una discontinuidad del índice de refracción cuando la luz entra o sale de una lente. Dejar

donde y son constantes. Entonces, la ecuación de Euler-Lagrange se mantiene como antes en la región donde x <0 ox > 0, y de hecho la trayectoria es una línea recta allí, ya que el índice de refracción es constante. En x = 0, f debe ser continua, pero f ' puede ser discontinua. Después de la integración por partes en las regiones separadas y usando las ecuaciones de Euler-Lagrange, la primera variación toma la forma

El factor multiplicador es el seno del ángulo del rayo incidente con el eje x , y el factor multiplicador es el seno del ángulo del rayo refractado con el eje x . La ley de refracción de Snell requiere que estos términos sean iguales. Como demuestra este cálculo, la ley de Snell es equivalente a la desaparición de la primera variación de la longitud del camino óptico.

Principio de Fermat en tres dimensiones [ editar ]

Es conveniente notación uso vector: Vamos vamos t ser un parámetro, vamos a ser la representación paramétrica de una curva C , y dejar que sea su vector tangente. La longitud óptica de la curva viene dada por

Tenga en cuenta que esta integral es invariante con respecto a los cambios en la representación paramétrica de C . Las ecuaciones de Euler-Lagrange para una curva minimizadora tienen la forma simétrica

dónde

De la definición se deduce que P satisface

Por lo tanto, la integral también se puede escribir como

Esta forma sugiere que si podemos encontrar una función ψ cuyo gradiente está dado por P , entonces la integral A está dada por la diferencia de ψ en los puntos finales del intervalo de integración. Así, el problema de estudiar las curvas que hacen estacionaria la integral puede relacionarse con el estudio de las superficies de nivel de ψ. Para encontrar dicha función, recurrimos a la ecuación de onda, que gobierna la propagación de la luz. Este formalismo se utiliza en el contexto de la óptica lagrangiana y la óptica hamiltoniana .

Conexión con la ecuación de onda [ editar ]

La ecuación de onda para un medio no homogéneo es

donde c es la velocidad, que generalmente depende de X . Los frentes de onda para la luz son superficies características para esta ecuación diferencial parcial: satisfacen

Podemos buscar soluciones en la forma

En ese caso, ψ satisface

donde De acuerdo con la teoría de ecuaciones diferenciales parciales de primer orden , si entonces P satisface

a lo largo de un sistema de curvas ( los rayos de luz ) que son dados por

Estas ecuaciones para la solución de una ecuación diferencial parcial de primer orden son idénticas a las ecuaciones de Euler-Lagrange si hacemos la identificación

Concluimos que la función ψ es el valor de la integral minimizadora A en función del punto final superior. Es decir, cuando se construye una familia de curvas minimizadoras, los valores de la longitud óptica satisfacen la ecuación característica correspondiente a la ecuación de onda. Por tanto, resolver la ecuación diferencial parcial asociada de primer orden equivale a encontrar familias de soluciones del problema variacional. Este es el contenido esencial de la teoría de Hamilton-Jacobi , que se aplica a problemas variacionales más generales.

Mecánica [ editar ]

En la mecánica clásica, la acción, S , se define como la integral de tiempo de la función de Lagrange, L . El Lagrangiano es la diferencia de energías,

donde T es la energía cinética de un sistema mecánico y U su energía potencial . El principio de Hamilton (o el principio de acción) establece que el movimiento de un sistema mecánico holonómico conservador (restricciones integrables) es tal que la acción integral

es estacionario con respecto a las variaciones en la trayectoria x ( t ). Las ecuaciones de Euler-Lagrange para este sistema se conocen como ecuaciones de Lagrange:

y son equivalentes a las ecuaciones de movimiento de Newton (para tales sistemas).

Los momentos conjugados P se definen por

Por ejemplo, si

luego

La mecánica hamiltoniana resulta si los momentos conjugados se introducen en lugar de mediante una transformación de Legendre de la L lagrangiana en la H hamiltoniana definida por

El hamiltoniano es la energía total del sistema: H = T + T . Analogía con el principio de Fermat sugiere que las soluciones de las ecuaciones de Lagrange (las trayectorias de las partículas) se pueden describir en términos de superficies de nivel de alguna función de X . Esta función es una solución de la ecuación de Hamilton-Jacobi :

Otras aplicaciones [ editar ]

Otras aplicaciones del cálculo de variaciones incluyen las siguientes:

  • La derivación de la forma catenaria
  • Solución al problema de resistencia mínima de Newton
  • Solución al braquistocrona problema
  • Solución a problemas isoperimétricos
  • Calcular geodésicas
  • Encontrar superficies mínimas y resolver el problema de Plateau
  • Control optimo

Variaciones y condición suficiente para un mínimo [ editar ]

El cálculo de variaciones se ocupa de variaciones de funcionales, que son pequeños cambios en el valor del funcional debido a pequeños cambios en la función que es su argumento. La primera variación [l] se define como la parte lineal del cambio en el funcional, y la segunda variación [m] se define como la parte cuadrática. [22]

Por ejemplo, si J [ y ] es un funcional con la función y = y ( x ) como su argumento, y hay un pequeño cambio en su argumento de Y a Y + h , donde h = h ( x ) es una función en el mismo espacio funcional que y , entonces el cambio correspondiente en el funcional es

  [norte]

Se dice que el funcional J [ y ] es diferenciable si

donde φ [ h ] es un funcional lineal, [o] || h || es la norma de h , [p] y ε → 0 como || h || → 0 . El funcional lineal φ [ h ] es la primera variación de J [ y ] y se denota por, [26]

Se dice que el funcional J [ y ] es dos veces diferenciable si

donde φ 1 [ h ] es un funcional lineal (la primera variación), φ 2 [ h ] es un funcional cuadrático, [q] y ε → 0 como || h || → 0 . El funcional cuadrático φ 2 [ h ] es la segunda variación de J [ y ] y se denota por, [28]

Se dice que la segunda variación δ 2 J [ h ] es fuertemente positiva si

para todo hy para alguna constante k > 0 . [29]

Usando las definiciones anteriores, especialmente las definiciones de primera variación, segunda variación y fuertemente positiva, se puede establecer la siguiente condición suficiente para un mínimo de un funcional.

Condición suficiente para un mínimo:
El funcional J [ y ] tiene un mínimo en y = ŷ si su primera variación δJ [ h ] = 0 en y = ŷ y su segunda variación δ 2 J [ h ] es fuertemente positiva en y = ŷ . [30] [r] [s]

Ver también [ editar ]

  • Primera variación
  • Desigualdad isoperimétrica
  • Principio de variación
  • Bicomplejo variacional
  • Principio de Fermat
  • Principio de mínima acción
  • Optimización de dimensiones infinitas
  • Análisis funcional
  • Principio variacional de Ekeland
  • Problema inverso para la mecánica lagrangiana
  • Problema de obstáculos
  • Métodos de perturbación
  • Medida joven
  • Control optimo
  • Método directo en cálculo de variaciones
  • Teorema de noether
  • Teoría de De Donder-Weyl
  • Métodos Bayesianos Variacionales
  • Problema de Chaplygin
  • Colector de Nehari
  • Principio Hu-Washizu
  • Principio variacional de Lucas
  • Teorema del paso de montaña
  • Categoría: Analistas variacionales
  • Medidas de tendencia central como soluciones a problemas variacionales
  • Medalla Stampacchia
  • Premio Fermat
  • Espacio vectorial conveniente

Notas [ editar ]

  1. ^ Mientras que el cálculo elemental se trata decambios infinitesimalmente pequeños en los valores de las funciones sin cambios en la función en sí, el cálculo de variaciones se trata de cambios infinitesimalmente pequeños en la función misma, que se denominan variaciones. [1]
  2. ^ Ver Harold J. Kushner (2004) : con respecto a la programación dinámica, "El cálculo de variaciones tenía ideas relacionadas (por ejemplo, el trabajo de Caratheodory, la ecuación de Hamilton-Jacobi). Esto condujo a conflictos con la comunidad de cálculo de variaciones".
  3. ^ La vecindad de f es la parte del espacio funcional dado donde | y - f | <h sobre todo el dominio de las funciones, con h un número positivo que especifica el tamaño de la vecindad. [10]
  4. ^ Note la diferencia entre los términos extremal y extremum. Un extremo es una función que convierte a un funcional en un extremo.
  5. ^ Para una condición suficiente, consulte la sección Variaciones y condición suficiente para un mínimo .
  6. ^ La siguiente derivación de la ecuación de Euler-Lagrange corresponde a la derivación de las páginas 184-185 de Courant y Hilbert (1953). [14]
  7. ^ Nota que η (x) y f (x) se evalúan en los mismos valores de x , que no es válida más generalmente en cálculo variacional con limitaciones no holonómicos.
  8. ^ El producto ε Φ ′ (0) se llama la primera variación del funcional J y se denota por δJ . Algunas referencias definen la primera variación de manera diferente al omitir elfactor ε .
  9. ^ Tenga en cuenta que asumir y es una función de x pierde generalidad; idealmente ambos deberían ser una función de algún otro parámetro. Este enfoque es bueno únicamente para fines instructivos.
  10. Como nota histórica, este es un axioma de Arquímedes . Véase, por ejemplo, Kelland (1843). [15]
  11. Turnbull explica la controversia resultante sobre la validez del principio de Dirichlet. [21]
  12. ^ La primera variación también se llama variación, diferencial o primer diferencial.
  13. ^ La segunda variación también se llama segundo diferencial.
  14. ^ Tenga en cuenta que Δ J [ h ] y las variaciones a continuación, dependen tanto de y como de h . Seha omitido el argumento y para simplificar la notación. Por ejemplo, Δ J [ h ] podría haberse escrito Δ J [ y  ; h ] . [23]
  15. ^ A funcional φ [ h ] se dice que es lineal si φ [ αh ] = α φ [ h ]   y   φ [ h 1 + h 2 ] = φ [ h 1 ] + φ [ h 2 ] , donde h , h 1 , h 2 son funciones y α es un número real. [24]
  16. ^ Para una función h = h ( x ) que se define para unxb , donde un y b son números reales, la norma de h es su valor absoluto máximo, es decir || h || = max | h ( x ) | para axb . [25]
  17. ^ Se dice que un funcional es cuadrático si es un funcional bilineal con dos funciones de argumento que son iguales. Un funcional bilineal es un funcional que depende de dos funciones de argumento y es lineal cuando cada función de argumento a su vez es fija mientras que la otra función de argumento es variable. [27]
  18. ^ Para otras condiciones suficientes, ver en Gelfand & Fomin 2000 ,
    • Capítulo  5: "La segunda variación. Condiciones suficientes para un extremo débil" - Las condiciones suficientes para un mínimo débil están dadas por el teorema de la p.  116.
    • Capítulo  6: "Campos. Condiciones suficientes para un extremo fuerte" - Las condiciones suficientes para un mínimo fuerte están dadas por el teorema de la p.  148.
  19. ^ Se puede notar la similitud con la condición suficiente para un mínimo de una función, donde la primera derivada es cero y la segunda derivada es positiva.

Referencias [ editar ]

  1. a b Courant y Hilbert , 1953 , p. 184
  2. ^ Gelfand, IM ; Fomin, SV (2000). Silverman, Richard A. (ed.). Cálculo de variaciones (Repr. Ed. Íntegra). Mineola, Nueva York: Publicaciones de Dover. pag. 3. ISBN 978-0486414485.
  3. a b Thiele, Rüdiger (2007). "Euler y el cálculo de variaciones" . En Bradley, Robert E .; Sandifer, C. Edward (eds.). Leonhard Euler: vida, obra y legado . Elsevier. pag. 249. ISBN 9780080471297.
  4. ^ Goldstine, Herman H. (2012). Una historia del cálculo de variaciones del siglo XVII al XIX . Springer Science & Business Media. pag. 110. ISBN 9781461381068.
  5. a b c van Brunt, Bruce (2004). El cálculo de variaciones . Saltador. ISBN 978-0-387-40247-5.
  6. a b Ferguson, James (2004). "Breve reseña de la historia del cálculo de variaciones y sus aplicaciones". arXiv : matemáticas / 0402357 .
  7. ^ Dimitri Bertsekas . Programación dinámica y control óptimo. Athena Scientific, 2005.
  8. ^ Bellman, Richard E. (1954). "Programación dinámica y un nuevo formalismo en el cálculo de variaciones" . Proc. Natl. Acad. Sci . 40 (4): 231-235. Código bibliográfico : 1954PNAS ... 40..231B . doi : 10.1073 / pnas.40.4.231 . PMC 527981 . PMID 16589462 .  
  9. ^ "Premio de patrimonio de control de Richard E. Bellman" . Consejo Americano de Control Automático . 2004 . Consultado el 28 de julio de 2013 .
  10. ^ Courant, R ; Hilbert, D (1953). Métodos de Física Matemática . I (Primera edición en inglés). Nueva York: Interscience Publishers, Inc. p. 169. ISBN 978-0471504474.
  11. ^ Gelfand y Fomin 2000 , págs. 12-13
  12. ^ Gelfand y Fomin 2000 , p. 13
  13. ^ Gelfand y Fomin 2000 , págs. 14-15
  14. ^ Courant, R .; Hilbert, D. (1953). Métodos de Física Matemática . I (Primera edición en inglés). Nueva York: Interscience Publishers, Inc. ISBN 978-0471504474.
  15. Kelland, Philip (1843). Conferencias sobre los principios de la matemática demostrativa . pag. 58 - a través de Google Books.
  16. ^ Weisstein, Eric W. "Ecuación diferencial de Euler-Lagrange" . mathworld.wolfram.com . Wolfram. Eq. (5).
  17. ^ Kot, Mark (2014). "Capítulo 4: Generalizaciones básicas". Un primer curso en el cálculo de variaciones . Sociedad Matemática Estadounidense. ISBN 978-1-4704-1495-5.
  18. Manià, Bernard (1934). "Sopra un esempio di Lavrentieff". Bollenttino dell'Unione Matematica Italiana . 13 : 147-153.
  19. ^ Ball y Mizel (1985). "Problemas Variacionales unidimensionales cuyos Minimizadores no satisfacen la ecuación de Euler-Lagrange". Archivo para análisis y mecánica racional . 90 (4): 325–388. Código Bibliográfico : 1985ArRMA..90..325B . doi : 10.1007 / BF00276295 . S2CID 55005550 . 
  20. ^ Ferriero, Alessandro (2007). "La propiedad de la repulsión débil". Journal de Mathématiques Pures et Appliquées . 88 (4): 378–388. doi : 10.1016 / j.matpur.2007.06.002 .
  21. ^ Turnbull. "Biografía de Riemann" . Reino Unido: U. St. Andrew.
  22. ^ Gelfand y Fomin 2000 , págs. 11-12, 99
  23. ^ Gelfand y Fomin 2000 , p. 12, nota al pie 6
  24. ^ Gelfand y Fomin 2000 , p. 8
  25. ^ Gelfand y Fomin 2000 , p. 6
  26. ^ Gelfand y Fomin 2000 , págs. 11-12
  27. ^ Gelfand y Fomin 2000 , págs. 97–98
  28. ^ Gelfand y Fomin 2000 , p. 99
  29. ^ Gelfand y Fomin 2000 , p. 100
  30. ^ Gelfand y Fomin 2000 , p. 100, teorema 2

Lectura adicional [ editar ]

  • Benesova, B. y Kruzik, M .: "Semicontinuidad inferior débil de aplicaciones y funciones integrales" . Revisión de SIAM 59 (4) (2017), 703–766.
  • Bolza, O .: Conferencias sobre el cálculo de variaciones . Chelsea Publishing Company, 1904, disponible en la biblioteca de Digital Mathematics. Segunda edición reeditada en 1961, rústica en 2005, ISBN 978-1-4181-8201-4 . 
  • Cassel, Kevin W .: Métodos variacionales con aplicaciones en ciencia e ingeniería , Cambridge University Press, 2013.
  • Clegg, JC: Cálculo de variaciones , Interscience Publishers Inc., 1968.
  • Courant, R .: Principio de Dirichlet, mapeo conforme y superficies mínimas . Interscience, 1950.
  • Dacorogna, Bernard : " Introducción " Introducción al cálculo de variaciones , 3ª edición. 2014, World Scientific Publishing, ISBN 978-1-78326-551-0 . 
  • Elsgolc, LE: Cálculo de variaciones , Pergamon Press Ltd., 1962.
  • Forsyth, AR: Cálculo de variaciones , Dover, 1960.
  • Fox, Charles: Introducción al cálculo de variaciones , Dover Publ., 1987.
  • Giaquinta, Mariano; Hildebrandt, Stefan: cálculo de variaciones I y II, Springer-Verlag, ISBN 978-3-662-03278-7 e ISBN 978-3-662-06201-2  
  • Jost, J. y X. Li-Jost: cálculo de variaciones . Prensa de la Universidad de Cambridge, 1998.
  • Lebedev, LP y Cloud, MJ: El cálculo de variaciones y análisis funcional con control óptimo y aplicaciones en mecánica , World Scientific, 2003, páginas 1–98.
  • Logan, J. David: Matemáticas aplicadas , 3ª edición. Wiley-Interscience, 2006
  • Pike, Ralph W. "Capítulo 8: Cálculo de variaciones" . Optimización para sistemas de ingeniería . Universidad Estatal de Luisiana . Archivado desde el original el 5 de julio de 2007.
  • Roubicek, T .: " Cálculo de variaciones ". Capítulo 17 en: Herramientas matemáticas para físicos . (Ed. M. Grinfeld) J. Wiley, Weinheim, 2014, ISBN 978-3-527-41188-7 , págs. 551-588. 
  • Sagan, Hans: Introducción al cálculo de variaciones , Dover, 1992.
  • Weinstock, Robert: Cálculo de variaciones con aplicaciones a la física y la ingeniería , Dover, 1974 (reimpresión de 1952 ed.).

Enlaces externos [ editar ]

  • Cálculo variacional . Enciclopedia de Matemáticas .
  • cálculo de variaciones . PlanetMath .
  • Cálculo de variaciones . MathWorld .
  • Cálculo de variaciones . Problemas de ejemplo.
  • Matemáticas - Cálculo de variaciones y ecuaciones integrales . Conferencias en YouTube .
  • Artículos seleccionados sobre campos geodésicos. Parte I , Parte II .