Historia del determinante

En álgebra lineal, el determinante es una función que asociar a cada matriz cuadrada A {\displaystyle A} escalar que sintetiza algunas propiedades algebraicas. Históricamente los determinantes han sido estudiados antes que las matrices. Originalmente, el determinante se consideraba una construcción relativa a un sistema de ecuaciones lineales. Esta función del sistema "determina" si el sistema tiene una solución única (un hecho que ocurre si y solo si el determinante es distinto de cero). Para este propósito Girolamo Cardano consideró determinantes de orden 2 hacia el final del siglo XVI y Leibniz los consideró de orden superior unos 100 años más tarde. En sus pasos Gabriel Cramer (1750) extendió su teoría, siempre en relación con los sistemas de ecuaciones. La Ley de recurrencia para su cálculo fue anunciada por primera vez por Étienne Bézout (1764). Vandermonde (1771) trató por primera vez los determinantes como funciones autónomas. Laplace (1772) formuló el procedimiento general para el desarrollo de un determinante en términos de sus menores complementarios : Vandermonde había dado un caso particular de él anteriormente. Inmediatamente después Joseph-Louis Lagrange (1773) se ocupó de los determinantes del segundo y tercer orden. Lagrange fue el PRIMERO en Aplicar determinantes a cuestiones fuera de la teoría de la eliminación variable; demostró muchos casos de identidad de alcance general. Carl Friedrich Gauss (1801) hizo la siguiente contribución. Al igual que Lagrange utilizó los determinantes ampliamente en la teoría de números. Fue él quien introdujo el término determinante (Laplace había usado resultante), no con el significado general actual, sino aplicándolo al discriminante de un cuántico. Gauss también llegó a la noción de determinantes recíprocos (inversos), y se acercó mucho al teorema de multiplicación. El siguiente contribuyente importante es Jacques Philippe Marie Binet (1811, 1812), quien declaró formalmente el teorema sobre el producto de dos matrices de m {\displaystyle m} columnas ed y {\displaystyle n} líneas, que en el caso particular m = y {\displaystyle m = n} reducir al teorema de multiplicación. El mismo día, 30 de noviembre de 1812, cuando Binet presentó su trabajo a la Academie de Sciences, Augustin - Louis Cauchy presentó uno de los suyos sobre el mismo tema (véase la fórmula de Cauchy - Binet). En su trabajo Cauchy utiliza el término determinante en su significado actual, resume y simplifica lo que hasta ahora se conocía sobre el tema, mejora las notaciones y presenta el teorema de multiplicación con una prueba más satisfactoria que la de Binet. Con él comienza la teoría en su generalidad. La siguiente figura prominente es Carl Gustav Jakob Jacobi que ha estado estudiando el tema desde 1827. Primero se ocupa del determinante funcional que Sylvester más tarde llamaría Jacobian y en su memoria en el Diario de Crelle hasta 1841 se ocupa especialmente de este tema junto con la clase de funciones alternas que Sylvester llama, de hecho, alternando. En el período de las últimas memorias de Jacobi, Sylvester (1839) y Arthur Cayley comienzan a trabajar en estos temas. Los determinantes asimétricos fueron estudiados por Lebesgue, Hesse y Sylvester; determinantes persimmetrici Sylvester y Hermann Hankel; circulando por Eugène Charles Catalan, William Spottiswoode, James Whitbread Lee Glaisher y Scott; determinantes antisimmetrici y pfaffiani, en relación con la teoría de la transformación es ortogonal, por Cayley; procedente de Sylvester; wronskiani (bautizado de esta manera por Thomas Muir) por Elwin Bruno Christoffel y Ferdinand Georg Frobenius; determinantes compuestos por Sylvester, Reiss y Picquet; Jacobianos y hessianos por Sylvester; determinantes simétricos a la izquierda por Trudi El estudio de los determinantes de matrices de forma especial fue la salida natural para completar la teoría general. El primer libro de texto sobre estos temas fue escrito por Spottiswoode. En los Estados Unidos, aparecieron los primeros tratados de Hanus (1886) y Weld (1893).

Historia de las matemáticas

Matrices cuadradas

Álgebra Multilineal

Matriz De Hessenberg

En matemáticas, especialmente en álgebra lineal, Una matriz de hessenberg es un tipo particular de matriz cuadrada, que es "casi" triangular. Para ser exactos, ...

Transformación de la familia

En matemáticas, una transformación de cabeza de familia en un espacio tridimensional es el reflejo de vectores con respecto a un plano que pasa a través del ori...

Álgebra lineal numérica

Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad