Covarianza y contravarianza

En matemáticas y física, particularmente en álgebra multilineal y cálculo tensorial, las nociones de covarianza y contravarianza se refieren a la forma en que la descripción de una entidad geométrica o física dada varía al hacer un cambio de coordenadas, como una rotación o dilatación del espacio. En el caso de una rotación de una base ortogonal, la diferencia entre vectores y covectores no se percibe.

Si entonces el sistema de referencia sufre una transformación descrita por la matriz invertible M {\displaystyle M} para que las coordenadas x {\displaystyle \mathbf {x} } de un vector convertido x ′ = M x {\displaystyle \mathbf {x} '' = M \ mathbf {x} } un vector Covariante v {\displaystyle \ mathbf {v} } gira de la misma manera, e. d. v ′ = M v {\displaystyle \mathbf {V} '' = M \ mathbf {v} } Dado un espacio vectorial V {\displaystyle V} con una base { y Me } {\displaystyle \{\mathbf {e} _{i}\}} y su espacio dual V ∗ {\displaystyle V^{*}} con doble base { y Me } {\displaystyle \{\mathbf {e} ^{i}\}} , en relación con esta dualidad los elementos de V ∗ {\displaystyle V^{*}} dicen transportadores como son lineales funcionales en el espacio V {\displaystyle V} que, gracias al teorema de Riesz, se puede "combinar" con los elementos de V {\displaystyle V} , es decir, vectores, para dar un escalar El concepto de covarianza y contravarianza es de gran importancia en el campo de los tensores, objetos matemáticos que generalmente se caracterizan por componentes covariantes y contravariantes, y que por esta razón se dice que tienen varianza mixta. Después de eso, los vectores y los covectores siguen siendo dos objetos distintos, definidos en espacios distintos, cada uno con sus propios componentes con respecto a la base dada: .

Ambos V {\displaystyle V} un espacio vectorial de dimensión n en el campo S {\displaystyle S} y son f = ( X 1 , … , X y ) {\displaystyle \mathbf {f} =(\mathbf {x} _{1}, \dots, \mathbf {x} _{n})} y f ′ = ( X 1 ′ , … , X y ′ ) {\displaystyle \mathbf {f} ''=(\mathbf {x} '' _ {1}, \dots, \ mathbf {x} '' _ {n})} fundamentos de V {\displaystyle V} Deje que el cambio básico de f {\displaystyle \mathbf {f} } a f ′ {\displaystyle \ mathbf {f}''} dado por: o: donde A {\displaystyle A} es la matriz de cambio básica, una matriz de dimensión invertible y × y {\displaystyle n \ times n} y elementos a j Me {\displaystyle a_ {j}^{i}} .

Si en un espacio vectorial V {\displaystyle V} en un campo K {\displaystyle K} se define como una forma bilineal Gram : V × V → K {\displaystyle g:V\times V \ A K} , entonces es posible identificar a los portadores con los codiciosos. Dado una base f = ( X 1 , … , X y ) {\displaystyle \mathbf {f} =(X_{1}, \dots, x_{n})} de V {\displaystyle V} , por lo tanto, hay una única base mutua f ♯ = ( Y 1 , … , Y y ) {\displaystyle \mathbf {f} ^{\sharp } =(y^{1}, \dots, y^{n})} de V {\displaystyle V} determinado por: donde δ j Me {\displaystyle \ delta _ {j}^{i}} es el delta de Kronecker En la práctica, a un vector v {\displaystyle \ mathbf {v} } el transportador se combina de forma única α {\displaystyle \ alpha } dada por: y tal correspondencia es biunívoca. De esta manera se puede hablar de componente covariante y componente compensatorio del mismo vector (codiciador). Un vector genérico v {\displaystyle \ mathbf {v} } entonces se puede escribir como: donde los componentes v Me {\displaystyle v^{i} } y v Me {\displaystyle v_{i} } de v {\displaystyle \ mathbf {v} } son respectivamente compensatorios y covariantes con respecto a: f {\displaystyle \mathbf {f} } . Aplicando un cambio básico se tiene de hecho: otra forma de expresar esta complementariedad se obtiene calculando el producto escalar de dos vectores v {\displaystyle \ mathbf {v} } y w {\displaystyle \mathbf {w} } dependiendo de los componentes de los dos vectores. De hecho desarrollando uno de los dos vectores con respecto a una base y el otro con respecto a la base dual tienes:.

La elección de la base f {\displaystyle \mathbf {f} } Espacio Vectorial V {\displaystyle V} define de forma única un conjunto de funciones de coordenadas en V {\displaystyle V} : Las coordenadas en V {\displaystyle V} por lo tanto, son sujetos a medidas compensatorias: un sistema de N cantidades v Me {\displaystyle v^{i}} que se transforman como coordenadas x Me {\displaystyle x^{i}} en V {\displaystyle V} define un vector compensatorio, mientras que un sistema que se transforma de manera opuesta es un vector covariante Dada una variedad, dados los vectores tangentes y cotangentes a la variedad en un punto donde se define un sistema de coordenadas local x Me {\displaystyle x^{i}} , los ejes de referencia para dicho sistema son los campos vectoriales: que dan lugar al sistema de referencia f = ( X 1 , … , X y ) {\displaystyle \mathbf {f} =(X_{1}, \dots, x_{n})} , que puede ser definido en cada punto de la superficie Si considera un sistema de coordenadas diferente, basado en f ′ {\displaystyle \ mathbf {f}''} dado por: entonces el sistema f {\displaystyle \mathbf {f} } está conectado a f ′ {\displaystyle \ mathbf {f}''} del reverso del jacobiano J {\displaystyle j} : es decir: un vector tangente es una combinación lineal de coordenadas parciales ∂ / ∂ x Me {\displaystyle \ partial / \ partial x^{i}} , y luego se define como: este portador es contravariante con respecto al cambio del sistema de referencia, y con respecto al cambio de coordenadas, tenemos: por lo tanto, los componentes del vector tangente se transforman de acuerdo con la ley: un sistema de N cantidades v Me {\displaystyle v^{i}} que dependen de las coordenadas que se transforman de tal manera es un vector medidas compensatorias

La combinación de dos conjuntos "complementarios" de objetos, una covariante y una contravariante, se define por la relación: donde C es un objeto que se define independientemente de la elección de la base. Los índices de las dos series que se combinan también se pueden intercambiar, moviendo al ápice los que estaban en el subíndice y viceversa, y nuevamente se obtiene el mismo resultado. Además, al combinar índices en el ápice y en el subíndice, se obtiene una "eliminación" del índice, propiamente llamada contracción. Si tiene un producto escalar, que corresponde geométricamente a una proyección ortogonal, entonces el producto con índices de ápice produce índices de ápice y el producto con índices de subíndice produce índices de subíndice. En cambio, si la serie que se combina consiste en los componentes de un vector, entonces para subir y bajar los índices es necesario derivar los componentes compensatorios de los covariantes y viceversa: introduciendo dos matrices complementarias de componentes: las relaciones anteriores se convierten en: las matrices Gram Me k {\displaystyle g_{ik}} y Gram Me k {\displaystyle g^{ik}} son las matrices que representan el producto escalar de los vectores, y permiten el paso de la formulación covariante y compensatoria de un vector En el caso de que la serie que se combina sea una base de vectores, para mover los índices del subíndice al ápice y viceversa (operaciones llamadas subir y bajar los índices) es necesario construir la base dual de la base considerada.

Álgebra Multilineal

Tensor

Aplicación multilínea

En matemáticas, y más precisamente en álgebra lineal, Una aplicación multilineal es una función que generaliza el concepto de aplicación lineal a múltiples vari...

Tensor

En matemáticas, la noción de Tensor generaliza todas las estructuras generalmente definidas en álgebra lineal a partir de un único espacio vectorial. Vectores, ...
Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad