Covariant et contravariant

Page d’aide sur l’homonymie

Pour le principe physique, voir Principe de covariance générale.

Page d’aide sur l’homonymie

Pour la notion probabiliste, voir Covariance.

Exemple de coordonnées covariantes d'un vecteur (bleu) dans un repère non orthonormé.

En algèbre linéaire, les adjectifs covariant et contravariant sont utilisés pour décrire la manière avec laquelle des grandeurs varient lors d'un changement de base. Ces grandeurs sont dites covariantes lorsqu'elles varient comme les vecteurs de la base, et contravariantes lorsqu'elles varient de façon contraire.

La notion est étroitement liée au concept de dualité : les coordonnées covariantes dans une base correspondent en effet aux coordonnées contravariantes dans la base duale, et réciproquement.

En géométrie différentielle, la considération des espaces tangents permet d'étendre les deux concepts aux familles de fonctions définies sur les variétés différentielles.

La manipulation de grandeurs covariantes et contravariantes est facilitée par la convention de sommation d'Einstein, qui sera largement utilisée dans cet article.

Définition

Soit un espace vectoriel V {\displaystyle {\mathcal {V}}} de dimension finie n {\displaystyle n} , ainsi que deux bases e = ( e 1 , e 2 , , e n ) {\displaystyle \mathbf {e} =(\mathbf {e} _{1},\mathbf {e} _{2},\ldots ,\mathbf {e} _{n})} et e = ( e 1 , e 2 , , e n ) {\displaystyle \mathbf {e'} =(\mathbf {e'} _{1},\mathbf {e'} _{2},\ldots ,\mathbf {e'} _{n})} telles que le changement de base de e {\displaystyle \mathbf {e} } vers e {\displaystyle \mathbf {e'} } s'écrit:

e i = A i j e j {\displaystyle \mathbf {e'} _{i}=A_{i}^{j}\mathbf {e} _{j}}

où les coefficients A i j {\displaystyle A_{i}^{j}} forment la matrice de passage.

Soit alors une famille X = ( X ( i ) ) i = 1 n {\displaystyle X=(X(i))_{i=1\ldots n}} de fonctions, chacune de V n {\displaystyle {\mathcal {V}}^{n}} vers un espace vectoriel de même corps que V {\displaystyle {\mathcal {V}}} .

Les familles de vecteurs ( X ( i ) ( e ) ) i = 1 n {\displaystyle (X(i)(\mathbf {e} '))_{i=1\ldots n}} et ( X ( i ) ( e ) ) i = 1 n {\displaystyle (X(i)(\mathbf {e} ))_{i=1\ldots n}} sont alors notées respectivement ( x ( i ) ) i = 1 n {\displaystyle (x'(i))_{i=1\ldots n}} et ( x ( i ) ) i = 1 n {\displaystyle (x(i))_{i=1\ldots n}} .

X {\displaystyle X} est dite covariante lorsque x ( i ) = j = 1 n A i j x ( j ) {\displaystyle x'(i)=\sum _{j=1}^{n}A_{i}^{j}x(j)}

L'indice est alors noté en bas et la convention d'Einstein peut être utilisée, de telle sorte qu'il est écrit:

x i = A i j x j {\displaystyle x_{i}'=A_{i}^{j}x_{j}}

X {\displaystyle X} est dite contravariante lorsque x ( j ) = i = 1 n A i j x ( i ) {\displaystyle x(j)=\sum _{i=1}^{n}A_{i}^{j}x'(i)}

L'indice est alors noté en haut et la convention d'Einstein peut être utilisée, de telle sorte qu'il est écrit:

x j = A i j x i {\displaystyle x^{j}=A_{i}^{j}x'^{i}}

Par un léger abus de langage, les termes covariant et contravariant sont aussi appliqués aux familles de vecteurs ( x i ) i = 1 n {\displaystyle (x_{i})_{i=1\ldots n}} et ( x i ) i = 1 n {\displaystyle (x^{i})_{i=1\ldots n}} , la dépendance par rapport au choix de la base étant sous-entendue.

Exemples

Décomposition dans une base

Théorème et définition —  Les coefficients de l'unique décomposition d'un vecteur dans une base forment une famille contravariante de scalaires appelés coordonnées contravariantes, qui sont donc notés avec un indice haut.

x = x i e i {\displaystyle \mathbf {x} =x^{i}\mathbf {e} _{i}}
Démonstration

Soit un vecteur x {\displaystyle \mathbf {x} } et une base ( e i ) i = 1 n {\displaystyle (\mathbf {e} _{i})_{i=1\ldots n}} .

x {\displaystyle \mathbf {x} } s'écrit de manière unique:

x = i = 1 n x ( i ) e i {\displaystyle \mathbf {x} =\sum _{i=1}^{n}x(i)\mathbf {e} _{i}}

Les scalaires ( x ( i ) ) i = 1 n {\displaystyle (x(i))_{i=1\ldots n}} forment alors une famille de fonctions de V n {\displaystyle {\mathcal {V}}^{n}} vers R {\displaystyle \mathbb {R} } .

Dans la base ( e i ) i = 1 n {\displaystyle (\mathbf {e} '_{i})_{i=1\ldots n}} , x {\displaystyle \mathbf {x} } s'écrit:

x = i = 1 n x ( i ) e i {\displaystyle \mathbf {x} =\sum _{i=1}^{n}x'(i)\mathbf {e} '_{i}}

Par conséquent:

x = i = 1 n x ( i ) A i j e j = j = 1 n ( i = 1 n x ( i ) A i j ) e j {\displaystyle \mathbf {x} =\sum _{i=1}^{n}x'(i)A_{i}^{j}\mathbf {e} _{j}=\sum _{j=1}^{n}(\sum _{i=1}^{n}x'(i)A_{i}^{j})\mathbf {e} _{j}}

Et donc, compte tenu de l'unicité de la décomposition de x {\displaystyle \mathbf {x} } dans la base ( e j ) j = 1 n {\displaystyle (\mathbf {e} _{j})_{j=1\ldots n}} :

x ( j ) = i = 1 n x ( i ) A i j = i = 1 n A i j x ( i ) {\displaystyle x(j)=\sum _{i=1}^{n}x'(i)A_{i}^{j}=\sum _{i=1}^{n}A_{i}^{j}x'(i)}

Produits scalaires dans une base

Théorème et définition — Dans un espace préhilbertien, les produits scalaires d'un vecteur par les vecteurs d'une base constituent une famille covariante de scalaires appelés coordonnées covariantes, qui sont donc notés avec un indice bas.

x i = x e i {\displaystyle x_{i}=\mathbf {x} \cdot \mathbf {e} _{i}}
Démonstration

Les produits scalaires d'un vecteur x {\displaystyle \mathbf {x} } par les vecteurs d'une base ( e i ) i = 1 n {\displaystyle (\mathbf {e} _{i})_{i=1\ldots n}} peuvent être écrits:

x ( i ) = x e i {\displaystyle x(i)=\mathbf {x} \cdot \mathbf {e} _{i}}

Ces scalaires forment une famille de fonctions de V n {\displaystyle {\mathcal {V}}^{n}} vers R {\displaystyle \mathbb {R} } .

On a alors:

x ( i ) = x e i = x ( A i j e j ) = A i j x e j = A i j x ( j ) {\displaystyle {\begin{array}{rcl}x'(i)&=&\mathbf {x} \cdot \mathbf {e} '_{i}\\&=&\mathbf {x} \cdot (A_{i}^{j}\mathbf {e} _{j})\\&=&A_{i}^{j}\mathbf {x} \cdot \mathbf {e} _{j}\\&=&A_{i}^{j}x(j)\end{array}}}

La famille x ( i ) {\displaystyle x(i)} est donc bien covariante.

Dérivées directionnelles

En analyse vectorielle, il est possible de définir l'opérateur de dérivation directionnelle selon une direction d {\displaystyle \mathbf {d} } ainsi:

d : E V E V f ( x lim ϵ 0 f ( x + ϵ d ) f ( x ) ϵ ) {\displaystyle {\begin{array}{rccl}\partial _{\mathbf {d} }:&{\mathcal {E}}^{\mathcal {V}}&\rightarrow &{\mathcal {E}}^{\mathcal {V}}\\&f&\mapsto &(\mathbf {x} \mapsto \lim _{\epsilon \rightarrow 0}{\frac {f(\mathbf {x} +\epsilon \mathbf {d} )-f(\mathbf {x} )}{\epsilon }})\end{array}}}

Théorème — Les opérateurs de dérivation directionnelle selon les directions définies par les vecteurs d'une base forment une famille covariante d'opérateurs, qui sont donc notés avec un indice bas.

i = e i {\displaystyle \partial _{i}=\partial _{\mathbf {e} _{i}}}
Démonstration

C'est une conséquence directe de la linéarité de l'opérateur de dérivation directionnelle selon la direction.

e i = A i j e j = A i j e j {\displaystyle \partial _{\mathbf {e} '_{i}}=\partial _{A_{i}^{j}\mathbf {e} _{j}}=A_{i}^{j}\partial _{\mathbf {e} _{j}}}

i f {\displaystyle \partial _{i}f} est parfois noté f , i {\displaystyle f_{,i}} .

Base duale

Théorème — Les vecteurs de la base duale sont contravariants.

Démonstration

Soit x {\displaystyle \mathbf {x} } un vecteur de V {\displaystyle {\mathcal {V}}} .

On remarque tout d'abord que e i ( x ) = x i {\displaystyle \mathbf {e^{*}} _{i}(\mathbf {x} )=x^{i}} par définition de la base duale. De même e i ( x ) = x i {\displaystyle \mathbf {e'^{*}} _{i}(\mathbf {x} )=x'^{i}} .

D'où :

e i ( x ) = x i = A j i x j = A j i e j ( x ) {\displaystyle \mathbf {e^{*}} _{i}(\mathbf {x} )=x^{i}=A_{j}^{i}x'^{j}=A_{j}^{i}\mathbf {e'^{*}} _{j}(\mathbf {x} )}

Une conséquence de ce théorème est que les vecteurs de la base duale sont parfois notés e i {\displaystyle \mathbf {e} ^{i}} .

Propriétés

Lien avec les bases duales

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Produit contracté

Théorème et définition —  Soient ( a i ) i = 1 n {\displaystyle (a^{i})_{i=1\ldots n}} et ( b i ) i = 1 n {\displaystyle (b_{i})_{i=1\ldots n}} deux familles respectivement contravariante et covariante, à valeurs dans une algèbre associative. L'expression

a i b i {\displaystyle a^{i}b_{i}}

ne dépend pas du choix de la base utilisée, et est appelée produit contracté.

Démonstration

En notant ( a i ) i = 1 n {\displaystyle (a'^{i})_{i=1\ldots n}} et ( b i ) i = 1 n {\displaystyle (b'_{i})_{i=1\ldots n}} les expressions des deux familles dans la base e i = 1 n {\displaystyle \mathbf {e} '_{i=1\ldots n}} , il vient:

a i b i = a i ( A i j b j ) = A i j a i b j = ( A i j a i ) b j = a j b j {\displaystyle {\begin{array}{rcl}a'^{i}b'_{i}&=&a'^{i}(A_{i}^{j}b_{j})\\&=&A_{i}^{j}a'^{i}b_{j}\\&=&(A_{i}^{j}a'^{i})b_{j}\\&=&a^{j}b_{j}\end{array}}}

Extension en géométrie différentielle

En géométrie différentielle, les espaces considérés, c'est-à-dire les variétés différentielles, n'ont pas de structure d'espace vectoriel et à ce titre les concepts de covariance et de contravariance ne sont pas directement applicables. Cependant, les variétés différentielles sont localement assimilables à des espaces vectoriels à travers les espaces tangents. Des correspondances naturelles permettent donc de définir les notions vues plus haut non plus par rapport à un changement de base, mais plutôt par rapport à un changement de coordonnées x μ x μ {\displaystyle x^{\mu }\leftrightarrow x'^{\mu }} .

Localement, ces coordonnées varient selon les différentielles:

d x μ = x μ x ν d x ν = ν x μ d x ν = A ν μ d x ν {\displaystyle dx'^{\mu }={\frac {\partial x'^{\mu }}{\partial x^{\nu }}}dx^{\nu }=\partial _{\nu }x'^{\mu }dx^{\nu }=A_{\nu }^{\mu }dx^{\nu }}

Les différentielles d x μ {\displaystyle dx^{\mu }} forment alors une base dans l'espace tangent, tandis que les dérivées partielles forment la matrice de passage.

Dès lors, lorsqu'un ensemble T μ {\displaystyle T^{\mu }} de fonctions varie comme les différentielles, c'est-à-dire lorsque

T μ = ν x μ T ν {\displaystyle T'^{\mu }=\partial _{\nu }x'^{\mu }T^{\nu }}

alors T {\displaystyle T} est dit covariant "pour" (ou "selon") l'indice μ {\displaystyle \mu } .

Lorsqu'un ensemble T ν {\displaystyle T_{\nu }} varie de façon contraire, c'est-à-dire lorsque

T ν = ν x μ T μ {\displaystyle T_{\nu }=\partial _{\nu }x'^{\mu }T'_{\mu }}

ou T μ = x ν x μ T ν = μ x ν T ν {\displaystyle {T'}_{\mu }={\frac {\partial x^{\nu }}{\partial x'^{\mu }}}T_{\nu }=\partial _{\mu }x^{\nu }T_{\nu }} ,


alors T {\displaystyle T} est dit contravariant "pour" (ou "selon") l'indice ν {\displaystyle \nu } .

T {\displaystyle T} peut très bien être covariant pour certains indices, et contravariant pour d'autres. La transformation la plus générale s'écrit alors:

T ν 1 ν k μ 1 μ l = ν 1 x α 1 ν k x α k β 1 x μ 1 β l x μ l T α 1 α k β 1 . . . β l {\displaystyle {T'}_{\nu _{1}\ldots \nu _{k}}^{\mu _{1}\ldots \mu _{l}}=\partial _{\nu _{1}}{x'}^{\alpha _{1}}\ldots \partial _{\nu _{k}}{x'}^{\alpha _{k}}\partial _{\beta _{1}}x^{\mu _{1}}\ldots \partial _{\beta _{l}}x^{\mu _{l}}T_{\alpha _{1}\ldots \alpha _{k}}^{\beta _{1}...\beta _{l}}}

Ceci constitue une définition simplifiée du concept de tenseur.

Certains auteurs, tels que Sean M. Carroll (cf. bibliographie), préfèrent poser le symbole prime sur les indices et non sur le tenseur. Ils notent ainsi:

T ν 1 ν k μ 1 μ l = ν 1 x μ 1 ν k x μ k ν 1 x μ 1 ν l x μ l T μ 1 μ k ν 1 . . . ν l {\displaystyle T_{\nu _{1}'\ldots \nu _{k}'}^{\mu _{1}'\ldots \mu _{l}'}=\partial _{\nu _{1}'}{x}^{\mu _{1}}\ldots \partial _{\nu _{k}'}{x}^{\mu _{k}}\partial _{\nu _{1}}x^{\mu _{1}'}\ldots \partial _{\nu _{l}}x^{\mu _{l}'}T_{\mu _{1}\ldots \mu _{k}}^{\nu _{1}...\nu _{l}}}

Autres usages du vocable

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Les concepts de covariance et contravariance se retrouvent dans d'autres domaines, comme en informatique, notamment concernant le typage des données. Le lien entre ces différents usages traduit une structure commune plus abstraite qui relève essentiellement de la théorie des catégories.


Bibliographie

Articles connexes

Sur les autres projets Wikimedia :

  • covariance, sur le Wiktionnaire
  • Repère euclidien non orthonormé, sur Wikiversity
  • icône décorative Portail des mathématiques
  • icône décorative Portail de la physique