En mathématiques , la matrice transposée (ou la transposée ) d'une matrice
A
∈
M
m
,
n
(
K
)
{\displaystyle A\in \mathrm {M} _{m,n}(K)}
est la matrice
A
T
∈
M
n
,
m
(
K
)
{\displaystyle A^{\mathsf {T}}\in \mathrm {M} _{n,m}(K)}
, également notée
A
t
{\displaystyle A^{\operatorname {t} }}
,
t
A
{\displaystyle ^{\operatorname {t} }\!A}
ou
A
′
{\displaystyle A'}
[ 1] , obtenue en échangeant les lignes et les colonnes de
A
{\displaystyle A}
.
La transposée A T d'une matrice A s'obtient par symétrie axiale par rapport à la diagonale principale de la matrice. La transposée de la transposée (A T )T est la matrice A d'origine.
Plus précisément, si on note
a
i
,
j
{\displaystyle a_{i,j}}
pour
(
i
,
j
)
∈
{
1
,
…
,
m
}
×
{
1
,
…
,
n
}
{\displaystyle (i,j)\in \{1,\ldots ,m\}\times \{1,\ldots ,n\}}
et
b
i
,
j
{\displaystyle b_{i,j}}
pour
(
i
,
j
)
∈
{
1
,
…
,
n
}
×
{
1
,
…
,
m
}
{\displaystyle (i,j)\in \{1,\ldots ,n\}\times \{1,\ldots ,m\}}
les coefficients respectivement de
A
{\displaystyle A}
et de
A
T
{\displaystyle A^{\mathsf {T}}}
alors pour tout
(
i
,
j
)
∈
{
1
,
…
,
n
}
×
{
1
,
…
,
m
}
{\displaystyle (i,j)\in \{1,\ldots ,n\}\times \{1,\ldots ,m\}}
on a
b
i
,
j
=
a
j
,
i
{\displaystyle b_{i,j}=a_{j,i}}
.
Par exemple, si
A
=
(
1
3
5
2
4
6
)
{\displaystyle A={\begin{pmatrix}1&3&5\\2&4&6\end{pmatrix}}}
alors
A
T
=
(
1
2
3
4
5
6
)
{\displaystyle A^{\mathsf {T}}={\begin{pmatrix}1&2\\3&4\\5&6\end{pmatrix}}}
.
On suppose ici que K est un anneau commutatif . On note
A
{\displaystyle A}
et
B
{\displaystyle B}
deux matrices quelconques de
M
m
,
n
(
K
)
{\displaystyle \mathrm {M} _{m,n}(K)}
et
α
∈
K
{\displaystyle \alpha \in K}
un scalaire.
L'application « transposition » est linéaire :
(
A
+
B
)
T
=
A
T
+
B
T
,
(
α
A
)
T
=
α
A
T
{\displaystyle (A+B)^{\mathsf {T}}=A^{\mathsf {T}}+B^{\mathsf {T}},\qquad (\alpha A)^{\mathsf {T}}=\alpha A^{\mathsf {T}}}
.
La transposée de
A
T
{\displaystyle A^{\mathsf {T}}}
est
A
{\displaystyle A}
. Par conséquent, l'application « transposition »
T
:
M
m
,
n
(
K
)
→
M
n
,
m
(
K
)
{\displaystyle ^{\mathsf {T}}:\mathrm {M} _{m,n}(K)\to \mathrm {M} _{n,m}(K)}
est bijective . C'est donc un isomorphisme d'espaces vectoriels . En particulier — pour les matrices carrées — c'est une involution de
M
n
(
K
)
{\displaystyle \mathrm {M} _{n}(K)}
; c'est donc la symétrie par rapport au sous-espace des matrices symétriques , parallèlement à celui des matrices antisymétriques .
La transposée du produit de deux matrices est égale au produit des transposées de ces deux matrices, mais dans l'ordre inverse :
(
A
B
)
T
=
B
T
A
T
{\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\,A^{\mathsf {T}}}
.
En particulier, l'application « transposition » est donc un antiautomorphisme de l'algèbre
M
n
(
K
)
{\displaystyle \mathrm {M} _{n}(K)}
.
Si une matrice carrée
A
{\displaystyle A}
est inversible , alors sa transposée l'est aussi, et la transposée de l'inverse de
A
{\displaystyle A}
est égale à l'inverse de sa transposée :
(
A
−
1
)
T
=
(
A
T
)
−
1
{\displaystyle \left(A^{-1}\right)^{\mathsf {T}}=\left(A^{\mathsf {T}}\right)^{-1}}
.
Une matrice carrée et sa transposée ont la même diagonale principale (et par conséquent la même trace ). En particulier, toute matrice diagonale est symétrique , c'est-à-dire égale à sa transposée.
Plus généralement, deux matrices carrées transposées l'une de l'autre ont même polynôme caractéristique donc mêmes valeurs propres , comptées avec leurs multiplicités (en particulier, non seulement même trace mais aussi même déterminant ), et même polynôme minimal . Mieux : sur un corps, elles sont semblables [ 2] . Cela peut se montrer en remarquant qu'elles ont les mêmes invariants de similitude , ou bien en utilisant la réduction de Jordan , et en remarquant que
S
J
S
−
1
=
J
T
{\displaystyle SJS^{-1}=J^{\mathsf {T}}}
, où J est un bloc de Jordan et S une matrice de permutation antidiagonale (en) .
Dans le cadre des espaces euclidiens , si A représente une application linéaire f : E → E' par rapport à deux bases orthonormales B et B' , alors sa transposée A T est la matrice, dans les bases B' et B , de son opérateur adjoint f * : E' → E , caractérisé par
∀
x
∈
E
,
∀
y
∈
E
′
,
⟨
x
,
f
∗
(
y
)
⟩
E
=
⟨
f
(
x
)
,
y
⟩
E
′
.
{\displaystyle \forall x\in E,\ \forall y\in E',\quad \langle x,f^{*}(y)\rangle _{E}=\langle f(x),y\rangle _{E\,'}.}
Plus généralement, si A représente une application linéaire par rapport à deux bases , alors sa transposée A T est la matrice de la transposée de l'application par rapport aux bases duales (voir « Espace dual »).
Dans la théorie des hypergraphes , si l'on représente un hypergraphe par la matrice à coefficients dans {0,1} qui lui est associée, l'hypergraphe dual est défini par la transposée de cette matrice.
Si
K
{\displaystyle K}
est un anneau non commutatif , on considère la transposée
A
T
{\displaystyle A^{\mathsf {T}}}
d'une matrice
A
{\displaystyle A}
de
M
m
,
n
(
K
)
{\displaystyle \mathrm {M} _{m,n}(K)}
plutôt comme un élément de
M
n
,
m
(
K
o
p
)
{\displaystyle \mathrm {M} _{n,m}(K^{op})}
, où
K
o
p
{\displaystyle K^{op}}
est l'anneau opposé de
K
{\displaystyle K}
, de manière à conserver la compatibilité avec la multiplication,
(
A
B
)
T
=
B
T
⋅
A
T
{\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\cdot A^{\mathsf {T}}}
.
Complément
Vérifions qu'on peut identifier l'anneau
M
1
,
1
(
K
)
{\displaystyle \mathrm {M} _{1,1}(K)}
avec l'anneau
K
{\displaystyle K}
, la transposition étant compatible avec cette identification : en identifiant
l'ensemble
M
1
,
1
(
K
)
{\displaystyle \mathrm {M} _{1,1}(K)}
avec l'ensemble
K
{\displaystyle K}
, les matrices
A
,
B
∈
M
1
,
1
(
K
)
{\displaystyle A,B\in \mathrm {M} _{1,1}(K)}
s'identifient à leurs éléments respectifs
a
,
b
∈
K
{\displaystyle a,b\in K}
. L'application
a
↦
A
{\displaystyle a\mapsto A}
de
K
{\displaystyle K}
dans
M
1
,
1
(
K
)
{\displaystyle \mathrm {M} _{1,1}(K)}
est clairement un isomorphisme d'anneaux, d'où l'identification de
l'anneau
M
1
,
1
(
K
)
{\displaystyle \mathrm {M} _{1,1}(K)}
avec l'anneau
K
{\displaystyle K}
; en particulier,
A
B
{\displaystyle AB}
s'identifie à
a
b
{\displaystyle ab}
. Il reste à montrer que la transposition est compatible avec cette identification. En identifiant les matrices transposées
A
T
,
B
T
∈
M
1
,
1
(
K
)
{\displaystyle A^{\mathsf {T}},B^{\mathsf {T}}\in \mathrm {M} _{1,1}(K)}
à
a
,
b
∈
K
{\displaystyle a,b\in K}
respectivement, on a dans
M
1
,
1
(
K
)
{\displaystyle \mathrm {M} _{1,1}(K)}
, d'après ce qui précède,
(
A
B
)
T
=
B
T
⋅
A
T
=
B
⋅
A
{\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\cdot A^{\mathsf {T}}=B\cdot A}
où
B
⋅
A
{\displaystyle B\cdot A}
est le produit de
a
{\displaystyle a}
et
b
{\displaystyle b}
dans
K
o
p
{\displaystyle K^{op}}
, à savoir
b
⋅
a
=
a
b
{\displaystyle b\cdot a=ab}
. Par conséquent,
(
A
B
)
T
=
a
b
{\displaystyle (AB)^{\mathsf {T}}=ab}
, donc
(
A
B
)
T
{\displaystyle (AB)^{\mathsf {T}}}
s'identifie à
a
b
{\displaystyle ab}
, ce qui exprime la compatibilité attendue.
Sur les autres projets Wikimedia :