Em matemática, mais especificamente em álgebra linear, o teorema do núcleo e da imagem, em sua forma mais simples, afirma que o posto e a nulidade de uma matriz têm como soma o número de colunas da matriz. Especificamente, se A é uma matriz m-por-n (com m linhas e n colunas) sobre um corpo, então:
![{\displaystyle \operatorname {rk} (A)+\operatorname {nul} (A)=n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e0e4d7fd2433f12e26aba9d047afcc8a4eb1332c)
Isto também se aplica a
transformações lineares. Sejam
V e
W espaços vetoriais sobre algum corpo e seja
T : V → W uma transformação linear. Então o posto de
T é a dimensão da imagem de
T e a nulidade de
T é a dimensão do núcleo de
T. Tem-se:
![{\displaystyle \operatorname {dim} (\operatorname {im} (T))+\operatorname {dim} (\operatorname {ker} (T))=\operatorname {dim} (V),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3ad889abeda917570fe0d50d5f17214f4c43ea2)
ou, equivalentemente,
![{\displaystyle \operatorname {rk} (T)+\operatorname {nul} (T)=\operatorname {dim} (V).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1c81a14931ee544997144e88f080b18ce682671b)
Pode-se refinar esta afirmação (por meio do lema de splitting ou a prova abaixo) para que seja sobre um isomorfismo de espaços, em vez de apenas sobre as respectivas dimensões.
Mais geralmente, pode-se considerar a imagem, o núcleo, a co-imagem e o co-núcleo, que estão relacionados pelo teorema fundamental da álgebra linear.
Demonstrações
Serão apresentadas duas demonstrações. A primeira utiliza a notação das transformações lineares, mas pode ser facilmente adaptada para matrizes escrevendo T(x) = Ax, onde A é m × n. A segunda prova examina o sistema homogêneo Ax = 0 associado a uma matriz A m × n de posto r e mostra explicitamente que existe um conjunto de n − r soluções linearmente independentes que geram o espaço nulo de A. Essas provas também estão disponíveis no livro de Banerjee e Roy (2014)[1]
Primeira demonstração: Suponha que
forma uma base de ker T. Pode-se estender esta base para formar uma base de V:
Como a dimensão de ker T é m e a dimensão de V é m + n, é suficiente mostrar que a dimensão da image of T (im T) é n.
Para ver que
é uma base de im T, seja v um vetor arbitrário em V. Existe uma única sequência de escalares tais que:
![{\displaystyle \mathbf {v} =a_{1}\mathbf {u} _{1}+\cdots +a_{m}\mathbf {u} _{m}+b_{1}\mathbf {w} _{1}+\cdots +b_{n}\mathbf {w} _{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/38851c12457173d190abf9a9eac073d84b29a081)
![{\displaystyle \Rightarrow T\mathbf {v} =a_{1}T\mathbf {u} _{1}+\cdots +a_{m}T\mathbf {u} _{m}+b_{1}T\mathbf {w} _{1}+\cdots +b_{n}T\mathbf {w} _{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac5081e6dea8b02487d8b3bc9f65f4c228410de3)
![{\displaystyle \Rightarrow T\mathbf {v} =b_{1}T\mathbf {w} _{1}+\cdots +b_{n}T\mathbf {w} _{n}\;\;\because T\mathbf {u} _{i}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa4040d2640fcd58f3e20944a5f34fc025874a77)
Assim,
![{\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ba75abd415735ea5954c847793a81c88aad80bb0)
gera
im T.
Agora, é preciso mostrar que esta lista não tem redundâncias; isto é, que
é linearmente independente. Pode-se fazer isso mostrando que uma combinação linear destes vetores é zero se, e somente se, os coeficientes de cada vetor são zero. Seja:
![{\displaystyle c_{1}T\mathbf {w} _{1}+\cdots +c_{n}T\mathbf {w} _{n}=0\Leftrightarrow T(c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n})=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/30d094b1a4d9ecdaff074acc15ac99f722de2208)
![{\displaystyle \therefore c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n}\in \operatorname {ker} \;T}](https://wikimedia.org/api/rest_v1/media/math/render/svg/31bca1b6d89c4c648d934724ec6446f064b2fea4)
Então, como
ui geram ker
T, existe um conjunto de escalares
di tais que:
![{\displaystyle c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n}=d_{1}\mathbf {u} _{1}+\cdots +d_{m}\mathbf {u} _{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8d28ed00182913be30d07075cb7bfa45fad7b133)
Mas, como
![{\displaystyle \{\mathbf {u} _{1},\ldots ,\mathbf {u} _{m},\mathbf {w} _{1},\ldots ,\mathbf {w} _{n}\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/43a7b310f893952bf6b5f049afd6060a1b9cbe71)
é uma base de
V, todos os
ci,
di devem ser zero. Portanto,
![{\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ba75abd415735ea5954c847793a81c88aad80bb0)
é linearmente independente e de fato uma base de
im T. Isto prova que a dimensão de
im T é
n, como desejado.
Em termos mais abstratos, a aplicação T : V → im T cinde.
Segunda demonstração: Seja A uma matriz m × n com r colunas linearmente independentes (isto é o posto de A é r). Será mostrado que: (i) existe um conjunto de n − r soluções linearmente independentes para o sistema homogêneo Ax = 0, e (ii) que toda outra solução é uma combinação linear destas n − r soluções. Em outras palavras, será produzida uma matriz X de ordem n × (n − r) cujas colunas formam uma base do espaço nulo de A.
Sem perda de generalidade, assuma que as primeiras r colunas de A são linearmente independentes. Então, pode-se escrever A = [A1:A2], em que A1 é m × r com r vetores colunas linearmente independentes e A2 é m × (n − r), sendo cada uma de suas n − r colunas combinações lineares das colunas de A1. Isto significa que A2 = A1 B para alguma matriz B (ver fatoração de posto) e, assim, A = [A1:A1B]. Seja
em que
é a matriz matriz identidade (n − r) × (n − r). Note que X é uma matriz n × (n − r) que satisfaz
![{\displaystyle \mathbf {A} \mathbf {X} =[\mathbf {A} _{1}:\mathbf {A} _{1}\mathbf {B} ]{\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}=-\mathbf {A} _{1}\mathbf {B} +\mathbf {A} _{1}\mathbf {B} =\mathbf {O} \;.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e013e99930add65511bc07169dfbf068847f6ab0)
Portanto, cada uma das
n − r colunas de
X são soluções particulares de
Ax = 0. Além disso, as
n − r colunas de
X são
linearmente independentes, pois
Xu = 0 implica
u = 0:
![{\displaystyle \mathbf {X} \mathbf {u} =\mathbf {0} \Rightarrow {\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}\mathbf {u} =\mathbf {0} \Rightarrow {\begin{pmatrix}-\mathbf {B} \mathbf {u} \\\mathbf {u} \end{pmatrix}}={\begin{pmatrix}\mathbf {0} \\\mathbf {0} \end{pmatrix}}\Rightarrow \mathbf {u} =\mathbf {0} \;.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9a4feab4706345f39574178a0ea7e65f46ae3111)
Portanto, os vetores coluna de
X constituem um conjunto de
n −
r soluções linearmente independentes de
Ax =
0.
A seguir será provado que qualquer solução de Ax = 0 tem de ser uma combinação linear das colunas de X. Para isso, seja
qualquer vetor tal que Au = 0. Note que como as colunas de A1 são linearmente independentes, A1x = 0 implica x = 0. Portanto,
![{\displaystyle \mathbf {A} \mathbf {u} =\mathbf {0} \Rightarrow [\mathbf {A} _{1}:\mathbf {A} _{1}\mathbf {B} ]{\begin{pmatrix}\mathbf {u} _{1}\\\mathbf {u} _{2}\end{pmatrix}}=\mathbf {0} \Rightarrow \mathbf {A} _{1}(\mathbf {u} _{1}+\mathbf {B} \mathbf {u} _{2})=\mathbf {0} \Rightarrow \mathbf {u} _{1}+\mathbf {B} \mathbf {u} _{2}=\mathbf {0} \Rightarrow \mathbf {u} _{1}=-\mathbf {B} \mathbf {u} _{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cebce3939d1470123daa6520416afc7a3646678b)
![{\displaystyle \Rightarrow \mathbf {u} ={\begin{pmatrix}\mathbf {u} _{1}\\\mathbf {u} _{2}\end{pmatrix}}={\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}\mathbf {u} _{2}=\mathbf {X} \mathbf {u} _{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/97043febbafbe5be959c6a3f047f2242fb58e10f)
Isso prova que qualquer vetor
u que é uma solução de
Ax = 0 tem de ser uma combinação linear das
n − r soluções especiais dadas pelas colunas de
X. E já foi mostrado que as colunas de
X são linearmente independentes. Assim, as colunas de
X constituem uma base para o espaço nulo de
A. Por conseguinte, a nulidade de
A é
n − r. Como
r é igual ao posto de
A, segue-se que
rk(A) + nul(A) = n. QED.
Reformulações e generalizações
Este teorema é uma instância do primeiro teorema de isomorfismo da álgebra para o caso de espaços vetoriais; ele se generaliza para o splitting lemma.
Em uma linguagem mais moderna, o teorema também pode ser expresso como segue:
- 0 → U → V → R → 0
é uma sequência exata curta de espaços vetoriais, então
- dim(U) + dim(R) = dim(V).
Aqui R desempenha o papel de im T e U é o ker T, isto é
![{\displaystyle 0\rightarrow \ker T~{\overset {Id}{\rightarrow }}~V~{\overset {T}{\rightarrow }}~\operatorname {im} T\rightarrow 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/211c798fc9d2cd1ce7f68ae6e6062f06885e65fd)
No caso de dimensão finita, esta formulação é suscetível a uma generalização: se
- 0 → V1 → V2 → ... → Vr → 0
é uma sequência exata de espaços vetoriais de dimensão finita, então
![{\displaystyle \sum _{i=1}^{r}(-1)^{i}\dim(V_{i})=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81ac04570d0810c42111bd1885f47b1e3d27fcd0)
[2] O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita também podem ser formulado em termos do
índice de uma transformação linear. O índice de uma transformação linear
T : V → W, em que
V e
W têm dimensão finita, é definido por
- índice T = dim(ker T) − dim(coker T).
Intuitivamente, dim(ker T) é o número de soluções independentes x da equação Tx = 0 e dim(coker T) é o número de restrições independentes que devem ser impostas sobre y que Tx = y tenha solução. O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita é equivalente à afirmação de que
- índice T = dim(V) − dim(W).
Pode-se obter o índice da transformação linear T a partir dos espaços envolvidos, sem a necessidade de se analisar T em detalhe. Este efeito também ocorre em um resultado muito mais profundo: o teorema do índice de Atiyah–Singer afirma que o índice de certos operadores diferenciais pode ser obtido da geometria dos espaços envolvidos.
Notas
- ↑ Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- ↑ Zaman, Ragib. «Dimensions of vector spaces in an exact sequence». Mathematics Stack Exchange. Consultado em 27 de outubro de 2015
Referências
- Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- Meyer, Carl D. (2000), Matrix Analysis and Applied Linear Algebra, ISBN 978-0-89871-454-8, SIAM .