Înmulțirea matricilor

La înmulțirea matricilor, numărul de coloane din prima matrice trebuie să fie egal cu numărul de linii din a doua matrice. Matricea rezultată are numărul de linii ale primei matrice și numărul de coloane ale celei de-a doua matrice.

În matematică, în special în algebra liniară, înmulțirea matricilor sau înmulțirea matricială[1] este o operație binară care produce o matrice din două matrici. La înmulțirea matricială, numărul de coloane din prima matrice trebuie să fie egal cu numărul de linii din a doua matrice. Matricea rezultată, cunoscută sub numele de produs matricial, are numărul de linii ale primei matrice și numărul de coloane ale celei de-a doua matrice. Produsul matricilor A și B este notat AB.[2]

Înmulțirea matricială a fost descrisă pentru prima dată de matematicianul francez Jacques Philippe Marie Binet în 1812,[3] pentru a reprezenta compunerea funcțiilor⁠(d) de transformări liniare care sunt reprezentate cu ajutorul matricilor. Astfel, înmulțirea matricială a devenit un instrument de bază al algebrei liniare și, ca atare, are numeroase aplicații în multe domenii ale matematicii, precum și în matematica aplicată, statistică, fizică, economie și inginerie.[4][5] Calculul produselor matriciale este o operație centrală în toate aplicațiile algebrei liniare.

Notație

În acest articol convențiile privind notațiile sunt următoarele: matricile sunt reprezentate prin litere majuscule grase (bold), de exemplu A; vectorii cu litere minuscule grase, de exemplu a; iar elementele vectorilor și matricilor cu italice, de exemplu A sau a. Notația indexată este adesea cel mai clar mod de a exprima definițiile și este notația standard folosit în literatura de specialitate. Linia din matrice este indicată de indicele i, iar coloana de indicele j. Elementul matricei A este indicat prin (A)ij, Aij sau aij. Prin excepție, un singur indice, de exemplu A1, A2, se folosește pentru a indica o matrice (nu un element al unei matrice) dintr-o colecție de matrici.

Definiție

Dacă A este o matrice m × n iar B este o matrice n × p,

A = ( a 11 a 12 a 1 n a 21 a 22 a 2 n a m 1 a m 2 a m n ) , B = ( b 11 b 12 b 1 p b 21 b 22 b 2 p b n 1 b n 2 b n p ) {\displaystyle \mathbf {A} ={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}},\quad \mathbf {B} ={\begin{pmatrix}b_{11}&b_{12}&\cdots &b_{1p}\\b_{21}&b_{22}&\cdots &b_{2p}\\\vdots &\vdots &\ddots &\vdots \\b_{n1}&b_{n2}&\cdots &b_{np}\\\end{pmatrix}}}

Produsul matricial C = AB (notat fără punct sau semnul înmulțirii) este definit ca fiind matricea m × p [6][7][8][9]

C = ( c 11 c 12 c 1 p c 21 c 22 c 2 p c m 1 c m 2 c m p ) {\displaystyle \mathbf {C} ={\begin{pmatrix}c_{11}&c_{12}&\cdots &c_{1p}\\c_{21}&c_{22}&\cdots &c_{2p}\\\vdots &\vdots &\ddots &\vdots \\c_{m1}&c_{m2}&\cdots &c_{mp}\\\end{pmatrix}}}

asfel încât

c i j = a i 1 b 1 j + a i 2 b 2 j + + a i n b n j = k = 1 n a i k b k j , {\displaystyle c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+\cdots +a_{in}b_{nj}=\sum _{k=1}^{n}a_{ik}b_{kj},}

pentru i = 1, ..., m și j = 1, ..., p.

Adică elementul cij al produsului se obține prin înmulțirea termen cu termen a elementelor din linia i a matricei A cu cele din coloana j a matricei B și sumând aceste n produse. Altfel spus, cij este produsul scalar al liniei i a matricei A cu coloana j a matricei B.

Prin urmare AB poate fi scris și ca

C = ( a 11 b 11 + + a 1 n b n 1 a 11 b 12 + + a 1 n b n 2 a 11 b 1 p + + a 1 n b n p a 21 b 11 + + a 2 n b n 1 a 21 b 12 + + a 2 n b n 2 a 21 b 1 p + + a 2 n b n p a m 1 b 11 + + a m n b n 1 a m 1 b 12 + + a m n b n 2 a m 1 b 1 p + + a m n b n p ) {\displaystyle \mathbf {C} ={\begin{pmatrix}a_{11}b_{11}+\cdots +a_{1n}b_{n1}&a_{11}b_{12}+\cdots +a_{1n}b_{n2}&\cdots &a_{11}b_{1p}+\cdots +a_{1n}b_{np}\\a_{21}b_{11}+\cdots +a_{2n}b_{n1}&a_{21}b_{12}+\cdots +a_{2n}b_{n2}&\cdots &a_{21}b_{1p}+\cdots +a_{2n}b_{np}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}b_{11}+\cdots +a_{mn}b_{n1}&a_{m1}b_{12}+\cdots +a_{mn}b_{n2}&\cdots &a_{m1}b_{1p}+\cdots +a_{mn}b_{np}\\\end{pmatrix}}}

Astfel produsul AB este definit dacă și numai dacă numărul de coloane din A este egal cu numărul de linii din B,[2] în acest caz n.

În majoritatea cazurilor elementele matricilor sunt numere, dar pot fi orice fel de obiecte matematice pentru care sunt definite o adunare și o înmulțire, care sunt asociative, adunarea să fie comutativă, iar înmulțirea să fie distributivă în raport cu adunarea. În particular, elementele pot fi ele înseși matrici.

Ilustrare

Prezentare vizuală a calculului termenilor produsului matricial

Figura din dreapta ilustrează schematic produsul a două matrice A și B, arătând cum fiecare intersecție din matricea produsului corespunde cu o linie din A și o coloană din B.

[ a 11 a 12 a 31 a 32 ] 4 × 2  matrix [ b 12 b 13 b 22 b 23 ] 2 × 3  matrix = [ c 12 c 33 ] 4 × 3  matrix {\displaystyle {\overset {4\times 2{\text{ matrix}}}{\begin{bmatrix}a_{11}&a_{12}\\\cdot &\cdot \\a_{31}&a_{32}\\\cdot &\cdot \\\end{bmatrix}}}{\overset {2\times 3{\text{ matrix}}}{\begin{bmatrix}\cdot &b_{12}&b_{13}\\\cdot &b_{22}&b_{23}\\\end{bmatrix}}}={\overset {4\times 3{\text{ matrix}}}{\begin{bmatrix}\cdot &c_{12}&\cdot \\\cdot &\cdot &\cdot \\\cdot &\cdot &c_{33}\\\cdot &\cdot &\cdot \\\end{bmatrix}}}}

Valorile de la intersecții, marcate cu cercuri în figura din dreapta, sunt:

c 12 = a 11 b 12 + a 12 b 22 c 33 = a 31 b 13 + a 32 b 23 {\displaystyle {\begin{aligned}c_{12}&=a_{11}b_{12}+a_{12}b_{22}\\c_{33}&=a_{31}b_{13}+a_{32}b_{23}\end{aligned}}}

Principalele aplicații

Istoric, înmulțirea matricilor a fost introdusă pentru a facilita și clarifica calculele din algebra liniară. Această relație strânsă între înmulțirea matricilor și algebra liniară rămâne fundamentală în toate ramurile matematicii, precum și în fizică, chimie, inginerie și informatică.

Aplicații liniare

Dacă un spațiu vectorial are o bază finită, orice vector este reprezentat în mod unic printr-un șir finit de scalari, numit componentele vectorului, ale cărui elemente sunt coordonatele vectorului în acea bază. Aceste componente formează un alt spațiu vectorial, care este izomorf cu spațiul vectorial inițial. Componentele vectorului sunt plasate de obicei într-o matrice coloană (numită și vector coloană), care este o matrice cu o singură coloană. Deci, un vector coloană reprezintă atât componentele vectorului, cât și un vector din spațiului vectorial inițial.

O aplicație liniară A dintr-un spațiu vectorial de dimensiune n într-un spațiu vectorial de dimensiune m aplică un vector coloană

x = ( x 1 x 2 x n ) {\displaystyle \mathbf {x} ={\begin{pmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{pmatrix}}}

pe vectorul coloană

y = A ( x ) = ( a 11 x 1 + + a 1 n x n a 21 x 1 + + a 2 n x n a m 1 x 1 + + a m n x n ) . {\displaystyle \mathbf {y} =A(\mathbf {x} )={\begin{pmatrix}a_{11}x_{1}+\cdots +a_{1n}x_{n}\\a_{21}x_{1}+\cdots +a_{2n}x_{n}\\\vdots \\a_{m1}x_{1}+\cdots +a_{mn}x_{n}\end{pmatrix}}.}

Aplicația liniară A este astfel definită de matricea

A = ( a 11 a 12 a 1 n a 21 a 22 a 2 n a m 1 a m 2 a m n ) , {\displaystyle \mathbf {A} ={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots &\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}},}

și aplică vectorul coloană x {\displaystyle \mathbf {x} } pe produsul matricial

y = A x . {\displaystyle \mathbf {y} =\mathbf {Ax} .}

Dacă B este o altă aplicație liniară din spațiul vectorial precedent de dimensiunea m, într-un spațiu vectorial de dimensiunea p, este reprezentată printr-o matrice B {\displaystyle \mathbf {B} } (p × m). Un calcul simplu arată că matricea compunerii B A {\displaystyle B\circ A} este produsul matricial B A . {\displaystyle \mathbf {BA} .} Formula generală ( B A ) ( x ) = B ( A ( x ) ) {\displaystyle (B\circ A)(\mathbf {x} )=B(A(\mathbf {x} ))} care definește funcția compusă este prezentată aici ca un caz particular de asociativitate al produsului matricial:

( B A ) x = B ( A x ) = B A x . {\displaystyle (\mathbf {BA} )\mathbf {x} =\mathbf {B} (\mathbf {Ax} )=\mathbf {BAx} .}

Rotațiile geometrice

Folosind un sistem de coordonate carteziene într-un plan euclidian, rotația cu un unghi α {\displaystyle \alpha } în jurul originii este o aplicație liniară. Mai exact,

[ x y ] = [ cos α sin α sin α cos α ] [ x y ] , {\displaystyle {\begin{bmatrix}x'\\y'\end{bmatrix}}={\begin{bmatrix}\cos \alpha &-\sin \alpha \\\sin \alpha &\cos \alpha \end{bmatrix}}{\begin{bmatrix}x\\y\end{bmatrix}},}

unde punctul inițial ( x , y ) {\displaystyle (x,y)} și imaginea sa ( x , y ) {\displaystyle (x',y')} sunt scrise ca vectori coloană.

Compunerea rotației cu unghiul α {\displaystyle \alpha } și cea cu unghiul β {\displaystyle \beta } corespunde apoi cu produsul matricial

[ cos β sin β sin β cos β ] [ cos α sin α sin α cos α ] = [ cos β cos α sin β sin α cos β sin α sin β cos α sin β cos α + cos β sin α sin β sin α + cos β cos α ] = [ cos ( α + β ) sin ( α + β ) sin ( α + β ) cos ( α + β ) ] , {\displaystyle {\begin{bmatrix}\cos \beta &-\sin \beta \\\sin \beta &\cos \beta \end{bmatrix}}{\begin{bmatrix}\cos \alpha &-\sin \alpha \\\sin \alpha &\cos \alpha \end{bmatrix}}={\begin{bmatrix}\cos \beta \cos \alpha -\sin \beta \sin \alpha &-\cos \beta \sin \alpha -\sin \beta \cos \alpha \\\sin \beta \cos \alpha +\cos \beta \sin \alpha &-\sin \beta \sin \alpha +\cos \beta \cos \alpha \end{bmatrix}}={\begin{bmatrix}\cos(\alpha +\beta )&-\sin(\alpha +\beta )\\\sin(\alpha +\beta )&\cos(\alpha +\beta )\end{bmatrix}},}

în care membrul drept al ultimei identități conține identitățile trigonometrice pentru sinusul și cosinusul sumei și diferenței unghiurilor, compunerea corespunde rotației cu unghiul α + β {\displaystyle \alpha +\beta } , cum era de așteptat.

Alocarea resurselor în economie

Calculul elementului din stânga jos a A B {\displaystyle \mathbf {AB} } corespunde luării în considerare a tuturor căilor (evidențiate) de la materia primă b 4 {\displaystyle b_{4}} la produsul final f 1 {\displaystyle f_{1}} în graful fluxului de producție

De exemplu, o fabrică fictivă folosește 4 tipuri de materii prime, b 1 , b 2 , b 3 , b 4 {\displaystyle b_{1},b_{2},b_{3},b_{4}} pentru a produce 3 tipuri de bunuri intermediare , m 1 , m 2 , m 3 {\displaystyle m_{1},m_{2},m_{3}} , care la rândul lor sunt folosite pentru a produce 3 tipuri de produse finite, f 1 , f 2 , f 3 {\displaystyle f_{1},f_{2},f_{3}} . Matricile

A = ( 1 0 1 2 1 1 0 1 1 1 1 2 ) {\displaystyle \mathbf {A} ={\begin{pmatrix}1&0&1\\2&1&1\\0&1&1\\1&1&2\\\end{pmatrix}}}   și   B = ( 1 2 1 2 3 1 4 2 2 ) {\displaystyle \mathbf {B} ={\begin{pmatrix}1&2&1\\2&3&1\\4&2&2\\\end{pmatrix}}}

furnizează cantitatea de materii prime necesare pentru o anumită cantitate de bunuri intermediare și, respectiv, cantitatea de bunuri intermediare necesară pentru o anumită cantitate de produse finite. De exemplu, pentru a produce o unitate de bun intermediar m 1 {\displaystyle m_{1}} , sunt necesare o unitate de materie primă b 1 {\displaystyle b_{1}} , două unități de b 2 {\displaystyle b_{2}} , nicio unitate de > b 3 {\displaystyle >b_{3}} și o unitate de b 4 {\displaystyle b_{4}} , corespunzătoare primei coloane din A {\displaystyle \mathbf {A} } .

Folosind înmulțirea matricilor se calculează

A B = ( 5 4 3 8 9 5   6 5 3 11 9 6 ) ; {\displaystyle \mathbf {AB} ={\begin{pmatrix}5&4&3\\8&9&5\\\ 6&5&3\\11&9&6\\\end{pmatrix}};}

această matrice indică direct cantitățile de materii prime necesare pentru cantități date de produse finite. De exemplu, intrarea din stânga jos a A B {\displaystyle \mathbf {AB} } este calculată ca fiind 1 1 + 1 2 + 2 4 = 11 {\displaystyle 1\cdot 1+1\cdot 2+2\cdot 4=11} , reflectând faptul că pentru a produce o unitate de f 1 {\displaystyle f_{1}} sunt necesare 11 {\displaystyle 11} unități de b 4 {\displaystyle b_{4}} . Efectiv, este necesară o unitate de b 4 {\displaystyle b_{4}} pentru m 1 {\displaystyle m_{1}} , 2 pentru m 2 {\displaystyle m_{2}} și 4 {\displaystyle 4} pentru fiecare dintre cele două m 3 {\displaystyle m_{3}} unități care intră în unitatea f 1 {\displaystyle f_{1}} , vezi imaginea.

Pentru a produce de exemplu 100 de unități din produsul final f 1 {\displaystyle f_{1}} , 80 de unități de f 2 {\displaystyle f_{2}} și 60 de unități de f 3 {\displaystyle f_{3}} , cantitățile necesare de materii prime pot fi calculate prin

( A B ) ( 100 80 60 ) = ( 1000 1820 1180 2180 ) , {\displaystyle (\mathbf {AB} ){\begin{pmatrix}100\\80\\60\\\end{pmatrix}}={\begin{pmatrix}1000\\1820\\1180\\2180\end{pmatrix}},}

adică 1000 {\displaystyle 1000} unități de b 1 {\displaystyle b_{1}} , 1820 {\displaystyle 1820} unități de b 2 {\displaystyle b_{2}} , 1180 {\displaystyle 1180} unități de b 3 {\displaystyle b_{3}} și 2180 {\displaystyle 2180} unități de b 4 {\displaystyle b_{4}} . Similar, matricea produsului A B {\displaystyle \mathbf {AB} } poate fi utilizată pentru a calcula cantitățile necesare de materii prime pentru alte date privind cantitățile de produse finale.[10]

Sisteme de ecuații liniare

Forma generală a unui sistem de ecuații liniare este:

a 11 x 1 + + a 1 n x n = b 1 a 21 x 1 + + a 2 n x n = b 2 a m 1 x 1 + + a m n x n = b m . {\displaystyle {\begin{matrix}a_{11}x_{1}+\cdots +a_{1n}x_{n}=b_{1}\\a_{21}x_{1}+\cdots +a_{2n}x_{n}=b_{2}\\\vdots \\a_{m1}x_{1}+\cdots +a_{mn}x_{n}=b_{m}\end{matrix}}.}

Folosind aceeași notație ca mai sus, un astfel de sistem este echivalent cu o singură ecuație matricială:

A x = b . {\displaystyle \mathbf {Ax} =\mathbf {b} .}

Produsul scalar, forma biliniară și sesquiliniară

Produsul scalar al doi vectori coloană este elementul unic al produsului matricial

x T y , {\displaystyle \mathbf {x} ^{\mathsf {T}}\mathbf {y} ,}

unde x T {\displaystyle \mathbf {x} ^{\mathsf {T}}} este vectorul linie obținut prin transpunerea x {\displaystyle \mathbf {x} } . (De obicei o matrice 1×1 este identificată prin unicul său element.)

În general, orice formă biliniară pe un spațiu vectorial de dimensiune finită poate fi exprimată ca produs matricial:

x T A y , {\displaystyle \mathbf {x} ^{\mathsf {T}}\mathbf {Ay} ,}

și orice altă formă sesquiliniară⁠(d) poate fi exprimată prin

x A y , {\displaystyle \mathbf {x} ^{\dagger }\mathbf {Ay} ,}

unde x {\displaystyle \mathbf {x} ^{\dagger }} este adjuncta lui x {\displaystyle \mathbf {x} } (transpusa conjugată).

Proprietăți generale

Înmulțirea matricială are unele proprietăți asemănătoare cu înmulțirea obișnuită. Totuși, înmulțirea matricială nu este definită dacă numărul de coloane al primului factor diferă de numărul de linii al celui de-al doilea factor și este necomutativă,[11] chiar și când produsul rămâne definit după schimbarea ordinii factorilor.[12][13]

Necomutativitatea

O operație este comutativă dacă, fiind date două elemente A și B astfel încât produsul A B {\displaystyle \mathbf {A} \mathbf {B} } este definit, atunci B A {\displaystyle \mathbf {B} \mathbf {A} } este definit și A B = B A . {\displaystyle \mathbf {A} \mathbf {B} =\mathbf {B} \mathbf {A} .}

Înmulțirea matricială a două matrici A și B al căror produs matricial A B {\displaystyle \mathbf {A} \mathbf {B} } este definit, ar fi comutativă dacă produsul B A {\displaystyle \mathbf {B} \mathbf {A} } este și el definit, iar A B = B A . {\displaystyle \mathbf {A} \mathbf {B} =\mathbf {B} \mathbf {A} .}

Dacă A și B sunt matrici de dimensiunile m×n respectiv p×q, atunci A B {\displaystyle \mathbf {A} \mathbf {B} } este definit dacă n = p, iar B A {\displaystyle \mathbf {B} \mathbf {A} } este definit dacă m = q. Prin urmare, dacă unul dintre produse este definit, celălalt ar trebui să fie nedefinit. Dacă m = q n = p {\displaystyle m=q\neq n=p} , cele două produse sunt definite, dar au dimensiuni diferite; astfel că ele nu pot fi egale. Doar dacă m = q= n= p, adică dacă A și B sunt ambele pătrate, de aceeași dimensiune, ambele produse sunt definite și au aceeași dimensiune. Chiar și în acest caz, în general

A B B A . {\displaystyle \mathbf {A} \mathbf {B} \neq \mathbf {B} \mathbf {A} .}

De exemplu

( 0 1 0 0 ) ( 0 0 1 0 ) = ( 1 0 0 0 ) , {\displaystyle {\begin{pmatrix}0&1\\0&0\end{pmatrix}}{\begin{pmatrix}0&0\\1&0\end{pmatrix}}={\begin{pmatrix}1&0\\0&0\end{pmatrix}},}

dar

( 0 0 1 0 ) ( 0 1 0 0 ) = ( 0 0 0 1 ) . {\displaystyle {\begin{pmatrix}0&0\\1&0\end{pmatrix}}{\begin{pmatrix}0&1\\0&0\end{pmatrix}}={\begin{pmatrix}0&0\\0&1\end{pmatrix}}.}

Acest exemplu poate fi extins pentru a arăta că dacă A este o matrice n×n cu elementele într-un corp F, atunci A B = B A {\displaystyle \mathbf {A} \mathbf {B} =\mathbf {B} \mathbf {A} } pentru orice matrice B n×n cu elementele din F dacă și numai dacă A = c I {\displaystyle \mathbf {A} =c\,\mathbf {I} } unde c F {\displaystyle c\in F} și I este matricea unitate n×n. Dacă, în loc de un corp, se presupune că elementele aparțin unui inel, atunci trebuie adăugată condiția ca c să aparțină centrului inelului.

Un caz particular în care comutativitatea apare este atunci când D și E sunt două matrici diagonale pătrate de aceeași mărime. Atunci DE = ED.[11] Din nou, dacă matricile sunt peste un inel generic în loc de a fi peste un corp, elementele corespunzătoare ale fiecăreia trebuie, de asemenea, să fie comutative unul față de celălalt pentru ca acest lucru să fie valabil.

Distributivitatea

Produsul matricial este distributiv față de adunarea matricilor. Adică dacă A, B, C, D sunt matrici de dimensiunile respective m×n, n×p, n×p, și p×q, există atât distributivitatea la stânga[11]

A ( B + C ) = A B + A C , {\displaystyle \mathbf {A} (\mathbf {B} +\mathbf {C} )=\mathbf {AB} +\mathbf {AC} ,}

cât și la dreapta[11]

( B + C ) D = B D + C D . {\displaystyle (\mathbf {B} +\mathbf {C} )\mathbf {D} =\mathbf {BD} +\mathbf {CD} .}

Aceasta rezultă din distributivitatea coeficienților

k a i k ( b k j + c k j ) = k a i k b k j + k a i k c k j , {\displaystyle \sum _{k}a_{ik}(b_{kj}+c_{kj})=\sum _{k}a_{ik}b_{kj}+\sum _{k}a_{ik}c_{kj},}
k ( b i k + c i k ) d k j = k b i k d k j + k c i k d k j . {\displaystyle \sum _{k}(b_{ik}+c_{ik})d_{kj}=\sum _{k}b_{ik}d_{kj}+\sum _{k}c_{ik}d_{kj}.}

Asociativitatea

Fiind date matricile A, B și C, produsele (AB)C și A(BC) sunt definite dacă și numai dacă numărul de coloane din A este egal cu numărul de linii din B și numărul de coloane din B este egal cu numărul de linii din C (în special, dacă unul dintre produse este definit, atunci celălalt este și el definit). În acest caz există asociativitatea

( A B ) C = A ( B C ) . {\displaystyle (\mathbf {AB} )\mathbf {C} =\mathbf {A} (\mathbf {BC} ).}

Ca la orice operație asociativă, aceasta permite omiterea parantezelor și scrierea produselor de mai sus ca A B C . {\displaystyle \mathbf {ABC} .}

Aceasta se extinde natural la produsul a oricâte matrici, cu condiția ca dimensiunile să se potrivească. Adică dacă A1, A2, ... , A n sunt matrici astfel încât numărul de coloane ale Ai este egal numărul de linii ale Ai + 1 pentru i = 1, ... , n−1, atunci produsul

i = 1 n A i = A 1 A 2 A n {\displaystyle \prod _{i=1}^{n}\mathbf {A} _{i}=\mathbf {A} _{1}\mathbf {A} _{2}\cdots \mathbf {A} _{n}}

este definit și nu depinde de ordinea în care se fac înmulțirile, cât timp ordinea matricilor este păstrată fixă.

Aceste proprietăți pot fi demonstrate prin operații de adunare simple, dar lungi. Acest rezultat rezultă și din faptul că matricile sunt aplicații liniare. Prin urmare, proprietatea asociativă a matricilor este pur și simplu un caz particular al proprietății asociative a compunerii funcțiilor⁠(d).

Produsul cu un scalar

Dacă A este o matrice și c un scalar, atunci matricile c A {\displaystyle c\mathbf {A} } și A c {\displaystyle \mathbf {A} c} se obțin înmulțind la stânga sau la dreapta toate elementele lui A cu c. Dacă scalarii sunt comutativi, atunci c A = A c . {\displaystyle c\mathbf {A} =\mathbf {A} c.}

Dacă produsul A B {\displaystyle \mathbf {AB} } este definit (adică numărul de coloane din A este egal cu numărul de linii din B), atunci

c ( A B ) = ( c A ) B {\displaystyle c(\mathbf {AB} )=(c\mathbf {A} )\mathbf {B} }   și   ( A B ) c = A ( B c ) . {\displaystyle (\mathbf {A} \mathbf {B} )c=\mathbf {A} (\mathbf {B} c).}

Dacă scalarii sunt comutativi, atunci toate cele patru matrici sunt egale. În general, toate cele patru sunt egale dacă c aparține centrului unui inel care conține elementele matricei, deoarece în acest caz, cX = Xc pentru toate matricile X.

Aceste proprietăți rezultă din biliniaritatea produsului scalarilor:

c ( k a i k b k j ) = k ( c a i k ) b k j {\displaystyle c\left(\sum _{k}a_{ik}b_{kj}\right)=\sum _{k}(ca_{ik})b_{kj}}
( k a i k b k j ) c = k a i k ( b k j c ) . {\displaystyle \left(\sum _{k}a_{ik}b_{kj}\right)c=\sum _{k}a_{ik}(b_{kj}c).}

Operații cu matricea transpusă

Dacă scalarii sunt comutativi, transpusa produsului matricial este produsul, în ordine inversă, al transpuselor factorilor. Acesta este

( A B ) T = B T A T {\displaystyle (\mathbf {AB} )^{\mathsf {T}}=\mathbf {B} ^{\mathsf {T}}\mathbf {A} ^{\mathsf {T}}}

unde cu T este notată transpusa.

Această identitate nu este valabilă pentru elementele necomutative, deoarece ordinea dintre elementele lui A și B este inversată atunci când se extinde definirea produsului matricial.

Conjugata complexă

Dacă A și B au elemente complexe, atunci

( A B ) = A B {\displaystyle (\mathbf {AB} )^{*}=\mathbf {A} ^{*}\mathbf {B} ^{*}}

unde cu * sunt notate conjugatele complexe ale elementelor matricei.

Acest lucru rezultă din aplicarea la definiția produsului matricial a faptului că conjugatul unei sume este suma conjugatelor sumelor, iar conjugatul unui produs este produsul conjugatelor factorilor.

Transpunerea acționează asupra indicilor elementelor, în timp ce conjugarea acționează independent asupra elementelor în sine. Rezultă că, dacă A și B au elemente complexe, există

( A B ) = B A , {\displaystyle (\mathbf {AB} )^{\dagger }=\mathbf {B} ^{\dagger }\mathbf {A} ^{\dagger },}

unde cu sunt notate adjunctele (conjugatele transpuselor, sau, echivalent, transpusele conjugatelor).

Matrici pătrate

Fie M n ( R ) {\displaystyle {\mathcal {M}}_{n}(R)} mulțimea de matrici pătrate n×n cu elementele din inelul R, care, în practică, este adesea un corp.

În M n ( R ) {\displaystyle {\mathcal {M}}_{n}(R)} , produsul este definit pentru fiecare pereche de matrici. Acest lucru face din M n ( R ) {\displaystyle {\mathcal {M}}_{n}(R)} un inel, care are matricea unitate I ca element neutru (matricea ale cărei elemente pe diagonala principală sunt egale cu 1 și toate celelalte elemente sunt 0). Acest inel este, de asemenea, o R-algebră asociativă⁠(d).

Dacă n > 1, multe matrici nu au o inversă multiplicativă. De exemplu, o matrice care are toate elementele unei linii (sau unei coloane) 0 nu are inversă. Dacă există, inversa unei matrice A se notează A−1 și verifică relația

A A 1 = A 1 A = I . {\displaystyle \mathbf {A} \mathbf {A} ^{-1}=\mathbf {A} ^{-1}\mathbf {A} =\mathbf {I} .}

O matrice care are o inversă este o matrice inversabilă. În caz contrar, este o matrice singulară.

Un produs matricial este inversabil dacă și numai dacă fiecare factor este inversabil. În acest caz există relația

( A B ) 1 = B 1 A 1 . {\displaystyle (\mathbf {A} \mathbf {B} )^{-1}=\mathbf {B} ^{-1}\mathbf {A} ^{-1}.}

Când R este comutativ și, în special, când este un corp, determinantul unui produs este produsul determinanților. Deoarece determinanții sunt scalari, iar scalarii sunt comutativi, există relația

det ( A B ) = det ( B A ) = det ( A ) det ( B ) . {\displaystyle \det(\mathbf {AB} )=\det(\mathbf {BA} )=\det(\mathbf {A} )\det(\mathbf {B} ).}

Ceilalți invarianți⁠(d) matriciali nu se comportă la fel de bine cu produsele. Totuși, dacă R este comutativ, AB și BA au aceeași urmă, același polinom caracteristic⁠(d) și aceleași valori proprii cu aceleași multiplicități. Totuși, vectorii proprii sunt în general diferiți dacă ABBA.

Puterea unei matrice pătrate

O matrice pătrată poate fi ridicată la orice putere întreagă nenegativă înmulțind-o cu ea însăși în mod repetat, în același mod ca pentru numerele obișnuite. Acesta este,

A 0 = I , {\displaystyle \mathbf {A} ^{0}=\mathbf {I} ,}
A 1 = A , {\displaystyle \mathbf {A} ^{1}=\mathbf {A} ,}
A k = A A A de 𝘬 ori . {\displaystyle \mathbf {A} ^{k}=\underbrace {\mathbf {A} \mathbf {A} \cdots \mathbf {A} } _{\text{de 𝘬 ori}}.}

Calcularea celei de a k-a putere a unei matrice, dacă se face cu algoritmul trivial (înmulțire repetată) necesită de k−1 ori timpul unei singure înmulțiri matriciale. Deoarece acest lucru consumă foarte mult timp, se preferă metoda ridicării la putere rapide⁠(d), care necesită mai puțin de 2 log2 k înmulțiri matriciale, deci este mult mai eficientă.

Un caz ușor de ridicare la putere este cel al unei matrice diagonale. Deoarece produsul matricilor diagonale echivalează cu simpla înmulțire a elementelor diagonale corespunzătoare, a k-a putere a unei matrici diagonale se obține prin ridicarea elementelor ei la puterea k:

[ a 11 0 0 0 a 22 0 0 0 a n n ] k = [ a 11 k 0 0 0 a 22 k 0 0 0 a n n k ] . {\displaystyle {\begin{bmatrix}a_{11}&0&\cdots &0\\0&a_{22}&\cdots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &a_{nn}\end{bmatrix}}^{k}={\begin{bmatrix}a_{11}^{k}&0&\cdots &0\\0&a_{22}^{k}&\cdots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &a_{nn}^{k}\end{bmatrix}}.}

Aplicație la matrici asemenea

Orice matrice inversabilă P {\displaystyle \mathbf {P} } definește o transformare de asemănare (pe matrici pătrate de aceeași dimensiune ca P {\displaystyle \mathbf {P} } )

S P ( A ) = P 1 A P . {\displaystyle S_{\mathbf {P} }(\mathbf {A} )=\mathbf {P} ^{-1}\mathbf {A} \mathbf {P} .}

Transformările de asemănare aplică produsul la factori, adică

S P ( A B ) = S P ( A ) S P ( B ) . {\displaystyle S_{\mathbf {P} }(\mathbf {AB} )=S_{\mathbf {P} }(\mathbf {A} )S_{\mathbf {P} }(\mathbf {B} ).}

De fapt,

P 1 ( A B ) P = P 1 A ( P P 1 ) B P = ( P 1 A P ) ( P 1 B P ) . {\displaystyle \mathbf {P} ^{-1}(\mathbf {AB} )\mathbf {P} =\mathbf {P} ^{-1}\mathbf {A} (\mathbf {P} \mathbf {P} ^{-1})\mathbf {B} \mathbf {P} =(\mathbf {P} ^{-1}\mathbf {A} \mathbf {P} )(\mathbf {P} ^{-1}\mathbf {B} \mathbf {P} ).}

Complexitatea de calcul

Îmbunătățirea estimărilor exponentului ω în timp pentru complexitatea de calcul a înmulțirii matriciale O ( n ω ) {\displaystyle O(n^{\omega })}

Un algoritm de înmulțire a matricilor care rezultă din definiție necesită în cazul cel mai rău n3 înmulțiri și (n−1)n2 adunări de scalari pentru a calcula produsul a două matrice pătrate n×n. Într-un model de calcul în care operațiile scalare au timp constant complexitatea sa de calcul⁠(d) este deci O(n3).

Surprinzător, această complexitate nu este optimă, așa cum a arătat în 1969 Volker Strassen, care a furnizat un algoritm, numit acum algoritmul Strassen⁠(d), cu o complexitate de O ( n log 2 7 ) O ( n 2 , 8074 ) . {\displaystyle O(n^{\log _{2}7})\approx O(n^{2,8074}).} [14]

Din 2020, cel mai bun algoritm de înmulțire matricială era cel dat de Josh Alman și Virginia Vassilevska Williams, cu complexitatea O(n2.3728596).[15]

Nu se știe dacă înmulțirea matricială poate fi efectuată în timp n2 + o(1). Acest lucru ar fi optim, deoarece trebuie citite cele n2 elementele unei matrice pentru a o înmulți cu o altă matrice.

Deoarece înmulțirea matricială formează baza pentru mulți algoritmi și multe operații pe matrici chiar au aceeași complexitate ca și înmulțirea matricială (până la o constantă multiplicativă), complexitatea de calcul a înmulțirii matriciale este o chestiune importantă în algebra liniară numerică⁠(d) și informatica teoretică⁠(d).

Complexitatea de calcul în funcție de ordinea operațiilor

Deși rezultatul unei secvențe de produse matrice nu depinde de ordinea efectuării produselor (cu condiția ca ordinea matricelor să nu fie schimbată), complexitatea de calcul poate depinde mult de această ordine.

De exemplu, dacă A, B și C sunt matrici cu dimensiunile 10×30, 30×5, 5×60, calculul (AB)C necesită 10×30×5 + 10×5×60 = 4500 de înmulțiri, în timp ce calculul A(BC) necesită 30×5×60 + 10×30×60 = 27 000 de înmulțiri.

Au fost concepuți algoritmi pentru alegerea ordinii optime de efectuare a produselor, adică printr-un număr minim de operații. Când numărul n de matrici crește, s-a demonstrat că alegerea ordinii optime are o complexitate de O ( n log n ) . {\displaystyle O(n\log n).}

Alte tipuri de produse ale matricilor

Înmulțirea „standard” a matricilor prezentată în articolul de față este singurul mod de înmulțire al matricilor studiat în învățământul preuniversitar din România.[16] Însă există și alte tipuri de produse de matrici:

Note

  1. ^ Anca Ignat, Calcul numeric Arhivat în , la Wayback Machine. (curs 2, 2022, p. 2), Universitatea „Alexandru Ioan Cuza” din Iași, accesat 2023-06-13
  2. ^ a b en Nykamp, Duane. „Multiplying matrices and vectors”. Math Insight. Accesat în . 
  3. ^ en O'Connor, John J.; Robertson, Edmund F., „Jacques Philippe Marie Binet”, MacTutor History of Mathematics archive, University of St Andrews .
  4. ^ en Lerner, Rita G.; Trigg, G. L. (). Encyclopaedia of Physics (ed. 2nd). VHC publishers. ISBN 978-3-527-26954-9. 
  5. ^ en Parker, C. B. (). McGraw Hill Encyclopaedia of PhysicsNecesită înregistrare gratuită (ed. 2nd). ISBN 978-0-07-051400-3. 
  6. ^ en Lipschutz, S.; Lipson, M. (). Linear Algebra. Schaum's Outlines (ed. 4th). McGraw Hill (USA). pp. 30–31. ISBN 978-0-07-154352-1. 
  7. ^ en Riley, K. F.; Hobson, M. P.; Bence, S. J. (). Mathematical methods for physics and engineeringNecesită înregistrare gratuită. Cambridge University Press. ISBN 978-0-521-86153-3. 
  8. ^ en Adams, R. A. (). Calculus, A Complete Course (ed. 3rd). Addison Wesley. p. 627. ISBN 0-201-82823-5. 
  9. ^ en Horn, Johnson (). Matrix Analysis (ed. 2nd). Cambridge University Press. p. 6. ISBN 978-0-521-54823-6. 
  10. ^ de Peter Stingl (). Mathematik für Fachhochschulen – Technik und Informatik (ed. 5th). München: Carl Hanser Verlag. ISBN 3-446-18668-9.  Here: Exm. 5.4.10, pp. 205–206
  11. ^ a b c d en Weisstein, Eric W. „Matrix Multiplication”. mathworld.wolfram.com. Accesat în . 
  12. ^ en Lipcshutz, S.; Lipson, M. (). „2”. Linear Algebra. Schaum's Outlines (ed. 4th). McGraw Hill (USA). ISBN 978-0-07-154352-1. 
  13. ^ en Horn, Johnson (). „Chapter 0”. Matrix Analysis (ed. 2nd). Cambridge University Press. ISBN 978-0-521-54823-6. 
  14. ^ Volker Strassen (). „Gaussian elimination is not optimal”. Numerische Mathematik. 13 (4): 354–356. doi:10.1007/BF02165411. 
  15. ^ Alman, Josh; Williams, Virginia Vassilevska (), „A Refined Laser Method and Faster Matrix Multiplication”, 32nd Annual ACM-SIAM Symposium on Discrete Algorithms (SODA 2021), arXiv:2010.05846 Accesibil gratuit 
  16. ^ Burtea, Marius; Burtea, Georgeta (). Carminis, ed. Matematică: Manual pentru clasa a XI-a (PDF). Pitești. pp. 22–26, accesat 2023–03–18. ISBN 978-973-123-417-5. Arhivat din original (PDF) la . Accesat în . 

Bibliografie

  • en Henry Cohn, Robert Kleinberg, Balázs Szegedy, and Chris Umans. Group-theoretic Algorithms for Matrix Multiplication. arΧiv:math.GR/0511460. Proceedings of the 46th Annual Symposium on Foundations of Computer Science, 23–25 October 2005, Pittsburgh, PA, IEEE Computer Society, pp. 379–388.
  • en Henry Cohn, Chris Umans. A Group-theoretic Approach to Fast Matrix Multiplication. arΧiv:math.GR/0307321. Proceedings of the 44th Annual IEEE Symposium on Foundations of Computer Science, 11–14 October 2003, Cambridge, MA, IEEE Computer Society, pp. 438–449.
  • en Coppersmith, D.; Winograd, S. (). „Matrix multiplication via arithmetic progressions”. J. Symbolic Comput. 9 (3): 251–280. doi:10.1016/s0747-7171(08)80013-2 Accesibil gratuit. 
  • en Horn, Roger A.; Johnson, Charles R. (), Topics in Matrix Analysis, Cambridge University Press, ISBN 978-0-521-46713-1 
  • en Knuth, D.E., The Art of Computer Programming Volume 2: Seminumerical Algorithms. Addison-Wesley Professional; 3 edition (November 14, 1997). ISBN: 978-0-201-89684-8. p. 501
  • en Press, William H.; Flannery, Brian P.; Teukolsky, Saul A.; Vetterling, William T. (), Numerical Recipes: The Art of Scientific Computing (ed. 3rd), Cambridge University Press, ISBN 978-0-521-88068-8 
  • en Ran Raz, On the complexity of matrix product. In Proceedings of the thirty-fourth annual ACM symposium on Theory of computing. ACM Press, 2002 doi:10.1145/509907.509932.
  • en Robinson, Sara, Toward an Optimal Algorithm for Matrix Multiplication, SIAM News 38(9), November 2005. PDF
  • en Strassen, Volker, Gaussian Elimination is not Optimal, Numer. Math. 13, p. 354-356, 1969
  • en Styan, George P. H. (), „Hadamard Products and Multivariate Statistical Analysis” (PDF), Linear Algebra and Its Applications, 6: 217–240, doi:10.1016/0024-3795(73)90023-2 Accesibil gratuit 
  • en Williams, Virginia Vassilevska (). „Multiplying matrices faster than coppersmith-winograd”. Proceedings of the 44th symposium on Theory of Computing - STOC '12. ACM. pp. 887–898. CiteSeerX 10.1.1.297.2680 Accesibil gratuit. doi:10.1145/2213977.2214056. ISBN 9781450312455. 

Legături externe

Portal icon Portal Matematică
v  d  m
Subiecte legate Algebră liniară
Acoperiere liniară · Bază · Coliniaritate · Combinație liniară · Independență liniară · Ortogonalitate · Procedeul Gram–Schmidt · Proiecție vectorială · Scalar · Spațiu dual · Spațiu vectorial · Transformare liniară
Determinant (Minor· Matrice, (Descompunerea unei matrice · Înmulțirea matricilor · Rang· Nucleu · Vector