Produto de matrizes: diferenças entre revisões
Conteúdo apagado Conteúdo adicionado
m +svg, -hack obsoleto desde o mw:MediaWiki 1.19 (ver também phab:rSVN104498 e phab:T33406#344368), format. <math> e pontuação, uso da sintaxe correta pra listas |
m Pequenos ajustes textuais e retirada do quadro (referências cobrem todo o texto agora) |
||
Linha 1:
Em matemática, o produto de duas [[Matriz (matemática)|matriz]]es é definido somente quando o número de colunas da primeira matriz é igual ao número de linhas da segunda matriz. Se ''A'' é uma matriz m×n (A também pode ser denotada por <math>A_{m,n}</math>) e ''B'' é uma matriz n×p, então seu '''produto''' é uma matriz m×p<ref name=":0">{{citar livro|título=Álgebra Linear e suas aplicações|ultimo=Lay|primeiro=David C.|editora=LTC|ano=2015|local=Rio de Janeiro|páginas=|acessodata=17 de agosto de 2018}}</ref> definida como ''AB'' (ou por ''A'' · ''B''). O elemento de cada entrada <math>c_{ij}</math> da matriz AB (o qual denotaremos por <math>(AB)_{ij}</math>) é dado pelo produto da i-ésima linha de A com a j-ésima coluna de B<ref name=":3" />, ou seja,▼
<math display="block"> (AB)_{ij} = \sum_{r=1}^n a_{ir}b_{rj} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj} </math>
▲Em matemática, o produto de duas [[Matriz (matemática)|matriz]]es é definido somente quando o número de colunas da primeira matriz é igual ao número de linhas da segunda matriz. Se ''A'' é uma matriz m×n (A também pode ser denotada por <math>A_{m,n}</math>) e ''B'' é uma matriz n×p, então seu '''produto''' é uma matriz m×p<ref name=":0">{{citar livro|título=Álgebra Linear e suas aplicações|ultimo=Lay|primeiro=David C.|editora=LTC|ano=2015|local=Rio de Janeiro|páginas=|acessodata=17 de agosto de 2018}}</ref> definida como ''AB'' (ou por ''A'' · ''B''). O elemento de cada entrada <math>c_{ij}</math> da matriz AB (o qual denotaremos por <math>(AB)_{ij}</math>) é dado pelo produto da i-ésima linha de A com a j-ésima coluna de B, ou seja,
▲<math display="block"> (AB)_{ij} = \sum_{r=1}^n a_{ir}b_{rj} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj} </math><ref name=":3" />
== Calculando directamente a partir da definição ==
Linha 59 ⟶ 55:
e AB ≠ BA.
Quando AB = BA, diz-se que A e B comutam
* Embora a multiplicação de matrizes não seja comutativa, os [[determinante]]s de ''AB'' e ''BA'' são sempre iguais (se ''A'' e ''B'' são matrizes quadradas de dimensões iguais). Veja o artigo sobre [[determinante]]s para esclarecimento.
* O produto é associativo, ou seja
<math display="block">\left(AB\right)C=A\left(BC\right)\,.</math>
* O produto distribui sob a soma
<math display="block">\left(A+B\right)C=AC+BC</math>
Linha 73 ⟶ 69:
* Sejam A uma matriz de ordem m×n, B uma matriz de ordem n×p e <math>\alpha</math> um [[número real]], então vale que:
<math>(\alpha A) = A(\alpha B) = \alpha (AB)
* Se A for uma matriz de ordem m×n, então vale que:
Linha 79 ⟶ 75:
<math>A = AI_n = I_mA</math><ref name=":2" />, pois o número de colunas de A é igual ao número de linhas de <math>I_n.</math> De modo semelhante, o número de colunas de <math>I_m</math> é igual ao número de linhas da matriz A.
* Propriedade de [[matriz transposta|matrizes transpostas]]: <math>\left (AB \right )^T = B^TA^T
'''Observações:'''
Linha 134 ⟶ 130:
</math>
Mas se tivermos A.0, então o resultado necessariamente será 0 (0 denota a matriz nula)
* A lei do cancelamento não é válida, pois se A ≠ 0 e AB = AC, pode acontecer que B ≠ C
Sejam <math>A = \left[\begin{array}{cc}
Linha 228 ⟶ 224:
== Definições importantes de matrizes derivadas das propriedades da multiplicação ==
* Uma matriz quadrada A de ordem ''n'' é inversível se tiver uma [[matriz inversa|inversa]] <math>A^{-1}</math> de tal maneira que sua multiplicação resulte na [[matriz identidade]], ou seja, <math>A*A^{-1}=I_n.</math>
*Neste caso, vale a comutatividade e <math>A^{-1}*A=I_n
== Algoritmos para a multiplicar matrizes eficientemente ==
{{Não resolvido|ciência da computação|Qual é o algoritmo mais rápido para a multiplicação de matrizes?}}
O [[tempo de execução]] da multiplicação de matrizes quadradas, se efetuada de forma intuitiva, é <math>O( n^3 ).</math> O tempo de execução para a multiplicação de matrizes retangulares (uma matriz ''m×p'' e outra ''p''×''n'') é ''O''(''mnp''), no entanto, existem algoritmos mais eficientes, tais como o [[algoritmo de Strassen]], concebido por [[Volker Strassen]] em 1969, e chamado frequentemente de "multiplicação rápida de matrizes". Ele baseia-se em uma forma de multiplicar matrizes 2×2 que exige apenas 7 multiplicações (em vez das 8 usuais), em troca de fazer algumas oprerações de adição e subtração. A aplicação recursiva desse método produz um algoritmo cujo custo multiplicativo é <math>O( n^{\log_{2}7}) \approx O(n^{2.807}).</math> O algoritmo de Strassen é mais complexo se comparado com o algoritmo intuitivo, e ele carece de [[estabilidade numérica]]. Mesmo assim, está disponível em diversas bibliotecas, tais como [[BLAS]], em que sua eficiência é significativamente maior para matrizes de dimensão ''n'' > 100
{{Referências|Notas e referências}}
|