Produto de matrizes: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
m +svg, -hack obsoleto desde o mw:MediaWiki 1.19 (ver também phab:rSVN104498 e phab:T33406#344368), format. <math> e pontuação, uso da sintaxe correta pra listas
Cesarb89 (discussão | contribs)
m Pequenos ajustes textuais e retirada do quadro (referências cobrem todo o texto agora)
Linha 1:
Em matemática, o produto de duas [[Matriz (matemática)|matriz]]es é definido somente quando o número de colunas da primeira matriz é igual ao número de linhas da segunda matriz. Se ''A'' é uma matriz m×n (A também pode ser denotada por <math>A_{m,n}</math>) e ''B'' é uma matriz n×p, então seu '''produto''' é uma matriz m×p<ref name=":0">{{citar livro|título=Álgebra Linear e suas aplicações|ultimo=Lay|primeiro=David C.|editora=LTC|ano=2015|local=Rio de Janeiro|páginas=|acessodata=17 de agosto de 2018}}</ref> definida como ''AB'' (ou por ''A'' · ''B''). O elemento de cada entrada <math>c_{ij}</math> da matriz AB (o qual denotaremos por <math>(AB)_{ij}</math>) é dado pelo produto da i-ésima linha de A com a j-ésima coluna de B<ref name=":3" />, ou seja,
{{mais notas|data=novembro de 2011}}
 
<math display="block"> (AB)_{ij} = \sum_{r=1}^n a_{ir}b_{rj} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj} </math><refpara name=":3"cada />par ''i'' e ''j'' com 1 ≤ ''i'' ≤ ''m'' e 1 ≤ ''j'' ≤ ''p''.
Em matemática, o produto de duas [[Matriz (matemática)|matriz]]es é definido somente quando o número de colunas da primeira matriz é igual ao número de linhas da segunda matriz. Se ''A'' é uma matriz m×n (A também pode ser denotada por <math>A_{m,n}</math>) e ''B'' é uma matriz n×p, então seu '''produto''' é uma matriz m×p<ref name=":0">{{citar livro|título=Álgebra Linear e suas aplicações|ultimo=Lay|primeiro=David C.|editora=LTC|ano=2015|local=Rio de Janeiro|páginas=|acessodata=17 de agosto de 2018}}</ref> definida como ''AB'' (ou por ''A'' · ''B''). O elemento de cada entrada <math>c_{ij}</math> da matriz AB (o qual denotaremos por <math>(AB)_{ij}</math>) é dado pelo produto da i-ésima linha de A com a j-ésima coluna de B, ou seja,
 
<math display="block"> (AB)_{ij} = \sum_{r=1}^n a_{ir}b_{rj} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj} </math><ref name=":3" />
 
para cada par ''i'' e ''j'' com 1 ≤ ''i'' ≤ ''m'' e 1 ≤ ''j'' ≤ ''p''.
 
== Calculando directamente a partir da definição ==
Linha 59 ⟶ 55:
e AB ≠ BA.
 
Quando AB = BA, diz-se que A e B comutam.<ref name=":1">{{citar livro|título=Matemática fundamental: uma nova abordagem|ultimo=José Ruy|primeiro=Giovanni|editora=FTD|ano=2002|local=São Paulo|páginas=|acessodata=17 de agosto de 2018}}</ref>.
 
* Embora a multiplicação de matrizes não seja comutativa, os [[determinante]]s de ''AB'' e ''BA'' são sempre iguais (se ''A'' e ''B'' são matrizes quadradas de dimensões iguais). Veja o artigo sobre [[determinante]]s para esclarecimento.
* O produto é associativo, ou seja:<ref name=":0" />:
 
<math display="block">\left(AB\right)C=A\left(BC\right)\,.</math>
 
* O produto distribui sob a soma:<ref name=":0" />:
 
<math display="block">\left(A+B\right)C=AC+BC</math>
Linha 73 ⟶ 69:
* Sejam A uma matriz de ordem m×n, B uma matriz de ordem n×p e <math>\alpha</math> um [[número real]], então vale que:
 
<math>(\alpha A) = A(\alpha B) = \alpha (AB).</math><ref name=":2">{{citar livro|título=Álgebra Linear|ultimo=Steinbruch|primeiro=Alfredo|ultimo2=Winterle|primeiro2=Paulo|editora=Pearson|ano=1987|local=São Paulo|páginas=|acessodata=17 de agosto de 2018}}</ref>.
 
* Se A for uma matriz de ordem m×n, então vale que:
Linha 79 ⟶ 75:
<math>A = AI_n = I_mA</math><ref name=":2" />, pois o número de colunas de A é igual ao número de linhas de <math>I_n.</math> De modo semelhante, o número de colunas de <math>I_m</math> é igual ao número de linhas da matriz A.
 
* Propriedade de [[matriz transposta|matrizes transpostas]]: <math>\left (AB \right )^T = B^TA^T.</math> <ref name=":0" />.
 
'''Observações:'''
Linha 134 ⟶ 130:
</math>
 
Mas se tivermos A.0, então o resultado necessariamente será 0 (0 denota a matriz nula).<ref name=":3">{{citar livro|título=Álgebra Linear|ultimo=Lipschutz|primeiro=Seymour|ultimo2=Lipson|primeiro2=Marc Lars|editora=Bookman|ano=2011|edicao=4|local=Porto Alegre|páginas=432|acessodata=17 de agosto de 2018}}</ref>.
 
* A lei do cancelamento não é válida, pois se A ≠ 0 e AB = AC, pode acontecer que B ≠ C.<ref name=":1" />. O caso a seguir ilustra isso:
 
Sejam <math>A = \left[\begin{array}{cc}
Linha 228 ⟶ 224:
== Definições importantes de matrizes derivadas das propriedades da multiplicação ==
* Uma matriz quadrada A de ordem ''n'' é inversível se tiver uma [[matriz inversa|inversa]] <math>A^{-1}</math> de tal maneira que sua multiplicação resulte na [[matriz identidade]], ou seja, <math>A*A^{-1}=I_n.</math>
*Neste caso, vale a comutatividade e <math>A^{-1}*A=I_n.</math><ref name=":0" />.
 
== Algoritmos para a multiplicar matrizes eficientemente ==
{{Não resolvido|ciência da computação|Qual é o algoritmo mais rápido para a multiplicação de matrizes?}}
O [[tempo de execução]] da multiplicação de matrizes quadradas, se efetuada de forma intuitiva, é <math>O( n^3 ).</math> O tempo de execução para a multiplicação de matrizes retangulares (uma matriz ''m×p'' e outra ''p''×''n'') é ''O''(''mnp''), no entanto, existem algoritmos mais eficientes, tais como o [[algoritmo de Strassen]], concebido por [[Volker Strassen]] em 1969, e chamado frequentemente de "multiplicação rápida de matrizes". Ele baseia-se em uma forma de multiplicar matrizes 2×2 que exige apenas 7 multiplicações (em vez das 8 usuais), em troca de fazer algumas oprerações de adição e subtração. A aplicação recursiva desse método produz um algoritmo cujo custo multiplicativo é <math>O( n^{\log_{2}7}) \approx O(n^{2.807}).</math> O algoritmo de Strassen é mais complexo se comparado com o algoritmo intuitivo, e ele carece de [[estabilidade numérica]]. Mesmo assim, está disponível em diversas bibliotecas, tais como [[BLAS]], em que sua eficiência é significativamente maior para matrizes de dimensão ''n'' > 100,<ref>Press 2007, p.&nbsp;108.</ref>, e é muito útil para matrizes grandes sobre domínios exatos tais como corpos finitos, em que a estabilidade numérica não é um problema.
 
{{Referências|Notas e referências}}