Sistema de equações diferenciais

Em situações reais sobre quantidade da vida e sua taxa de variação depende mais de uma variável. Por exemplo, a população de coelhos, embora possa ser representado por um número único, depende do tamanho das populações de predadores e a disponibilidade de alimento. Para representar e estudar esses problemas complicados, precisamos usar mais de uma variável dependente e mais de uma equação. Sistemas de equações diferenciais são as ferramentas para se usar. Tal como acontece com equações diferenciais de primeira ordem.[1]

Propriedades editar

Um sistema de   equações diferenciais de primeira ordem é um conjunto de   equações diferenciais, com uma variável independente   e   variáveis dependentes  , que podem ser escritas da seguinte forma

 

onde   são quaisquer funções de   variáveis reais, que definem o sistema. Não será necessário considerar sistemas de equações de ordem superior a 1, devido a que se alguma das equações diferencias for de ordem superior, poderá ser escrita como um sistema de equações de primeira ordem como veremos no exemplo que se segue.[1].

Exemplo

Escreva a equação diferencial de segunda ordem

 

como um sistema de equações de primeira ordem.

Podemos definir duas variáveis   e  , dependentes de  , a partir da função   e da sua derivada

 

a primeira definição é uma simples mudança do nome da variável, mas a segunda definição é uma equação diferencial de primeira ordem. Temos também uma segunda equação diferencial - a equação dada - que em termos das variáveis definidas é

 

O sistema de equações, escrito na forma padrão é

 

Como podemos ver, os sistemas de equações diferenciais de primeira ordem são muito importantes por incluir como casos particulares as equações diferencias de ordem superior e os sistemas delas. De fato, os métodos numéricos para resolver equações diferenciais de ordem superior baseiam-se, geralmente, na resolução de sistemas de equações de primeira ordem.[1]

O sistema de equações pode ser escrito numa forma mais compacta, usando a notação vetorial:

 


onde   é um vetor com   componentes, cada uma delas função de  , e   é um vetor com   componentes, funções de  ,   e  .

Sistemas de equações lineares editar

Um caso especial e importante na teoria das equações diferenciais é quando o vetor de funções  , no sistema de equações acima, tem a forma:

 

onde   é uma matriz quadrada   de funções que dependem unicamente de  ,   é um vetor com   componentes dependentes de  , e optamos por trabalhar a representação dos vetores com matrizes com uma única coluna, ficando assim bem definido o produto entre uma matriz   e um vetor (à direita da matriz) de dimensão  , dando como resultado outro vetor da mesma dimensão.[1]

O sistema de equações diferenciais lineares é o sistema:

 

Quando os coeficientes da matriz   sejam todos constantes, o sistema diz-se de coeficientes constantes; e quando o vetor   seja nulo, o sistema será homogêneo.

Exemplo

Escreva o sistema de equações lineares, de coeficientes constantes,

 

na forma vetorial.

O sistema pode ser escrito assim:

 

Que tem a forma da equação, com vetor   nulo e matriz   igual a:

 

Método de eliminação editar

Um método para resolver sistemas de equações diferenciais consiste em usar   das equações para eliminar   das variáveis  , na outra equação, ficando com uma equação diferencial ordinária para a função   que não foi eliminada. A melhor forma de explicar o método é através de um exemplo. Consideremos o sistema e usemos a notação de Operador diferencial para representar as derivadas   e  :

 

onde   é o operador que deriva em função do tempo a função que estiver à sua direita. O sistema de equações é reescrito então como:

 

Podemos tratar os operadores   como polinômios da mesma forma que usamos polinômios de funções convencionais, assim, o sistema anterior pode ser visto como um sistema de duas equações, com duas incógnitas   e   e com coeficientes que dependem de  

 

o sistema é, neste caso, homogêneo, mas para sistemas não homogêneos segue-se o mesmo procedimento, mantendo as funções de   nos lados direitos, sendo consideradas como coeficientes que dependem de  . Para eliminar   no sistema anterior, multiplicamos a primeira equação por  , e a somamos com a segunda equação:

 

o produto   pode ser calculado como uma multiplicação convencional de polinômios, já que quando não há funções envolvidas não há perigo de trocar a ordem das funções e dos operadores

 

onde   é a segunda derivada em relação ao tempo. [1]

Substituindo na equação, obtemos uma equação diferencial linear homogênea de segunda ordem

 

cuja equação característica é

 ,

logo, as raízes são   e  , portanto

 .

Substituindo-se   na primeira equação do sistema e isolando  , obtemos

 .

Atenção: Em exemplos mais complexos, cujos polinômios   dos sistemas de equações formam matrizes   com   >1, o número de constantes livres encontradas na resolução do sistema de equações (neste exemplo representadas por   e  ) pode ser maior que o número de constantes que a resposta final deve conter. Trata-se de uma falha no método.

Nesses casos, a quantidade de constantes livres da resposta final será igual ao grau do polinômio formado pelo determinante da matriz   dos polinômios  . A determinação de quais constantes são na verdade dependentes (múltiplos) de outras se dará através da substituição das funções obtidas no sistema de equações original, a fim de se determinar possíveis relações entre as constantes.

O método de eliminação consiste realmente no processo inverso, quando transformamos uma equação de ordem superior num sistema de equações de primeira ordem. Existem sistemas de equações mais complicados, nos quais o método de eliminação não é útil; realmente o processo de eliminação de variáveis é igual do que num sistema de equações algébricas, e como o leitor deverá saber existem métodos simples para resolver sistemas de equações algébricas lineares, mas não existem métodos gerais para as equações não lineares. Inclusivamente no caso de sistemas lineares, quando o número de variáveis for elevado, a eliminação das variáveis pode tornar-se complicada; alguns dos métodos usados no caso de equações algébricas lineares, por exemplo a regra de Cramer, introduzem divisão por operadores que implicam ter que calcular o inverso de um operador diferencial, que não é uma tarefa fácil.

Método matricial editar

O método matricial é útil para resolver sistemas de equações lineares, de coeficientes constantes, homogêneos e com valores iniciais.[1] A forma geral desses sistemas é

 

onde o vetor constante   dá o valor inicial do vetor  , em  .

Vamos encontrar a solução do sistema começando pelo caso mais simples  , e generalizando o resultado para qualquer  . No caso  , a matriz   e o vetor   têm uma única componente, e o sistema é uma única equação diferencial:

 

onde   é uma constante real. Já vimos vários métodos para resolver essa equação nos capítulos anteriores.[1] A solução é

 

A generalização para   é fácil: substituímos   pelo vetor  , e   pela matriz  , mas para ser consistentes com a representação de vetores como matrizes de uma coluna, a constante   deverá vir depois e não antes da função exponencial

 

Mas o que quer dizer a exponencial de uma matriz? Para o nosso objetivo   deverá ser uma matriz que quando derivada em ordem a   dá a mesma matriz multiplicada (à esquerda) por  .

Partindo da definição do produto entre matrizes e de matrizes por números, podemos definir qualquer função analítica de uma matriz, generalizando a partir da série de McClaurin da função; nomeadamente,

 

onde   é a matriz identidade, com 1 na diagonal e zero fora dela; a partir desta definição podemos demonstrar, derivando cada membro na série, que

 

Do ponto de vista prático, a série de McClaurin não é útil para calcular a matriz  , pois inclusivamente o cálculo dos primeiros termos na série torna-se tedioso. Para calcular a solução do sistema  , calcularemos primeiro um sistema de   soluções particulares simples que formam uma base para o espaço vetorial das soluções   e encontraremos as coordenadas da solução particular nessa base. Antes de abordar o problema são precisas algumas definições.

Autovetores e autovalores editar

Dada uma matriz   de dimensões  , Qualquer vetor   de dimensão   que verifique a propriedade

 

é designado vetor próprio, onde   é um número designado valor próprio. A condição anterior não é trivial; implica que a multiplicação da matriz pelo vetor próprio dá um vetor que é paralelo ao próprio vetor.

Se   for um vetor próprio, qualquer vetor na mesma direção ( ) também será um vetor próprio, correspondente ao mesmo valor próprio; portanto, os vetores próprios correspondentes ao mesmo valor próprio formam um subespaço do espaço dos vetores de dimensão  . O vetor nulo,  , obviamente verifica a condição de vetor próprio para qualquer matriz e qualquer valor  , mas não o consideraremos entre os vetores próprios. [1]

Também pode-se mostrar que dois vetores próprios correspondentes a valores próprios diferentes são linearmente independentes. Como o número máximo de vetores linearmente independentes é  , o número máximo de valores próprios diferentes também será  .

Para encontrar os vetores e valores próprios da matriz  , re-escrevemos a equação numa outra forma

 

Este é um sistema de equações lineares, homogéneo. Para que existam soluções diferentes da solução trivial, é necessário que o determinante do sistema homogêneo seja igual a zero

 

esta condição é um polinômio de grau   polinómio caraterístico da matriz) e poderá ter, no máximo,   raízes (valores próprios) diferentes.

No caso de existirem   raízes do polinômio caraterístico, reais e diferentes, os vetores próprios correspondentes a cada valor próprio formam subespaços de dimensão 1 (não podem ter dimensão maior), e escolhendo um vetor próprio por cada valor próprio obtemos uma base do espaço de dimensão  . Quando existe uma raiz repetida   vezes, os vetores próprios correspondentes a esse valor próprio formam um subespaço com dimensão compreendida entre 1 e  ; se a dimensão for  , será ainda possível selecionar   vetores próprios linearmente independentes e completar a base de vetores próprios para o espaço todo. Para o nosso objetivo, no caso de valores próprios complexos será ainda possível selecionar um vetor por cada valor próprio, só que os vetores selecionados já não serão vetores próprios.[1]

Soluções fundamentais editar

Dado um vetor qualquer  , o produto   é uma solução particular do sistema

 

Se   for um vetor próprio   da matriz  , a solução particular

 

designa-se solução fundamental. Dois vetores próprios linearmente independentes dão origem a duas soluções particulares linearmente independentes. Assim, quando existirem   vetores próprios linearmente independentes,  , as respetivas soluções,  , constituirão um conjunto fundamental de soluções, e qualquer outra solução pode ser escrita como combinação linear das soluções fundamentais

 

Ou, em forma mais compacta

 

onde a matriz   define-se como a matriz em que cada coluna é uma das soluções fundamentais  , e as componentes do vetor   são as constantes  . As soluções fundamentais   calculam-se facilmente a partir do seguinte teorema.

  • Se   é um vetor próprio da matriz  , correspondente ao valor próprio  , então

 

Demonstração: usando a série de McClaurin da função  , obtemos

 

aplicando   vezes à equação que define o vetor próprio,  

e substituindo na série anterior, chegamos ao resultado

 

O resultado do teorema anterior é importante porque permite substituir uma função matricial  , por uma função ordinária  ; é preciso ter em conta que a dita substituição é apenas possível quando a função estiver a multiplicar a um vetor próprio da matriz  .

As componentes da matriz fundamental do sistema,  , são funções do tempo. No instante  , a solução deverá ser igual ao vetor de condições iniciais,  , e cada solução fundamental é igual ao correspondente vetor próprio.

 

Substituindo na equação, obtemos um sistema linear de equações algébricas

 

onde a matriz   é a matriz em que cada coluna é um dos vetores próprios  . A resolução desse sistema permite encontrar as constantes  

 

e a solução da equação é igual a

 

Comparando as duas últimas equações anteriores, que são duas formas diferentes de escrever a solução particular, válidas para qualquer vetor  , obtemos um resultado importante

 

Esta equação permite calcular a exponencial de qualquer matriz  , a partir dos seus vetores e valores próprios.

Valores próprios complexos editar

Quando existem valores próprios complexos, procuramos um vetor próprio complexo,  , e as partes real ( ) e imaginária   desse vetor serão usados como vetores da base. [1]As correspondentes soluções fundamentais já não serão dadas pelo teorema visto na seção passada, pois os dois vetores não são vetores próprios, mas como   sim é vetor próprio, usamos a equação

 

Comparando as partes reais e imaginárias nos dois lados da equação, é possível calcular as duas soluções fundamentais   e  .[1]

Exemplo editar

Encontre a solução geral do sistema de equações diferenciais  , onde   é a seguinte matriz:

 

O polinômio caraterístico é:

 

e, portanto, os valores próprios são

 

um vetor próprio ( ) correspondente a   obtém-se a partir da solução do sistema

 

e a solução particular correspondente a   é

 

Outras duas soluções linearmente independentes podem ser obtidas a partir de   ou  . Para   obtemos:

 

A partir de   pode obter-se uma solução particular complexa:

 

As partes real e imaginária desta solução são também soluções, e junto com a solução obtida a partir de  , constituem um conjunto fundamental de soluções do sistema:

 

A solução geral do sistema é qualquer combinação linear do conjunto fundamental de soluções:

 

Vetores próprios generalizados editar

Falta-nos considerar o caso em que aparecem raízes do polinômio caraterístico com multiplicidade  . No caso das raízes não repetidas, o sistema de equações lineares que permitem calcular o vetor próprio correspondente é sempre um sistema com uma variável livre (subespaço de dimensão igual a um) que pode ser arbitrada. No caso da raiz de multiplicidade  , o sistema de equações lineares que definem os vetores próprios poderá ter entre uma e   variáveis livres. Se existirem   variáveis livres, obtêm-se   vetores próprios arbitrando valores linearmente independentes para elas (o mais fácil será usar conjuntos de variáveis onde unicamente uma delas é diferente de zero). [1]Se o sistema tiver menos do que   variáveis livres, para completar   vetores fundamentais usaremos vetores próprios generalizados.

Um vetor próprio generalizado da matriz  , correspondente ao valor próprio   e ao vetor próprio  , é um vetor   que verifica a seguinte condição

 

Para construir a solução fundamental correspondente a um vetor próprio generalizado, usa-se o seguinte teorema.[1]

Teorema

  • Se   é um vetor próprio generalizado da matriz  ,

correspondente ao valor próprio   e ao vetor próprio  , então

 

Demonstração: usando a série de McClaurin de  ,

 

a partir da definição do vetor próprio generalizado, obtemos

 

e multiplicando repetidas vezes pela matriz   vemos que

 

substituindo na série de McClaurin,

 

As duas séries dão o resultado que pretendemos encontrar.

O sistema que define os vetores generalizados poderá ter variáveis livres, dando origem a vários vetores próprios generalizados linearmente independentes, ou poderá não ter solução quando não existirem vetores próprios generalizados correspondentes a um determinado vetor próprio. Se depois de procurar vetores próprios generalizados não existirem suficientes vetores para completar uma base, será preciso procurar vetores próprios generalizados, de segunda ordem, que são vetores próprios generalizados, associados a um outro vetor próprio generalizado.[1]

Referências

  1. a b c d e f g h i j k l m n Villate, Jaime E. (2011). Equações Diferenciais e Equações de Diferenças (PDF). Porto: [s.n.] 120 páginas. Consultado em 22 de julho de 2013 

Ver também editar