John von Neumann: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Etiquetas: Remoção considerável de conteúdo Editor Visual
m Foram revertidas as edições de 213.30.16.6 para a última revisão de Eric Duff, de 15h08min de 19 de outubro de 2015 (UTC)
Linha 109:
 
== Mecânica quântica ==
A [[mecânica quântica]] trata da natureza das partículas atómicas e das leis que regem as suas acções. Várias teorias da mecânica quântica começaram a aparecer para justificar as discrepâncias observadas quando se usava apenas a física [[Newton]]iana para descrever as observações das partículas atómicas.
 
Uma destas observações diz respeito ao comprimento de onda da luz que os átomos podem absorver e emitir. Por exemplo, os átomos de hidrogénio absorvem energia para comprimentos de onda de 656.3 nm, 486.1 nm, 434 nm ou 410.2 nm, mas não para comprimentos de onda intermédios. Isto contrariava os princípios da física do fim do século XIX, segundo os quais um electrão que orbita um núcleo num átomo deve irradiar em todos os comprimentos de onda de luz, perdendo energia e rapidamente caindo no núcleo. Como tal facto não foi observado, [[Max Planck]] introduziu uma nova teoria que dizia que a energia só podia ser emitida em quantidades definidas. Isto levou a duas teorias descritivas da natureza do átomo (este apenas poderia emitir e absorver energia em quanta específicos), que competiam entre si.
 
Uma delas, desenvolvida por [[Erwin Schrödinger]] sugeria que o elétron no hidrogênio é semelhante a uma corda num instrumento musical. Tal como uma corda, que emite um tom específico juntamente com harmónicas, assim um electrão deveria ter um certo “tom” no qual emitiria energia. Usando esta teoria, [[Schrödinger]] desenvolveu uma equação de onda que predizia correctamente os comprimentos de onda nos quais o hidrogénio emitiria.
 
A outra teoria foi desenvolvida por físicos em [[Göttingen]], incluindo [[Werner Heisenberg]], [[Max Born]] e [[Pascual Jordan]], centrava-se na posição e momento de um electrão num átomo. Eles diziam que estes valores não eram directamente observáveis (apenas a luz emitida pelo átomo podia ser observada) e assim podiam comportar-se de maneira muito diferente do movimento de uma partícula na física Newtoniana. Teorizavam que os valores da posição e momento deviam ser descritos por construções matemáticas que não os números usuais.
 
No final da década de 20, rapidamente se descobriu que estas duas aproximações, aparentemente muito diferentes, não eram mais do que duas formulações do mesmo princípio.
 
Em 1900, no Congresso Internacional de Matemáticos, [[David Hilbert]] tinha apresentado a sua famosa lista de 23 problemas que considerava fulcrais para o desenvolvimento da matemática no século XX. O sexto problema era a axiomatização de teorias físicas. No final da década de 20, a única área da física que ainda não tinha sido axiomatizada era a mecânica quântica, que se encontrava numa situação semelhante à da teoria dos conjuntos no início do século XX, enfrentando problemas se ordem filosófica e técnica: se por um lado o seu aparente não-determinismo ainda não tinha sido explicado de maneira determinística, por outro existiam as duas teorias heurísticas independentes referidas acima (a ''matrix mechanical'' de Heisenberg e ''wave mechanical'' de Schrödinger) mas não havia uma formulação teórica unificada que fosse satisfatória.
 
Von Neumann queria descobrir o que estas duas teorias tinham em comum, e através de uma aproximação matemática mais rigorosa, queria encontrar uma nova teoria mais poderosa e fundamental que as outras duas.
 
Assim, depois de terminar a axiomatização da teoria dos conjuntos, von Neumann dedicou-se à axiomatização da mecânica quântica. Em 1926, percebeu que um sistema podia ser considerado um ponto num espaço hilberteano, análogo à dimensão 6N do espaço de fase da mecânica clássica (N é o número de partículas, com três coordenadas gerais e 3 momentos canónicos para cada), mas com infinitas dimensões, correspondentes aos infinitos estados possíveis do sistema. A física tradicional podia assim ser representada por operadores lineares nestes espaços, e a física da mecânica quântica foi reduzida a matemática de operadores hermiteanos em espaços de Hilbert.
 
Tomemos como exemplo o [[princípio de incerteza]] de [[Heisenberg]]. De acordo com ele, a determinação da posição de uma partícula impede a determinação do seu momento e vice-versa. Sob a aproximação matemática proposta por von Neumann, que culminou na publicação em 1932 de ''The Mathematical Foundations of Quantum Mechanics'', esta situação é traduzida na não-comutatividade de dois operadores correspondentes e inclui os casos especiais das formulações de Heisenberg e Schrödinger. Nesse livro está demonstrado um teorema segundo o qual a mecânica quântica não pode ser deduzida a partir de uma teoria determinística como era usual na mecânica clássica. Apesar de tal demonstração conter um erro conceptual, serviu para lançar uma nova linha de pesquisa que levou à demonstração de que a física quântica requer uma noção da realidade substancialmente diferente da física clássica. Num trabalho complementar juntamente com [[Garrett Birkhoff]], von Neumann provou também que para além de uma noção de realidade diferente, a mecânica quântica precisa também de uma lógica diferente da clássica, a [[lógica quântica]], que é geralmente apresentada como uma versão modificada da [[lógica proposicional]].
 
Linha 153 ⟶ 169:
Sugeria a existência de uma instrução máquina, chamada ''conditional control transfer'', que permitia a interrupção e reinício do programa em qualquer ponto da computação. Sugeria igualmente guardar programas na mesma unidade de memória que os dados, o que permitiria que as instruções fossem aritmeticamente modificadas do mesmo modo que os dados. Uma unidade central de processamento, composta pela unidade de controlo e por uma ou mais unidades de execução, extrairia quer dados quer instruções da memória, operando sobre elas e devolvendo-as de novo à memória. O resultado era muito mais rápido, a programação e computação mais eficientes, pois permitiam que as instruções fossem escritas como sub-rotinas que não requeriam uma nova [[programação]] para cada novo problema (as rotinas mais longas podiam ser alteradas por partes, sendo os resultados intermédios guardados na memória e sendo usados para o resultado final).
 
Quer a implementação das componentes físicas independentes, quer as interacções entre elementos, têm variado ao longo do tempo, dependendo das tecnologias de fabrico, mas a sua arquitectura mantém-se. Tal arquitectura de memória única tornou-se conhecida como [[arquitectura de von Neumann]], apesar de a sua concepção ter envolvido [[J. Presper Eckert]] ou [[John William Mauchly]], inventores do [[ENIAC]], e é utilizada em quase todos os minicomputadores, microcomputta um grande avanço na construção da teoria geral, particularmente sob riscomicrocomputadores e situações de incerteza, uma vez que conseguiram estruturar matematicamente a noção de que cada indivíduo escolhe uma alternativa de acordo com uma certa [[probabilidade]], de modo a maximizar a utilidade. Outra importante contribuição desta publicação é o conceito de equilíbrio económico estático, pois, apesar da sua aplicação depender do modelo, não exige “regras do jogo” particulares (as ideias de Borel estavam limitadas a exemplos isolados, ou, na melhor das hipóteses, a jogos de soma nula, de dois jogadores, com matrizes de [[payoff|p]]<nowiki/>mportância da teoria da decisão estatística, e de estrategas da corporação RAND e do departamento de pesquisa naval. Ainda que tenha sido negligenciado à partida, a longo prazo ''Theory of Games and Economic Behavior'' exerceu uma enorme influência na economia, pois libertou a economia do cálculo diferencial, e levou o estudo económico para novas direcções tais como a conexão entre o núcleo e o equilíbrio competitivocomputadores geraldomésticos.
Para além da criação de uma nova arquitectura de computadores, von Neumann também criou os [[autómato]]s celulares sem a ajuda de computadores: nos [[anos 1940]], estudava sistemas [[Auto-replicação|auto-replicativos]] e enfrentava algumas dificuldades em explicitar o modelo inicial de um robot que fosse capaz de se copiar sozinho a partir de um conjunto de peças separadas. [[Stanislaw Ulam]], colega de von Neumann que na altura modelava o crescimento de cristais usando uma grelha, sugeriu-lhe que se inspirasse nos seus trabalhos para ultrapassar o problema. Baseando-se numa grelha bidimensional na qual cada célula podia estar num de 29 estados distintos, von Neumann criou um modelo matemático abstracto para o seu problema, um “copiador e construtor universal”, que se tornou no primeiro [[autómato celular]] auto-replicante. Uma vez mais se comprova que von Neumann ia inventando a matemática à medida das suas necessidades e dá crédito ao que diziam sobre ele: “Matemáticos em geral, provam o que são capazes de provar. Von Neumann prova o que quer.”
 
Aplicando esta descoberta ao seu gosto por explosivos, von Neumann provou que a maneira mais eficaz de realizar operações mineiras como minar uma [[lua]] inteira ou uma [[cintura de asteróides]] seria usar máquinas auto-replicativas, aproveitando o seu crescimento exponencial.
 
Von Neumann foi um dos pioneiros da computação, tendo feito grandes contribuições para o desenvolvimento do design lógico, que Shannon resume do seguinte modo:
 
“Von Neumann passou parte considerável dos seus últimos anos de vida a trabalhar na teoria dos [[autómatos]]. Representava para ele uma síntese do seu interesse inicial em lógica e teoria das demonstrações, e do seu posterior trabalho, durante e após a [[Segunda Guerra Mundial]], em computadores electrónicos em larga escala. Envolvendo uma mistura de matemática pura e aplicada bem como outras ciências, a teoria dos autómatos era um campo ideal para o intelecto abrangente de von Neumann. Ele trouxe-lhe várias perspectivas novas e abriu pelo menos duas novas direcções de pesquisa.<ref>'''Von Neumann’s contributions to automata theory''', Shannon, C.E. (Bull. Amer. Math. Soc. 64, pg. 123-129, 1958)</ref>”
 
Ainda no campo da ciência da [[computação]], [[Donald Knuth]] cita von Neumann como o inventor do [[algoritmo]] [[Mergesort]], em 1945, cujo objectivo é criar uma sequência ordenada a partir de outras duas já ordenadas. Para tal, divide-se a sequência original em pares de dados, e ordena-se. Depois, agrupa-se em sequências de quatro elementos, e assim por diante até a sequência original estar separada em apenas duas partes. Este é um exemplo de algoritmo de ordenação do tipo “dividir-para-conquistar”, cujos passos do algoritmo são:
* 1- A sequência a ordenar é dividida em duas;
* 2- Conquistar: cada uma das metades é ordenada independentemente;
* 3- Combinar: as duas metades são juntas numa sequência ordenada.
 
O seu algoritmo para simular uma moeda equilibrada usando uma moeda viciada é usado na etapa de [[Software Whitening]] de alguns geradores de números aleatórios.
 
Também se aventurou na resolução de problemas na hidrodinâmica numérica e com [[R.D. Richtmyer]] desenvolveu um algoritmo sobre [[viscosidade]] artificial que contribuiu para a compreensão das [[ondas de choque]]. Sem esse trabalho, provavelmente não compreenderíamos muita da [[astrofísica]] actual e não teríamos desenvolvido os motores de [[Avião#Avi.C3.B5es a jato|jacto]] e de [[foguete espacial|foguete]]. A [[viscosidade artificial]] foi um truque matemático usado para atenuar ligeiramente a transição de choque, uma vez que os computadores, ao resolverem problemas de [[hidrodinâmica]] ou [[aerodinâmica]], têm tendência para por demasiados pontos na grelha em regiões de descontinuidade acentuada (ondas de choque).
 
== Teoria de jogos ==
A [[teoria dos jogos]] é um ramo da [[matemática]] que estuda situações de conflito de diversos tipos (sociais, econômicos, políticos, militares, éticos, filosóficos, jornalísticos, etc) de acordo com um modelo escolhido, cujas regras são mais ou menos rígidas, e mais ou menos conhecidas pelos jogadores. Assim, estes escolhem diferentes ações para tentarem melhorar o seu retorno. Von Neumann tinha uma “impressionante consciência dos resultados obtidos por outros matemáticos e as possibilidades inerentes que ofereciam. Cedo no seu trabalho, um artigo de [[Émile Borel|Borel]] sobre a propriedade minimax levou-o a desenvolver … ideias que culminaram numa das suas mais originais criações, a teoria de jogos.<ref name="jvnUlam">'''John von Neumann''', Ulam (Bull. Amer. Math. Soc. 64, pg. 1-49, 1958)</ref>”
 
Em 1940, von Neumann escreveu o seu primeiro artigo relevante sobre jogos, intitulado ''Theory of Games I, general foundations'', cujo objectivo era, segundo os autores, “mostrar adequadamente que os problemas típicos do comportamento económico são rigorosamente idênticos às soluções matemáticas de certos jogos de estatégia”, que foi rapidamente seguido por um segundo artigo, ''Theory of Games II, decomposition theory'', tentando sintetizar o seu trabalho sobre teoria de jogos. Já anteriormente tinha escrito ''Zur Theorie der Gesellschaftsspiele'', em 1928 e em 1937 ''A Model of General Economic Equilibrium''.
 
Em 1944, com a publicação por John von Neumann e [[Oskar Morgenstern]] de ''Theory of games and Economic Behavior'', este ramo da matemática ganhou uma maior proeminência. É muito usado em [[economia]], para procurar [[estratégia]]s em situações em que o resultado não depende apenas da estratégia própria de um agente e das condições de mercado, mas também das estratégias escolhidas por outros agentes (que tendem a maximizar o seu próprio retorno) ou para examinar a [[concorrência]] e cooperação dentro de pequenos grupos de empresas. Assim, um jogo pode ser definido como um conflito envolvendo ganhos e perdas entre dois ou mais oponentes que seguem regras formais. O primeiro capítulo deste livro fornece um contexto económico para a teoria de jogos, e os autores, baseando-se na análise de [[Bernoulli]]{{dn}}, estabelecem um sistema de axiomas para uma ferramenta numérica, conhecida como a função de utilidade de von Neumann–Morgenstern, o que representa um grande avanço na construção da teoria geral, particularmente sob risco e situações de incerteza, uma vez que conseguiram estruturar matematicamente a noção de que cada indivíduo escolhe uma alternativa de acordo com uma certa [[probabilidade]], de modo a maximizar a utilidade. Outra importante contribuição desta publicação é o conceito de equilíbrio económico estático, pois, apesar da sua aplicação depender do modelo, não exige “regras do jogo” particulares (as ideias de Borel estavam limitadas a exemplos isolados, ou, na melhor das hipóteses, a jogos de soma nula, de dois jogadores, com matrizes de [[payoff]] simétricas). Assim, a solução de equilíbrio de von Neumann e Morgenstern, ao contrário de tratamentos anteriores, não depende da competição perfeita ou até mesmo dos contextos do mercado, que limitavam a interacção.
 
A solução de von Neumann e Morgenstern depende do conceito de “domínio”; isto significa que os jogadores excluem estratégias que serão desvantajosas para eles. A aplicação deste conceito depende dos objectivos dos jogadores e das “regras do jogo” definidas. Este conceito de solução aplica-se a problemas de optimização individual, jogos cooperativos e jogos da política; neste contexto, a solução não é apenas uma única imputação, mas um conjunto de imputações, sendo cada um estável, no sentido em que nenhuma das imputações que o compõem domina as outras, e cada uma fora de um conjunto é dominada por pelo menos uma imputação dentro. O conceito de solução proposto por ambos os autores não era nem óptimo nem, em geral, exclusivo.
 
Tem-se observado que, ao contrário de vários teorizadores de jogos actuais, von Neumann e Morgenstern se sentiam atraídos pela multiplicidade de soluções de equilíbrio, em vez de perturbados.
 
A sua teoria não prediz que solução irá ser observada ou que imputação será obtida dentro de cada solução. Uma solução pode estar correlacionada com um comportamento standard ou instituições que governam uma organização social num momento particular. Deste modo, contrariamente a outras aproximações, há um vasto leque de indeterminismo, e, citando [[Philip Wolfe]]:
 
“Von Neumann realçou que a enorme variedade de soluções que podem ser observadas para jogos de n-jogadores não era surpreendente devido à correspondente enorme variedade de estruturas sociais estáveis observadas; muitas convenções diferentes podem perdurar, existindo hoje por nenhuma razão melhor de que elas estavam cá ontem.”
 
Apesar de todas as contribuições de ''Theory of Games and Economic Behavior'', a sua contribuição mais significativa para a [[economia]] foi, provavelmente, a sistematização da teoria de jogos como um ramo da teoria da escolha. O primeiro passo no desenvolvimento da teoria de jogos envolve a construção de uma descrição formal e matemática do jogo. Von Neumann e Morgenstern foram os primeiros a descrever os jogos como uma classe, a delimitar a estrutura de informação de um jogo, a desenhar uma árvore do jogo e a definir a solução de um jogo. Houve autores como [[Cournot]] que já tinham analisado problemas que seriam mais tarde reconhecidos como parte da teoria de jogos, mas foram von Neumann e Morgenstern que estabeleceram a teoria de jogos como um campo autónomo e distinto.
 
Devido à sua aversão à matemática, os economistas deram uma resposta bastante negativa ao trabalho de von Neumann e Morgenstern, bem como à sua visão crítica de trabalhos proeminentes sobre teoria económica mais convencional. A melhor resposta ao seu trabalho veio da comunidade académica de matemáticos aplicados de [[Princeton]], que se mostraram especialmente receptivos à importância da teoria da decisão estatística, e de estrategas da corporação RAND e do departamento de pesquisa naval. Ainda que tenha sido negligenciado à partida, a longo prazo ''Theory of Games and Economic Behavior'' exerceu uma enorme influência na economia, pois libertou a economia do cálculo diferencial, e levou o estudo económico para novas direcções tais como a conexão entre o núcleo e o equilíbrio competitivo geral.
 
O exemplo mais clássico de um jogo é o [[dilema do prisioneiro]], criado por [[Albert Tucker]] em 1950, geralmente explicado através de uma história, apesar de não se limitar a esta situação, pois a dinâmica subjacente pode ser usado para descrever qualquer tipo de fenómenos. A história do jogo é então a seguinte:
 
Dois homens, A e B, são presos depois de um assalto armado. A polícia tem provas suficientes para acusar os dois do roubo do carro de fuga, mas não as suficientes para os acusar do assalto propriamente dito. Contudo, se a polícia conseguir uma confissão de algum dos dois assaltantes, poderá condenar ambos por assalto à mão armada. Assim, a polícia fecha os homens em celas separadas e faz a mesma oferta a ambos:
 
Se A confessar e B não disser nada, então A irá em liberdade e B será acusado de roubo e condenado a 10 anos de prisão. Claro que a mesma proposta também foi apresentada a B: se este confessar e A não disser nada, é A que será condenado a 10 anos de prisão.
 
Se ambos confessarem, recebem ambos 7 anos de prisão.
 
Se nenhum deles confessar, então recebem ambos 2 anos de prisão pelo roubo do carro.
Os dois prisioneiros são deixados a pensar na decisão a tomar, sem terem contacto um com o outro. A questão que se coloca é: o que é que cada assaltante escolherá?
 
Assumindo que cada um age de acordo com o seu interesse pessoal, a solução que ocorre cada vez que este jogo ocorre, é que quer A quer B escolhem confessar, resultando numa sentença de 7 anos para cada um. Pode parecer um bocado contra intuitivo… por que razão iriam os jogadores escolher confessar, uma escolha claramente pior a ambos estarem calados e serem condenados a apenas 2 anos de prisão cada? Não é apenas isto, em termos do número total de anos em prisão, este é o pior resultado possível!
 
O payoff esperado para o jogo, isto é, a quantidade média de benefícios que a estratégia trará, é melhor caso A confesse: 3.5 anos de prisão por confessar versus 6 anos por ficar em silêncio.
 
Então, duma perspectiva racional, é preferível que A confesse em vez de ficar calado. Para mais, A fica sempre melhor se confessar, independentemente do que quer que B faça.
 
Se B confessar, A tanto pode ter 7 anos de prisão se também confessar, ou 10 anos se ficar em silêncio; se B ficar calado, A tanto pode ter 0 anos de prisão se confessar ou 2 anos por ficar calado.
 
Infelizmente para A, o mesmo é válido para B, que também ficará melhor se confessar.
 
Isto quer dizer que se ambos fizerem o que é melhor para os seus interesses, ficarão 7 anos na prisão! Este exemplo demonstra que, em muitos jogos, a “melhor” solução (aquela na qual o resultado é mais elevado) não é aquela que vai acontecer no final.