Abrir menu principal

Alterações

218 bytes removidos ,  18h11min de 24 de abril de 2018
m
traduzindo nome/parâmetro nas citações, outros ajustes usando script, Foram preenchidas 1 referências com reFill ()
{{Maismais notasfontes||tec|data=abril de 2013}}
{{Links ambíguos}}
[[Imagem:Neuralnetwork.png|thumb|direita|220px|Diagrama simplificado de uma rede neural.]]
Gabor, um dos pioneiros da teoria da comunicação e o inventor da holografia, propôs em 1954 a ideia de um filtro adaptativo não linear. Com a ajuda de colaboradores, Gabor construiu uma máquina que alimentada com amostras de um processo estocástico, mais a função-alvo que a máquina deveria produzir, realizava a aprendizagem.
 
Em 1954-1955, Cragg e Tamperley observaram que os átomos em uma rede têm seus spins apontando "para cima" ou "para baixo", assim como os neurônios podem ser "disparados" (ativados) ou "não disparados" (quiescentes).<ref name="auto">HAYKIN, Simon. '''[[Redes neurais]]: [[princípios]] e [[prática]].''' trad. Paulo Martins Engel. - 2.ed. - [[Porto Alegre]]: [[Editora Bookman|Bookman]], 2001.</ref>
 
Em [[1956]] no Darthmouth College nasceram os dois paradigmas da [[Inteligência Artificial]], a simbólica e o conexionista. A Inteligência Artificial Simbólica tenta simular o comportamento inteligente humano desconsiderando os mecanismos responsáveis por tal. Já a Inteligência Artificial Conexionista acredita que construíndo-se um sistema que simule a estrutura do cérebro, este sistema apresentará [[inteligência]], ou seja, será capaz de aprender, assimilar, errar e aprender com seus erros. O livro de Hebb tem sido uma fonte de inspiração para o desenvolvimento de modelos computaconais de sistema adaptativos e de aprendizagem. O artigo de Rochester, Holland, Haibt e Duda (1956) talvez seja a primeira tentativa de usar simulação computacional para testar uma teoria neural bem-formulada com base no postulado de aprendizagem de Hebb (que a eficiência de uma sinapse variável entre dois neurônios é aumentada pela ativação repetida de um neurônio causada pelo outro neurônio). Naquele mesmo ano Uttley (1956) demonstrou que uma rede neural com sinapses modificáveis pode aprender a classificar conjuntos simples de padrões binários em classes correspondentes.
Em 1967, Cowan caracterizou o disparo "sigmóide" e a condição de disparo suave para um neurônio baseando-se na função logística.
 
Em 1967-1968, Grossberg envolvendo equações não-lineares de diferenças/diferenciais introduziu o modelo aditivo de um neurônio e como base para a memória de curto prazo explorou o uso do modelo.<ref>HAYKIN, Simon. '''[[Redes neurais]]: [[princípios]] e [[prática]].''' trad. Paulo Martins Engel. - 2.ed. - [[Porto Alegre]]: [[Editora Bookman|Bookman]], 2001.<name="auto"/ref>
 
A publicação de Perceptrons de Minsky e Papert, em 1969, expôs as limitações do modelo de Rosenblatt, provando que tais redes não são capazes de resolver uma ampla classe de problemas devido às restrições de representação.<ref name="MÁSSON" /><ref name="WASSERMAN">WASSERMAN, Philip D. Neural Computing : Theory and Practice. New York : Van Nostrand Reinhold, 1989.</ref> O impacto desta publicação foi devastador, praticamente desaparecendo o interesse em redes neurais artificiais nos anos seguintes, somente poucos pesquisadores como Malsburg, Grossberg, Kohonen e Anderson permaneceram concentrando suas atividades na abordagem conexionista.
Em 1975, Little e Shaw descreveram e usaram o modelo probabilístico de um neurônio, disparando ou não um potencial de ação, para desenvolver uma teoria da memória de curto prazo.
 
Em 1977, Andereson, Silverstein, Ritz e Jones, sugeriram o modelo do estado cerebral em uma caixa (BSB, brain-state-in-a-box), compondo-se de uma rede associativa simples acoplada a uma dinâmica não-linear.<ref>HAYKIN, Simon. '''[[Redes neurais]]: [[princípios]] e [[prática]].''' trad. Paulo Martins Engel. - 2.ed. - [[Porto Alegre]]: [[Editora Bookman|Bookman]], 2001.<name="auto"/ref>
 
=== Década de 1980 ===
 
=== Definições Iniciais ===
É uma memória auto-associativa. Suas entradas são valores binários.<ref>[{{citar web|url=http://www.dca.fee.unicamp.br/~vonzuben]|título=Von Zuben's Home Page|website=www.dca.fee.unicamp.br}}</ref> Possui uma natureza de operação assíncrona, isto é a cada instante de tempo, cada neurônio tem seu estado de ativação “avaliado” de maneira independente dos outros neurônios.
 
=== Memória associativa ===