Abrir menu principal

Alterações

14 bytes adicionados ,  02h30min de 16 de julho de 2017
m
ajustando datas, traduzindo nome/parâmetro nas citações, outros ajustes usando script
Uma memória associativa pode armazenar e recuperar informações quando necessário, ou seja, uma rede realimenta a saída que é usada repetidamente como uma nova entrada até que o processo termine. Você pode obter essas informações com base no conhecimento da parte dela (chave). O padrão de chave pode ser uma versão ruidosa de um padrão de memorização, ou seja, que difere em alguns componentes. A memória humana é uma reminiscência de uma pessoa, mesmo se você se veste diferente ou usa óculos.
 
Os primeiros modelos de memórias associativas baseadas na Morfologia Matemática, referidos como Memórias Associativas Morfológicas (MAMs), foram introduzidas por Ritter e Sussner em meados dos anos 1990.<ref>{{Citar periódico|titulo = An introduction to morphological neural networks|url = http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=547657&url=http%253A%252F%252Fieeexplore.ieee.org%252Fxpls%252Fabs_all.jsp%253Farnumber%253D547657|jornal = Proceedings of the 13th International Conference on Pattern Recognition, 1996|data =agosto Augustde 1996|paginas = 709-717 vol.4|volume = 4|doi = 10.1109/ICPR.1996.547657|primeiro = G.X.|ultimo = Ritter|coautores = P.}}</ref><ref name=":0">{{Citar periódico|titulo = Morphological associative memories|url = http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=661123&url=http%253A%252F%252Fieeexplore.ieee.org%252Fxpls%252Fabs_all.jsp%253Farnumber%253D661123|jornal = IEEE Transactions on Neural Networks|data =março Marchde 1998|issn = 1045-9227|paginas = 281-293|volume = 9|numero = 2|doi = 10.1109/72.661123|primeiro = G.X.|ultimo = Ritter|coautores = P.}}</ref>.
Especificamente, os neurônios das MAMs efetuam generalizações das operações da abordagem umbra da morfologia matemática em tons de cinza. Em termos gerais, a principal diferença entre os modelos clássicos de memórias associativas e os modelos morfológicos está em utilizar as operações baseadas em reticulados no lugar das operações usuais de multiplicação de matrizes.<ref name=":0" />.
 
== Propriedades Teóricas ==
=== Capacidade Computacional ===
O Perceptron multicamadas é um aproximador universal de funções, como provado pelo teorema de Cybenko. No entanto, a prova não é construtiva sobre o número de neurônios requeridos ou as configurações dos valores dos pesos necessárias.
O trabalho de Hava Siegelmann e Eduardo D. Sontag forneceu uma prova que uma arquitetura recorrente específica com valores lógicos dos pesos tem o todo o poder de uma [[Máquina de Turing]]<ref>{{Citecitar journalperiódico| title título= Turing computability with neural nets | url = http://www.math.rutgers.edu/~sontag/FTP_DIR/aml-turing.pdf | year ano= 1991 | journal periódico= Appl. Math. Lett. | pages páginas= 77–80 | volume = 4 | issue número= 6 | last1último1 = Siegelmann | first1primeiro1 = H.T. | last2último2 = Sontag | first2primeiro2 = E.D. | doi = 10.1016/0893-9659(91)90080-F }}</ref> usando um número finito de neurônios e conexões lineares padrões. Eles mostram também que o uso de valores ilógicos para os pesos resulta em uma máquina com capacidade de uma "super" [[Máquina de Turing]].
 
=== Capacidade ===
210 080

edições