Lógica Vetorial[1][2] é um modelo algébrico da lógica elementar baseado em matrizes algébricas. A lógica vetorial assume que os valores verdade mapeiam em vetores, e que as operações monádicas e diádicas são executadas por operadores matriciais.

Resumo editar

A lógica binária é representada por um pequeno conjunto de funções matemáticas dependendo de uma (monádico) ou duas (diádico) variáveis. No conjunto binário, o valor 1 corresponde a verdadeiro e o valor 0 a falso. Uma lógica vetorial bivalorada requer uma correspondência entre os valores-verdade verdadeiro (v) e falso (f), e dois vetores coluna normalizados de dimensão q compostos por números reais s e n, sendo assim:

     e     

(onde   é um numero natural qualquer, e “normalizado” quer dizer que o tamanho do vetor é 1; normalmente s e n são vetores ortogonais). Essa correspondência gera um espaço de vetores valores-verdade: V2 = {s,n}. As operações lógicas básicas definidas usando esse conjunto de vetores levam à operadores matriciais.

As operações da lógica vetorial são baseadas no produto escalar entre vetores coluna de dimensão q:  : a ortogonalidade entre vetores s e n implica que   se  , e   se  .

Operadores monádicos editar

Os operadores monádicos resultam da aplicação  , e as matrizes associadas tem q linhas e q colunas. Os dois operadores monádicos básicos para essa lógica vetorial bivalorada são identidade e a negação:

  • Identidade: Uma identidade lógica ID(p) é representada pela matriz  . Essa matriz opera da seguinte forma: Ip = p, p ∈ V2; como an ortogonalidade de s respeita a n, temos que  ,   e inversamente  .
  • Negação: Uma negação lógica ¬p é representada pela matriz  . Consequentemente, Ns = n e Nn = s. O comportamento involuntário da negação lógica, ou seja, ¬(¬p) é igual à p, corresponde com o fato de que N2 = I. É importante notar que essa matriz identidade da lógica vetorial nem sempre é uma matriz identidade no sentido da álgebra matricial.

Operadores diádicos editar

Os 16 operadores diádicos 2-valorados correspondem à funções do tipo  ; as matrizes diádicas tem q linhas e q2 colunas. As matrizes que executam essas operações diádicas são baseadas nas propriedades do produto de Kronecker.

Duas propriedades desse produto são essenciais para o formalismo da lógica vetorial:

  1. Propriedade do produto misto: Se A, B, C e D são matrizes de tamanho tal onde uma pode formar os produtos de matrizes AC e BD, então : 
  2. Transposta distributiva A operação de transposição é distributiva sobre o produto de Kronecker: : 

Usando essas propriedades, expressões para funções lógicas diádicas podem ser obtidas:

  • Conjunção. A conjunção (p^q) é executada por uma matriz que atua em dois vetores valor-verdade:  . Essa matriz reproduz as funcionalidades da conjunção clássica de tabela-verdade na sua formulação:
 
e verifica
  e
 
  • Disjunção. A disjunção (p∨q) é executada pela matriz ::  resultando em
  e
 
  • Implicação. A implicação corresponde na lógica clássica para a expressão p → q ≡ ¬p ∨ q. A versão na lógica vetorial dessa equivalência leva à uma matriz que representa essa implicação na lógica vetorial:  . A expressão explícita para essa implicação é:
 
e as propriedades da implicação clássica são satisfeitas
  e
 
  com
  e
 
O ou exclusivo é a negação da equivalência, ¬(p≡q); isso corresponde à matriz   dada por
 
com   e
 

As matrizes S e P correspondem às operações Sheffer (NAND) e Peirce (NOR), respectivamente:

 
 

Lei de De Morgan editar

Na lógica de dois valores, a conjunção e a disjunção satisfazem a Lei de De Morgan: p∧q≡¬(¬p∨¬q), e o seu par: p∨q≡¬(¬p∧¬q)). Para a lógica vetorial de dois valores essa lei também é verificada:

 , onde u E v são dois vetores lógicos.

O produto de Kronecker implica a seguinte fatorização:

 

Então pode ser provado que na lógica vetorial de duas dimensões a Lei de De Morgan é uma lei envolvendo operadores, e não somente uma lei em relação a operações:[3]

 

Lei da contraposição editar

No clássico cálculo de proposições, a contraposição p → q ≡ ¬q → ¬p é provada porque an equivalência vale para todas as possíveis combinações de valores-verdade de p e q.[4] Em vez disso, na lógica vetorial, a lei da contraposição emerge de uma cadeia de igualdades dentro das regras da álgebra matricial e produtos de Kronecker, como mostrado a seguir:

 
 

Esse resultado é baseado no fato de que D, a matriz de disjunção, representa uma operação comutativa.

Lógica bidimensional multivalorada editar

Lógica Multivalorada foi desenvolvida por muitos pesquisadores, particularmente por Jan Łukasiewicz e permite estender operações lógicas para valores-verdade que incluem incertezas.[5] No caso da lógica vetorial bivalorada, incertezas em valores verdade podem ser introduzidas usando vetores com s e n ponderadas por probabilidades.

Deixando  , com   ser esse tipo de vetores “probabilísticos”. Aqui, o caráter multivalorado da lógica é introduzido a posteriori via incertezas introduzidas nas entradas.[1]

Projeções escalares dos vetores resultantes editar

As saídas dessa lógica multivalorada podem ser projetadas em funções escalares e gerar uma classe particular de lógica probabilística com similaridades com a multivalorada lógica de Reichenbach.[6][7][8] Dados dois vetores   and   e uma matriz lógica diádica  , uma lógica probabilística escalar é fornecida pela projeção sobre vector s:

 

Aqui estão os principais resultados dessas projeções:

 
 
 
 
 

As negações associadas são:

 
 
 

Se os valores escalares pertencem ao conjunto {0, ½, 1}, esse escalar da lógica multivalorada é para muitas dos operadores quase idênticos aos da lógica 3-valorada de Łukasiewicz. Também, foi provado que quando os operadores monádicos ou diádicos atuam sobre vetores probabilísticos pertencentes a esse conjunto, o resultado é também um elemento desse conjunto.[3]

História editar

A abordagem foi inspirada em modelos de redes neurais baseados no uso de matrizes e vetores com muitas dimensões.[9][10] A lógica vetorial é uma tradução direta e um formalismo de matriz-vetor dos clássicos polinomiais booleanos.[11] Esse tipo de formalismo foi applicado para desenvolver a lógica difusa em termos de número complexo.[12] Outras abordagens de matrizes e vetores foram desenvolvidas na armação da física quântica, ciência da computação e ótica.[13][14][15] As primeiras tentativas de usar álgebra linear para representar operações lógicas podem ser referidas à Peirce e Copilowish.[16] O biofísico indiano G.N. Ramachandran desenvolveu um formalismo usando matrizes algébricas e vetores para representar muitas operações da lógica indiana clássica.[17]

Polinômios booleanos editar

George Boole estabeleceu o desenvolvimento de operações lógicas como polinômios.[11] Para o caso de operações monádicas (tal como a função identidade ou negação lógica), os polinômios booleanos tem um formato como o seguinte:

 

As quatro diferentes operações monádicas resultam dos diferentes valores binários dos coeficientes. A função identidade requer f(1) = 1 e f(0) = 0, e a negação ocorre se f(1) = 0 e f(0) = 1. Para os 16 operadores diádicos, os polinômios booleanos são da seguinte forma:

 

As operações diádicas podem ser traduzidas para esse formato polinomial quando os coeficientes f tomarem os valores indicados na respectiva tabela verdade s. Por instância: a operação NAND requer o seguinte:

  and  . Esses polinomios booleanos podem ser imediatamente estendidos para qualquer número de variáveis, produzindo um grande potencial variedade de operadores lógicos. Na lógica vetorial, a estrutura matriz-vetor dos operadores é uma exata tradução para o formato da álgebra linear desses polinômios booleanos, onde o x e 1-x correspondem aos vetores s e n respectivamente (o mesmo para y e 1-y). No exemplo de NAND, f(1,1)=n e f(1,0)=f(0,1)=f(0,0)=s e a versão matricial se tornam:
 

Extensões editar

  • A Lógica vetorial pode ser estendida para incluir muitos valores-verdade desde que vetores de dimensões altas permitam criar muitos valores-verdade ortogonais e as correspondentes matrizes lógicas.[2]
  • Modalidades lógicas podem ser totalmente representadas nesse contexto, com um processo recursivo inspirado em modelos neurais.[2][18]
  • Alguns problemas cognitivos sobre computações lógicas podem ser analisados usando este formalismo, em particular decisões recursivas. Qualquer expressão lógica da lógica proposicional pode ser naturalmente representada por uma árvore.[4] Esse fato é retido pela lógica vetorial, e tem sido usada parcialmente em modelos neurais focados em investigação de estruturas ramificadas da linguagem natural.[19][20][21][22][23][24]
  • As operações reversíveis via computação como a Fredkin gate podem ser implementadas na lógica vetorial. Essas implementações proveem expressões explícitas para operadores matriciais que produzem o formato da entrada e o filtro da saída necessário para obter computações[2][3]
  • A Automação celular elementar pode ser analisada usando an estrutura de operador da lógica vetorial; essa análise leva an uma decomposição espectral das leis governando essas dinâmicas.[25][26]

Ver também editar

Referências

  1. a b Mizraji, E. (1992). Vector logics: the matrix-vector representation of logical calculus. Fuzzy Sets and Systems, 50, 179–185, 1992
  2. a b c d Mizraji, E. (2008) Vector logic: a natural algebraic representation of the fundamental logical gates. Journal of Logic and Computation, 18, 97–121, 2008
  3. a b c Mizraji, E. (1996) The operators of vector logic. Mathematical Logic Quarterly, 42, 27–39
  4. a b Suppes, P. (1957) Introduction to Logic, Van Nostrand Reinhold, New York.
  5. Łukasiewicz, J. (1980) Selected Works. L. Borkowski, ed., pp. 153–178. North-Holland, Amsterdam, 1980
  6. Rescher, N. (1969) Many-Valued Logic. McGraw–Hill, New York
  7. Blanché, R. (1968) Introduction à la Logique Contemporaine, Armand Colin, Paris
  8. Klir, G.J., Yuan, G. (1995) Fuzzy Sets and Fuzzy Logic. Prentice–Hall, New Jersey
  9. Kohonen, T. (1977) Associative Memory: A System-Theoretical Approach. Springer-Verlag, New York
  10. Mizraji, E. (1989) Context-dependent associations in linear distributed memories. Bulletin of Mathematical Biology, 50, 195–205
  11. a b Boole, G. (1854) An Investigation of the Laws of Thought, on which are Founded the Theories of Logic and Probabilities. Macmillan, London, 1854; Dover, New York Reedition, 1958
  12. Dick, S. (2005) Towards complex fuzzy logic. IEEE Transactions on Fuzzy Systems, 15,405–414, 2005
  13. Mittelstaedt, P. (1968) Philosophische Probleme der Modernen Physik, Bibliographisches Institut, Mannheim
  14. Stern, A. (1988) Matrix Logic: Theory and Applications. North-Holland, Amsterdam
  15. Westphal, J., Hardy, J. (2005) Logic as a vector system. Journal of Logic and Computation, 15, 751–765
  16. Copilowish, I.M. (1948) Matrix development of the calculus of relations. Journal of Symbolic Logic, 13, 193–203
  17. Jain, M.K. (2011) Logic of evidence-based inference propositions, Current Science, 1663–1672, 100
  18. Mizraji, E. (1994) Modalities in vector logic. Notre Dame Journal of Formal Logic, 35, 272–283
  19. Mizraji, E., Lin, J. (2002) The dynamics of logical decisions. Physica D, 168–169, 386–396
  20. beim Graben, P., Potthast, R. (2009). Inverse problems in dynamic cognitive modeling. Chaos, 19, 015103
  21. beim Graben, P., Pinotsis, D., Saddy, D., Potthast, R. (2008). Language processing with dynamic fields. Cogn. Neurodyn., 2, 79–88
  22. beim Graben, P., Gerth, S., Vasishth, S.(2008) Towards dynamical system models of language-related brain potentials. Cogn. Neurodyn., 2, 229–255
  23. beim Graben, P., Gerth, S. (2012) Geometric representations for minimalist grammars. Journal of Logic, Language and Information, 21, 393-432 .
  24. Binazzi, A.(2012) Cognizione logica e modelli mentali. Studi sulla formazione, 1–2012, pag. 69–84
  25. Mizraji, E. (2006) The parts and the whole: inquiring how the interaction of simple subsystems generates complexity. International Journal of General Systems, 35, pp. 395–415.
  26. Arruti, C., Mizraji, E. (2006) Hidden potentialities. International Journal of General Systems, 35, 461–469.