Código (comunicação)

Código é uma representação simbólica de repertório próprio ou resultado de um processo de codificação, podendo ser entendido como o ponto de partida do qual é elaborada e decifrada uma mensagem. Situa-se como elemento da informação entre os níveis de semiótica, ou seja, do significado comum a todos os sistemas simbólicos e cuja interpretação menos depende do sistema no qual foi escrito; e da comunicação, sistema de receptores/emissores e fontes de informação. Nesse contexto geral, código também é a ferramenta criada para manter a máxima eficiência da transmissão de informação segundo determinadas propriedades matemáticas.[1]

Propriedades matemáticas do código[2][3] editar

Pode-se associar qualquer conjunto finito de símbolos de forma biunívoca a equivalentes em códigos binários (0's e 1's) e assim tratar cada símbolo como uma sequência de escolhas do emissor e como uma quantidade que pode ser mensurada em bits. Para sinais analógicos, é necessário primeiro fazer sua discretização. Feito isso, o código detém as seguintes propriedades:

Seja   um dicionário de uma fonte emissora   com   símbolos na qual cada símbolo possui uma probabilidade   de ocorrência e seja   uma mensagem qualquer contendo   símbolos produzida por essa fonte.

Se a mensagem for convertida para código binário, como frequentemente requer o processamento digital de sinais e utilizando algum processo como código de Huffman ou de Shannon-Fano, obtemos um novo dicionário  , associando cada símbolo original   a uma sequência de números binários  .

Quantidade de informação editar

Define-se a quantidade de informação de um símbolo por   com a exceção particular de que se  , então   (nota-se que o mesmo ocorre se  , ou seja, símbolos que sempre ou nunca ocorrem não carregam informação nova alguma). A escolha da base 2 para o logaritmo é devido à relação entre o dicionário e um conjunto de códigos binários e a unidade de medida é o bit.

Para a mensagem, tem-se que  , considerando no somatório todas as repetições de símbolos.

Entropia editar

 Ver artigo principal: Entropia da informação

Entropia é uma medida da informação média contida numa mensagem. Para  , define-se entropia como a esperança da quantidade de informação de uma mensagem produzida por essa fonte, ou seja,  , de unidade em bits. Vê-se que qualquer   produzida por   não interfere no valor de   uma vez que os valores   tenham sido determinados. Para uma mensagem, tem-se que  .

Tamanho de mensagem codificada, tamanho médio e eficiência de codificação editar

Se passarmos a utilizar   como dicionário para a mensagem, uma mensagem   possui o tamanho  , em que   é simplesmente a quantidade de caracteres binários de  . A partir disso, define-se tamanho médio da mensagem de  , também uma esperança, por   e a eficiência de codificação por  , adimensional (apesar da unidade da entropia).

Referências

  1. Coelho Netto, J. Teixeira (1983). Semiótica, informação e comunicação. São Paulo: Perspectiva 
  2. Pierce, J. R (1980). An Introduction to Information Theory. New York: Dover Publications 
  3. «Information and Entropy». Massachussets Institute of Technology OpenCourseWare - MIT OCW. Consultado em 11 de fevereiro de 2017