Teorema de codificação da fonte

Codificação de Fonte editar

Codificar uma fonte de informação envolve representá-la, para fins de transmissão e armazenamento, de tal forma a usar a menor quantidade de símbolos médios possível, pois a eficiência do codificador está ligada à quantidade de dígitos que foram utilizados para essa nova representação. Temos então que, quanto menor for a quantidade de dígitos empregado, mais eficiente será esse codificador. Pode-se dizer então que o processo de codificação de fonte eficiente tem como objetivo retirar redundâncias que estão presentes naquela fonte. Nesse, sentido Shannon provou que a informação emitida por uma fonte discreta sem memória pode ser comprimida a uma taxa de codificação  , onde   é a entropia associada à fonte. Essa idéia é parte do conceito do conhecido Teorema de codificação da fonte, a ser discutido a seguir.

Teorema de Codificação da Fonte para uma Mensagem Aleatória editar

O teorema enuncia que existe um código binário livre de prefixo ótimo, por exemplo, um código de Huffman, de uma mensagem aleatória U com r possíveis valores, onde o comprimento médio das palavras-código obedece satisfaz:

 ,

em que

 

é o comprimento médio associado à mensagem U,   é a probabilidade associada ao i-ésimo possível valor, de comprimento   dígitos binários.[1]

Note que a igualdade ocorre se, e somente se,  é uma potência negativa inteira de 2 para todo i. Vale ressaltar que, embora não seja um código ótimo, o teorema também é válido para o código de Fano.

Codificando uma Fonte de Informação editar

Considere agora que há um fluxo de mensagens, a ser continuamente codificadas. Para essa situação vamos considerar que cada símbolo emitido pela fonte seja independente dos anteriormente enviados, ou seja, temos uma fonte discreta e sem memória (DMS, Discrete Memoryless Source), gerando uma sequência de mensagens aleatórias independentes   onde cada mensagem   pode assumir r valores com probabilidades  .

É mais eficiente combinar duas ou mais mensagens   para a construção de um código, e assim podemos chamá-la de mensagem vetorial aleatória. Matematicamente, uma mensagem vetorial aleatória   não é diferente de uma mensagem aleatória convencional, pois ela pode assumir um número limitado de valores com probabilidades associadas. Então, se   é r-ária, V terá   possíveis símbolos. É possível expressar H(V) em termos de H(U). Considerando   a probabilidade do j-ésimo símbolo de V, temos que as mensagens   são mutuamente independentes, então:

 

Onde   indica a probabilidade do   -ésimo símbolo de  . Logo:

 

 

 

 

 

 

 

Isso quer dizer que se V consiste de ν mensagens aleatórias independentes, sua incerteza é ν vezes a incerteza média de U. Se usarmos um código ótimo, como o de Huffman, e sabendo do Teorema de Codificação para uma Mensagem Aleatória:  , temos que um valor ν maior produzirá   também maior, o que impede comparações justas entre sistemas de compressão distintos. Por isso, devemos computar o comprimento médio necessário para descrever um símbolo da fonte por vez, ou seja:

  bits

Sabendo que  , temos:

  bits

E por fim chegamos ao Teorema de Codificação de Fonte de Shannon:

  bits

Teorema de Codificação de Fonte de Shannon editar

Existe um código binário livre de prefixo para mensagens em blocos de ν dígitos, de uma fonte discreta sem-memória, tal que o número médio   de dígitos de código binário por símbolo da fonte satisfaz:

  bits

Onde H (U) é a entropia do símbolo medida em bits. De forma contrária, para todo código binário de mensagens em blocos de ν dígitos

  bits

Consequentemente, o teorema mostra que é possível, com um código adequado, atingir um grau de compressão tão próximo à quantidade de informação emitida pela fonte.

Referências editar

  1. Moser,Stefan M. Chen,Po-Ning. A Student's Guide to Coding and Information Theory. National Chiao Tung University (NCTU), Hsinchu, Taiwan.