Capacidade de um canal

Em engenharia elétrica, ciência da computação e teoria da informação, capacidade de canal é o limite superior da taxa na qual a informação pode ser transmitida de forma confiável através de um canal de comunicações.

Pelo teorema de codificação de canal ruidoso, a capacidade de canal para um determinado canal é o limite da taxa de informação (em unidades de informação por unidade de tempo) que pode ser alcançado com uma pequena probabilidade de erro arbitrário.[1][2]

A teoria da informação, desenvolvida por Claude E. Shannon , durante a II Guerra Mundial, define a noção de capacidade de canal e fornece um modelo matemático através do qual pode-se calcular esta capacidade. O resultado indica que a capacidade do canal, como definido acima, é dada pela máxima informação mútua entre a entrada e a saída do canal, onde a maximização é relacionada à distribuição de entrada.[3]

A noção de capacidade de canal tem sido fundamental para o desenvolvimento de sistemas de comunicação com e sem fio modernos, com o advento de novos mecanismos de correção de erros de codificação que resultaram na obtenção de um desempenho muito próximo dos limites prometidos pela capacidade de canal.

Definição FormalEditar

Definimos   e   como as variáveis aleatórias que representam a entrada e a saída do canal, respectivamente. Definimos   como a função de distribuição condicional de   dado  , o que é uma propriedade fixa própria do canal de comunicações. Em seguida, a escolha da distribuição marginal   determina por completo a distribuição conjunta   devido à identidade

 

que, por sua vez, induz uma informação mútua  . A capacidade do canal é definida como

 

onde o supremo é tomado sobre todas as opções possíveis de  .

Capacidade de um grafo de ShannonEditar

Se G é um grafo não direcionado, ele pode ser usado para definir um canal de comunicações, em que os símbolos são os vértices do gráfico, e duas palavras-código podem ser confundidas uma com a outra se os seus símbolos em cada posição forem iguais ou adjacentes. A complexidade computacional de se encontrar a capacidade de Shannon de um canal como este permanece em aberto, mas pode ser delimitada superiormente por outro importante invariante de grafo, o número de Lovász.[4]

Teorema da codificação de canal ruidosoEditar

O teorema de codificação de canal ruidoso afirma que, para qualquer ε > 0 e para qualquer taxa de transmissão R menor do que a capacidade de canal C, há um esquema de codificação e decodificação que transmite dados a uma taxa R cuja probabilidade de erro é menor do que ε, para um bloco de comprimento suficientemente grande. Além disso, para qualquer taxa maior do que a capacidade do canal, a probabilidade de erro no receptor tende a um como o comprimento do bloco tende ao infinito.

Exemplo de aplicaçãoEditar

Um aplicação do conceito de capacidade de canal para um canal de ruído branco aditivo Gaussiano (AWGN) com largura de banda de B Hz e razão sinal-ruído S/N é o teorema Shannon–Hartley:

 

C é medido em bits por segundo se o logaritmo é tomado na base 2, ou nats por segundo se o logaritmo natural é usado, supondo que B seja em hertz; a potência do sinal e o ruído S e N são medidos em watts ou volts2, então o sinal-ruído aqui é expresso como uma relação de potência, não em decibéis (dB); como figuras são geralmente citadas em dB, uma conversão pode ser necessária. Por exemplo, 30 dB é uma relação de potência de  .

Capacidade de canal em comunicações sem fioEditar

Esta seção[5] centra-se em uma única antena, com um cenário ponto-a-ponto. Para a capacidade de canal em sistemas com múltiplas antenas, consulte o artigo sobre MIMO.

Canal AWGNEditar

Se a potência média recebida é   [W] e o ruído de densidade espectral de potência é   [W/Hz], o capacidade de canal AWGN é

  [bits/s],

onde   é a razão sinal-ruído (SNR) recebida. Este resultado é conhecido como o teorema de Shannon–Hartley.[6]

Quando a SNR é grande (SNR >> 0 dB), a capacidade   é logarítmica na potência e aproximadamente linear na largura de banda. Isto é chamado de regime de largura de banda limitada.

Quando a SNR é pequena (SNR << 0 dB), a capacidade   é linear na potência, mas insensível à largura de banda. Isto é chamado de regime de potência limitada.

O regime de largura de banda limitada e o regime de potência-limitada estão ilustrados na figura.

Canal de frequência-seletivaEditar

A capacidade do canal de frequência seletiva é dada pela chamada alocação de potência water filling,

 

onde   e   é o ganho de subcanal  , com   escolhido para atender a restrição de potência.

Canal de desvanecimento-lentoEditar

Em um canal de desvanecimento lento, onde o tempo de coerência é maior do que os requisitos de latência, não há uma capacidade definida quando a máxima taxa de comunicação confiável suportada pelo canal,   depende do ganho aleatório do canal  , que é desconhecido para o transmissor. Se o transmissor codifica os dados a uma taxa de   [bits/s/Hz], existe uma probabilidade não-zero de que a probabilidade de erro de decodificação não possa ser arbitrariamente pequena,

 ,

na qual o sistema é dito estar em interrupção. Com uma probabilidade não-zero de que o canal esteja em profundo desvanecimento, a capacidade de desvanecimento lento do canal em sentido literal é zero. No entanto, é possível determinar o maior valor de   de tal forma que a probabilidade de interrupção   seja menor que  . Este valor é conhecido como o  -capacidade de interrupção.

Canal de desvanecimento-rápidoEditar

Em um canal de rápido desvanecimento, onde os requisitos de latência é maior do que o tempo de coerência e o comprimento da palavra-código se estende por muitos períodos de coerência, pode-se balancear ao longo de muitos desvanecimentos de canal independentes através da codificação sobre um grande número de intervalos de tempo de coerência. Assim, é possível alcançar uma confiável taxa de comunicação de   [bits/s/Hz] e é significativo falar deste valor como a capacidade de canal de rápido desvanecimento.

Veja tambémEditar

Ligações externasEditar

ReferênciasEditar

  1. Saleem Bhatti. «Channel capacity». Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 -- Basic Communications and Networks 
  2. Jim Lesurf. «Signals look like noise!». Information and Measurement, 2nd ed. 
  3. Thomas M. Cover, Joy A. Thomas (2006). Elements of Information Theory. [S.l.]: John Wiley & Sons, New York 
  4. Lovász, László (1979), «On the Shannon Capacity of a Graph», IEEE Transactions on Information Theory, IT-25 (1), doi:10.1109/tit.1979.1055985 .
  5. David Tse, Pramod Viswanath (2005), Fundamentals of Wireless Communication, Cambridge University Press, UK 
  6. The Handbook of Electrical Engineering. [S.l.]: Research & Education Association. 1996. p. D-149. ISBN 9780878919819