Desduplicação de dados: diferenças entre revisões
Conteúdo apagado Conteúdo adicionado
nova página: Em computação, a '''desduplicação''' ou '''deduplicação de dados''' é uma técnica para eliminar cópias duplicadas de dados repetidos. Um termo relacionado e um tanto si... Etiqueta: Inserção de predefinição obsoleta |
|||
Linha 1:
Em [[computação]], a '''
A desduplicação é diferente dos algoritmos de compactação de dados, como [[LZ77 e LZ78]]. Enquanto os algoritmos de compactação identificam dados redundantes dentro de arquivos individuais e codificam esses dados redundantes com mais eficiência, a intenção da desduplicação é inspecionar grandes volumes de dados e identificar grandes seções - como arquivos inteiros ou grandes seções de arquivos - que são idênticas e substituí-las com uma cópia compartilhada. Por exemplo, um sistema de e-mail típico pode conter 100 instâncias do mesmo anexo de arquivo de 1 MB (megabyte). Cada vez que é feito backup da plataforma de e-mail, todas as 100 instâncias do anexo são salvas, exigindo 100 MB de espaço de armazenamento. Com a desduplicação de dados, apenas uma instância do anexo é realmente armazenada; as instâncias subsequentes são referenciadas de volta à cópia salva para taxa de desduplicação de cerca de 100 para 1. A desduplicação costuma ser combinada com a compactação de dados para economia de armazenamento adicional: a desduplicação é usada primeiro para eliminar grandes blocos de dados repetitivos e a compactação é então usada para eficientemente codificar cada um dos blocos armazenados.<ref>[https://searchdatabackup.techtarget.com/tip/Compression-deduplication-and-encryption-Whats-the-difference Compression, deduplication and encryption: What's the difference?], Stephen Bigelow and Paul Crocetti</ref>
|