2007/04/21


vislumbrando um problema jotapéguico

No padrão JPEG, a imagem é representada primeiro em termos de coeficientes de transformadas DCT de bloquinhos de 8x8... Isso dá o memso número de valores que existem na imagem vista pixel a pixel mesmo.

Aí depois rola uma quantização... Apesar dos valores continuarme em igual número, eles passam a poder adquirir apenas valores mais restritos. Do mesmo jeito que um áudio de 8 bits é menor do que um de 16 bits.

Mas tem algo faltando nisso aí... Tradicionalmente, quando se vai quantizar algo, recorre-se a uma "uniformização" da amostras, maximizando a entropia do inal digitalizado...

Pra áudio isso tem benefícios que são fáceis de ser comprovados. Pra esse caso aqui nao é óbvio se isso é necessário, pois o passo seguinte é fazer uma codificação tipo Huffman, dando tamanhos menores aos símbolos mais frequentes.

Mas talvez quem sabe, pode ser que haja uma codificação mais complexa que faz o seguintes: analiza a imagem toda, e sai uantizando á tento em vista reduzir o nero toal de símbolos... O problema é: dada uma imagem, escolher a tabela de quantização que minimiza o número de símbolos utilziados, e minimiza o erro.

Suspeito que isso deve cair num daqueles problemas NP-compltos da vida, tipo "juntar n numeros duma lista em c copinhos diferentes, com a quantidade da soma total em cada copo o mais igual possível"...

No comments: