Foro de elhacker.net

Programación => Programación General => Mensaje iniciado por: m0rf en 21 Enero 2012, 02:48 am



Título: Algoritmo compresión sin perdida.
Publicado por: m0rf en 21 Enero 2012, 02:48 am
Buenas, mi pregunta tal vez no tenga fundamento pero bueno de los errores tambien se aprende...

Mi pregunta es la siguiente, existe algun algoritmo sin perdida que no utilize la redundancia de los propios datos para comprimirlos?

La respuesta que yo he llegado por mi cuenta a sido, los algoritmos de compresión se basan en la redundandia y la entropia por lo tanto la respuesta seria no, no existe ningún algoritmo que utilize la redundancia de datos para comprimir datos.

Hago esta pregunta porque no se si existe algun algoritmo privado o algún metodo que no se valga de la redundancia para comprimir.

Es una pregunta para que me respondan no para que me digan lee esto o lee lo otro. Solo pregunto si conocen alguno o conocen algun otro tipo de compresión que no utilize la redundancia de los archivos para comprimirlos.

Se que la compresión de datos se basa en la redundancia de los mismo, pero no se hasta que punto. Si no existe y la única manera que conocen o existe es esta seria de gran ayuda que me lo aclararan.

Grácias de antemano.

PD: Lo iba a poner en criptografia pero como trata de algoritmos no criptograficos lo he puesto aquí.


Título: Re: Algoritmo compresión sin perdida.
Publicado por: [Case] en 24 Enero 2012, 01:09 am
Yo tengo entendido que todos los programas de comprensión utilizan los arboles de Huffman, y que simplemente mejoran el código para optimizar el programa.
Tienes la razón, para comprimir sin perdida de información lo único que hacen es ver las repeticiones existentes en el archivo a comprimir.

A yodo eso, que es la entropia?,  que lo he visto por muchos lados y he preguntado a gente, y nadie me ha dado una respuesta en concreto.


Título: Re: Algoritmo compresión sin perdida.
Publicado por: m0rf en 24 Enero 2012, 03:29 am
Yo entiendo la entropia como la información más improbable que aparezca pero que aparece en cada archivo cuando lo intentas comprimir.

Es una visión muy poco profunda pero es la idea que yo tengo de entropia.

Algún maestro en el tema?


Título: Re: Algoritmo compresión sin perdida.
Publicado por: [Case] en 24 Enero 2012, 05:26 am
Pues yo tengo dos definiciones.

La primera es la perdida de la energia en el universo, lo que hace que al final de su existencia todo este oscuro y frio.

La segunda es identica a la que mencionas, la probabilidad muy remota de que algo suceda, pero que al efectuarse muchas veces, llega a suceder.


Título: Re: Algoritmo compresión sin perdida.
Publicado por: Xandrete en 25 Enero 2012, 11:25 am
Hombre, depende del contexto en que lo apliques. "Entropía", en líneas generales, lleva asociada la idea de "desorden" y de "aleatoriedad".

En química, se dice que una sustancia (o la misma sustancia pero en estados diferentes) posee más entropía que otra cuando su grado de desorden molecular es mayor. Por ejemplo, el agua en estado gaseoso posee más entropía que el agua en estado líquido.

Siento no poder arrojar ninguna respuesta a tu pregunta, m0rf, mi aportación es más bien semántica  ;D


Título: Re: Algoritmo compresión sin perdida.
Publicado por: MCKSys Argentina en 25 Enero 2012, 18:58 pm
Hasta donde se, el algoritmo LZW no se basa en huffman. Por las dudas: http://en.wikipedia.org/wiki/Lzw

Este es el usado por ej. por zip o gif. Es una algoritmo bastante eficaz y rapido, pero, por supuesto, se basa en la repeticion de una determinada secuencia de chars.

Si el stream a comprimir no tiene secuencias repetitivas, es altamente improbable que pueda ser comprimido (ya que la idea de la compresion se basa en eso: disminuir los datos en base a la informacion repetida).

Al menos, es lo que entiendo por compresion...  :)


Título: Re: Algoritmo compresión sin perdida.
Publicado por: m0rf en 25 Enero 2012, 22:43 pm
Muchas gracias por las respuestas me han aclarado las dudas que tenia.



Título: Re: Algoritmo compresión sin perdida.
Publicado por: [Case] en 26 Enero 2012, 00:36 am
Hasta donde se, el algoritmo LZW no se basa en huffman. Por las dudas: http://en.wikipedia.org/wiki/Lzw

Este es el usado por ej. por zip o gif. Es una algoritmo bastante eficaz y rapido, pero, por supuesto, se basa en la repeticion de una determinada secuencia de chars.

Wow, tienes razón, de ese método no había oído de ese algoritmo. Haber si en alguna clase nos enseñan mas a fondo el algoritmo.