elhacker.net cabecera Bienvenido(a), Visitante. Por favor Ingresar o Registrarse
¿Perdiste tu email de activación?.

 

 


Tema destacado:


+  Foro de elhacker.net
|-+  Foros Generales
| |-+  Foro Libre
| | |-+  Noticias (Moderadores: wolfbcn, El_Andaluz)
| | | |-+  Google estrena un sistema para comprimir Internet un 26% más
0 Usuarios y 1 Visitante están viendo este tema.
Páginas: [1] Ir Abajo Respuesta Imprimir
Autor Tema: Google estrena un sistema para comprimir Internet un 26% más  (Leído 1,052 veces)
wolfbcn
Moderador
***
Desconectado Desconectado

Mensajes: 53.662



Ver Perfil WWW
Google estrena un sistema para comprimir Internet un 26% más
« en: 22 Septiembre 2015, 21:29 pm »

La firma de Mountain View ha mostrado en varias ocasiones su intención por reducir el peso de Internet, uno de los puntos a los que ha dado mayor importancia precisamente en el posicionamiento de webs en su motor de búsqueda. Y para ello cuenta con varios factores, uno de ellos la compresión de archivos. Ahora bien, Google no está contento con las soluciones existentes, y por eso ha presentado un algoritmo un 26% más potente.

El consumo de contenidos web desde dispositivos móviles, y también desde redes de telefonía móvil, es una de las cosas que más preocupan actualmente a la compañía de Mountain View. Para ello, no sólo sirve el diseño responsive de los portales web, sino que es fundamental hacer que los archivos pesen menos. Ahora bien, las soluciones que existen actualmente para la compresión de archivos, explican desde la firma de Mountain View, son un 26% menos potentes que su nuevo algoritmo.

Aumentar la densidad de los archivos, esa es precisamente la función de los algoritmos de compresión, pero en este proceso se debe contemplar también reducir en tanto que sea posible la pérdida de calidad, y esto es precisamente lo que consigue el recién presentado algoritmo Brotli, de Google. Y aunque aún se están ultimando algunos detalles sobre su funcionamiento, desde Google aseguran que reduce los archivos un 26% más.

No podemos olvidar que la compañía de Mountain View mantiene un algoritmo de compresión de archivos anterior, Zopli, del cual no pretenden olvidarse porque, según han publicado en el día de hoy, sigue siendo interesante respecto a LZMA y LZHAM. Uno de los aspectos que más han destacado sobre este nuevo algoritmo de compresión, que próximamente nos podría suponer páginas web que cargan más rápido, es que requiere menor potencia de procesamiento para todo el proceso de descompresión. Por lo tanto, tendríamos archivos más pequeños en peso, pero que requieren de dispositivos menos potentes para ejecutarse de una forma más rápida.

http://www.adslzone.net/2015/09/22/google-estrena-un-sistema-para-comprimir-internet-un-26-mas/


En línea

La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.
Páginas: [1] Ir Arriba Respuesta Imprimir 

Ir a:  

WAP2 - Aviso Legal - Powered by SMF 1.1.21 | SMF © 2006-2008, Simple Machines