2010/8/12 Santiago García <saturno...@yahoo.es>:
> Tei:
...
>> En el navegador la pagina se siente rapida pero no agil.
>> Pinchas, el
>> ordenador piensa algo, y sale lo que quieres, en lugar de
>> tener una
>> respuesta "instantanea".
>
> Hum... Sí, pero por esa descripción podrías estar hablando de la inmensa 
> mayoría de las páginas de internet. ;-)
>

El hilo ha salido por mi comentaria trolistico de "estar buscando
acelerar la web un 800%".  Si estas contento con la velocidad
actual...  pues entonces no te hace falta mirar en ninguna parte, las
web funcionan correctamente y muy rapido si haces un diseño modular.
Las web que de verdad son lentas, lo son por algo estraordinariamente
mal hecho, como un icono de 2 megas.


>> Suponte que quieres paginas web un 800% mas rapidas. Esta
>> de XSL no lo
>> es. Es igual un 50% mas rapida que una pagina web lenta,
>> pero entre
>> las paginas rapidas es normal, no especialmente rapida.
>
> Otra técnica para disminuir el volumen de las descargas es COMPRIMIR las 
> páginas. Especialmente orientado a ficheros de texto (CSS, JS, XSL, HTML). Y 
> una vez más, hay que hacerlo en el servidor.
>

Comprimir al vuelo retrasa el envio, y hace que hasta que el fichero
no este completamente generado, no puede empezar a enviarse.

Si se comprime al vuelo, y se almacena en un cache, eso ya es otra cosa.

Yo he hecho pruebas de enviar contenido comprimido y sin comprimir, y
me he defraudado de esta tecnica.  Igual si tienes un fichero de 50
KB, y los usuarios son modems. Pero incluso en este caso la tecnologia
modem siempre comprime la informacion del canal, luego habria poco que
ganar de todos modos..  de todos modos habria que preguntar a los
usuarios de modem, si aun existen :-)

Parece ser que los antivirus y proxis cutres en muchos casos eliminan
de los headers la capacidad de comprimir con gzip.   Con lo que te
quedas en minimizar js, y css, que no esta mal, pero oculta la linea
de un bug asi que no se puede hacer en desarrollo, lo cual puede ser
incomodo. Pero esta bien, y deberia hacerse siempre, supongo.


> Bueno, y como colofón de ideas (p.mentales, que decimos) que se me ocurren 
> para obtener respuesta instantánea es que te hagas un navegador PREDICTIVO: 
> Que nada más abrir cada página cargue en background todos los hiperenlaces 
> contenidos. Problemas: Los formularios y el enorme incremento de carga que 
> sufriría la red.
>

La lentitud que tenemos ahora mismo viene originada porque los
recursos se cargan en cascada. Los ordendores web pueden descargar 2
MB en un segundo, pero solo descargan 80KB, porque piden un fichero
detras de otro. Peor aun,  piden un fichero, lo interpretan, y a
continuacion piden el siguiente. Formando una escalera/cascada.

Lo que tu comentas, en algunos casos ya se hace. En un listado de
pedidos, te descargas 50, pero muestras 25, los otros 25 siguientes
estan ocultos por CSS. Cuando el usuario pulsa en "Ver mas pedidos",
desocultas esos 25. Si vuelve a pulsar, te descargas otro 50 por AJAX
(podrias empezar a descargarte estos 50 cuando pidiera ver los
primeros 25 si quisieras).

Es posible que una pagina que muestra "solapas", si desactivas por
completo CSS  aparezca como que en realidad esta todo el texto
descargado, pero oculto.

Hubo una extension de firefox que hacia exactamente lo que decias,
pero daba problemas con aplicaciones web que utilizaban peticiones GET
para borrar recursos (malas web, pero existen). Ademas es optimizar el
cliente a costa de sobrecargar el servidor, si el servidor empieza a
ser el cuello de botella, entonces perderias velocidad en vez de
ganarla.


-- 
--
ℱin del ℳensaje.
_______________________________________________
Lista de distribución Ovillo
Para escribir a la lista, envia un correo a Ovillo@lists.ovillo.org
Puedes modificar tus datos o desuscribirte en la siguiente dirección: 
http://lists.ovillo.org/mailman/listinfo/ovillo

Responder a