2010/8/12 Santiago García <saturno...@yahoo.es>: > Tei: ... >> En el navegador la pagina se siente rapida pero no agil. >> Pinchas, el >> ordenador piensa algo, y sale lo que quieres, en lugar de >> tener una >> respuesta "instantanea". > > Hum... Sí, pero por esa descripción podrías estar hablando de la inmensa > mayoría de las páginas de internet. ;-) >
El hilo ha salido por mi comentaria trolistico de "estar buscando acelerar la web un 800%". Si estas contento con la velocidad actual... pues entonces no te hace falta mirar en ninguna parte, las web funcionan correctamente y muy rapido si haces un diseño modular. Las web que de verdad son lentas, lo son por algo estraordinariamente mal hecho, como un icono de 2 megas. >> Suponte que quieres paginas web un 800% mas rapidas. Esta >> de XSL no lo >> es. Es igual un 50% mas rapida que una pagina web lenta, >> pero entre >> las paginas rapidas es normal, no especialmente rapida. > > Otra técnica para disminuir el volumen de las descargas es COMPRIMIR las > páginas. Especialmente orientado a ficheros de texto (CSS, JS, XSL, HTML). Y > una vez más, hay que hacerlo en el servidor. > Comprimir al vuelo retrasa el envio, y hace que hasta que el fichero no este completamente generado, no puede empezar a enviarse. Si se comprime al vuelo, y se almacena en un cache, eso ya es otra cosa. Yo he hecho pruebas de enviar contenido comprimido y sin comprimir, y me he defraudado de esta tecnica. Igual si tienes un fichero de 50 KB, y los usuarios son modems. Pero incluso en este caso la tecnologia modem siempre comprime la informacion del canal, luego habria poco que ganar de todos modos.. de todos modos habria que preguntar a los usuarios de modem, si aun existen :-) Parece ser que los antivirus y proxis cutres en muchos casos eliminan de los headers la capacidad de comprimir con gzip. Con lo que te quedas en minimizar js, y css, que no esta mal, pero oculta la linea de un bug asi que no se puede hacer en desarrollo, lo cual puede ser incomodo. Pero esta bien, y deberia hacerse siempre, supongo. > Bueno, y como colofón de ideas (p.mentales, que decimos) que se me ocurren > para obtener respuesta instantánea es que te hagas un navegador PREDICTIVO: > Que nada más abrir cada página cargue en background todos los hiperenlaces > contenidos. Problemas: Los formularios y el enorme incremento de carga que > sufriría la red. > La lentitud que tenemos ahora mismo viene originada porque los recursos se cargan en cascada. Los ordendores web pueden descargar 2 MB en un segundo, pero solo descargan 80KB, porque piden un fichero detras de otro. Peor aun, piden un fichero, lo interpretan, y a continuacion piden el siguiente. Formando una escalera/cascada. Lo que tu comentas, en algunos casos ya se hace. En un listado de pedidos, te descargas 50, pero muestras 25, los otros 25 siguientes estan ocultos por CSS. Cuando el usuario pulsa en "Ver mas pedidos", desocultas esos 25. Si vuelve a pulsar, te descargas otro 50 por AJAX (podrias empezar a descargarte estos 50 cuando pidiera ver los primeros 25 si quisieras). Es posible que una pagina que muestra "solapas", si desactivas por completo CSS aparezca como que en realidad esta todo el texto descargado, pero oculto. Hubo una extension de firefox que hacia exactamente lo que decias, pero daba problemas con aplicaciones web que utilizaban peticiones GET para borrar recursos (malas web, pero existen). Ademas es optimizar el cliente a costa de sobrecargar el servidor, si el servidor empieza a ser el cuello de botella, entonces perderias velocidad en vez de ganarla. -- -- ℱin del ℳensaje. _______________________________________________ Lista de distribución Ovillo Para escribir a la lista, envia un correo a Ovillo@lists.ovillo.org Puedes modificar tus datos o desuscribirte en la siguiente dirección: http://lists.ovillo.org/mailman/listinfo/ovillo