Hace 8 años | Por meneante2015 a cnnexpansion.com
Publicado hace 8 años por meneante2015 a cnnexpansion.com

La rueda de la muerte parece no dejar de girar últimamente. No eres tú. Las páginas web en verdad tardan más en cargar. El sitio promedio actual pesa 2.1 MB –dos veces más que el sitio promedio de hace tres años, de acuerdo con información de HTTP Archive.

Comentarios

Jakeukalane

#34 #32 y /etc/hosts y ghostscript más aún

mira → #33

Jfreek

#43 El tema del archivo host está para tenerlo en cuenta, aunque bloquear todo de forma másiva tampoco se si me interesa, se pierde el control de lo que en un momento dado sí que quieres mostrar, no?

D

#51 servidores de publi de putis...y poco mas.
Si tienes hijos, la primera barrera es esa (para mi, vamos)

Jakeukalane

#51 a mí me ha salvado al menos dos veces de ver los shocking sites estos tan famosos (que deben de ser horribles). Una vez en facebook apareció a un sitio de estos. Pero justo parecía como si la web no existiese. Y busco en google el nombre del sitio y era un shocking site.
Luego, se nota mucha diferencia con ghostscript y con adblock porque tienen que bloquear menos cosas.

D

#33 creo que imagemagick o ffmpeg convierten flash a SVG directametne.

D

#33 Polipo + pdsnd en Linux. Reduces la caché a 0 del navegador, y vuela.

http://crunchbang.org/forums/viewtopic.php?id=11881

kolme

#8 En el mundillo "enterprise" donde me muevo la velocidad importa y mucho. Y no sólo a título personal, como a ti o a mí. Está científicamente comprobado que cuando más tarde en cargar la página más improbable es que el usuario lea, compre o haga lo que tenga que hacer. Si tarda más de 5 segundos en cargar por supuesto que se largan.

PS: ¡Felicidades! (tap-tap, palmadita en la espalda)

D

#49 «Si tarda más de 5 segundos en cargar por supuesto que se largan.»

¿cómo explicas entonces que haya vídeos de youtube que tardan varios segundos en cargar con más de 1 visita?

¿Una persona es capaz de estar esperando días en la cola para comprar cualquier producto de mierda y sin embargo es incapaz de esperar 5 seg a que cargue 1 web?

Quizá haiga un especie de ecuación………
La paciencia del cliente es igual al tiempo de espera partido de la felicidad que espera sentir o la calidad del producto que espera conseguir.

kolme

#83 Tus suposiciones son correctas -- evidentemente si lo que esperas es muy gratificante, y sobre todo si es gratis, se espera más tiempo.

Imagínate que vas buscando un modelo concreto de zapatillas. Escribes la búsqueda en Google y ves 5 resultados relevantes: el modelo y el color que te gustan, y todas tienen el mismo precio, 35€.

Ahora imagínate que pulsas el primer enlace y ves una pantalla blanca durante 5 segundos. Al sexto segundo seguro que has vuelto a Google a pinchar el siguiente enlace.

Google ha hecho estudios al respecto, y hay varios artículos interesantes al respecto:

http://googleresearch.blogspot.de/2009/06/speed-matters.html

http://www.nytimes.com/2012/03/01/technology/impatient-web-users-flee-slow-loading-sites.html

sanderman

#83 Donde yo trabajo (entorno web de pago) más de 4 segundos levanta alerta e incidencia por mala experiencia de usuario.
La percepción de velocidad de un usuario que paga por un contenido es aún más "delicada" y hay equipos que trabajan exclusivamente en esas mejoras.
Parece una locura, pero como pone #87 al 6º segundo tienes gente llamando porque "la web va lenta".

Abeel

#83 Se refiere a 5 segundos con la pagina en blanco, no a el video que ponga Cargando. Es algo de sobras conocido y muy estudiado. En webs que he auditado aumentaron las ventas en un 28,5% el mes siguiente solo por mejorar el sistemas de caches que daban algo más de velocidad de respuesta, sin cambiar estrategia comercial y en una temporalidad invariable. (vamos que no era en diciembre y por navidad se vende más, juraría que fue en marzo, sin ser una web con rebajas).

Y

#49 Recuerdo que, en un cursillo (300 horas) de páginas web que hice allá por el 2003, el profesor le daba mucha importancia al tema de la optimización. Comprimir imágenes, reducir todo lo posible el código, usar CSS externo (por aquel entonces aún era habitual integrarlo en el mismo archivo html de la página), limpiar los archivos Flash antes de compilarlos, etc... Solía decir que un usuario cerraría la página si tardaba más de 14 segundos en cargar usando módem o 3 segundos si tenía banda ancha; eso nos limitaba a un tamaño máximo (siendo generosos) de 300 ó 500Kb por página, incluyendo imágenes y cualquier otro contenido. Es cierto que la velocidad de las redes ha mejorado en este tiempo, pero también que se navegaba más rápido entonces con conexiones de 2MB/s que ahora con 20MB/s.
Parte de la culpa la tiene el cambio de óptica de lo que debe ser un webmaster: antes era ante todo un programador; ahora lo más importante es el diseño gráfico. O, al menos, ésa es mi impresión.

#8 ¿felicitarte? Anda que meter una animación flash en tu web es para fusilarte, como poco.

Caresth

#64 Sí, era algo raro usar flash hace 8 años... El flash venía con la plantilla a partir de la cual construí la web (empecé de cero y no sabía html). No tuve tiempo de ponerme con esa parte hasta que empezó a ser un problema para los móviles.

m

#8: Yo tengo una aplicacioncilla web con un JavaScript para cálculos, y lo optimicé a la mitad de tamaño. Tal vez haga una segunda optimización quitando comentarios y saltos de línea, aunque de momento el servidor no anda muy cargado.

Aunque me asalta una duda: ¿Cuando se transmite un JavaScript se comprime? ¿Se comprime mucho en comparación a RAR?

M

#95 Para javascript que escribas tu hay optimizadores online que quitan comentarios, reducen los nombres de las variables, busca por google "javascript minifier". Aparte puedes enviarlo comprimido por gzip y la mayoria de los navegadores también se los traga. Si vas a utilizar librerias externas mejor enlazar las versiones minimizadas que ponen en CDN públicos, asi te quitas de complicaciones.

Si no haces nada creo que se envian como textos, aunque me suena de algunos navegadores moviles como Opera te hacian algun tipo de compresión, supongo que utilizando un proxy-cache.

A

#95 "minifica" el archivo en alguna web

Zeioth

#8 Si te interesa, Google sacó haceun tiempo una herramienta para convertir de flash a HTML5.
https://developers.google.com/swiffy/convert/upload

Penrose

#21 Yo tengo una web de moda, y es un dolor tratar de optimizarla. Los redactores tienen que subir imágenes, y normalmente hay poco margen para optimizarlas. En cuanto las suben pasan por conversor, y luego se suben a cloudfront. También he minificado prácticamente todo lo posible, cacheo php, html y la madre superiora... pero la verdad es que la carga sigue siendo un poco pesada. Lo de los subdominios no se me había ocurrido, pero igualmente las imágenes se cargan desde cloudfront (con el dominio de cloudfront) con lo cual no creo que haya gran diferencia.

m

#39 al ser un CDN debería valer. Supongo que las imágenes las reduces al tamaño que van a ser visualizadas en el navegador y no más grandes. Es tontería que el usuario descargue una imagen de 800x600 cuando se va a visualizar en un cuadro de 300x300 (por ejemplo). En caso de que necesites imágenes más grandes lo mejor es separarlas en dos: una miniatura y otra con dimensiones más grandes. También puedes probar activando gzip en apache, eliminar los datos exif, reducir la calidad de la imagen, tal vez pasarlas de jpeg a png, etc.

borteixo

#21 Creo que estas confundiendo el numero maximo de peticiones con el pipelining.

m

#41 y #53, a lo mejor me estoy liando, voy a buscar la info a ver si encuentro donde lo leí y os publico el enlace.

m

#41 y #53, bien, por lo visto depende de los navegadores no del protocolo. Los navegadores tienen un máximo de peticiones por dominio: http://stackoverflow.com/questions/985431/max-parallel-http-connections-in-a-browser, y aquí una tabla con las peticiones en paralelo que pueden procesar los navegadores: http://www.browserscope.org/?category=network

En alguno de los plugins de WordPress que tratan este tema hablan de dos peticiones por dominio, de ahí mi confusión. Perdón.

Sirva este mensaje como corrección.

kolme

#21 > Por ejemplo, el protocolo http 1.1 (y hasta que se implemente la versión dos) solo permite dos peticiones a la vez al servidor desde cada pc

Eso te lo has sacado de la manga. El servidor (los servidores) suelen tener entre 10 y 20 procesos para servir peticiones. Suelen, porque es por supuesto configurable, ya según la memoria y CPU que tengas disponible puedes subirlos o bajarlos. Eso sin contar con que la mayoría de web grandes no cuentan con un servidor, sino con muchos, y a menudo repartidos geográficamente (los famosos CDN).

Los navegadores tambien limitan el numero de conexiones por dominio (es por eso que se suelen tener varios dominios aunque solo tengas un servidor: www.ejemplo.com, media.ejemplo.com, assets.ejemplo.com y así sucesivamente). Esto depende del navegador, suelen tener entre 8 y 10 conexiones por servidor, aunque esto tambien lo puedes cambiar en about:config y similares).

TL;DR: Depende de la configuración de los servidores y del navegador. Pero suelen ser unas ~10.

forms

#21 vamos, aumento la velocidad de los clientes y y les disminuyo el tamaño del disco duro

sorrillo

#11 No, el problema es la lentitud.

Para la mayoría de gente la cantidad de ancho de banda consumido no es lo más importante ya que han proliferado las tarifas planas. Por ello el tamaño no importa sino la velocidad. Y por eso ese es el problema.

Homertron3

#12 go to #10

sorrillo

#14 Sí, esas son algunas de las causas pero el problema sigue siendo el mismo, el problema es que "va lento".

Debido a las causas que quieras, pero el problema no desaparece por citar las causas.

m

#13 Cierto, pero como dice #12 la mayoría tenemos tarifa plana y los proveedores de Internet reparten un ancho de banda fijo entre todos los conectados, cuanto más necesite yo menos hay para tí

#16 Cierto también.

antuan

#16 ¿Tarifa plana de Infovía?

m

#44 Estoy en Argentina

D

#11: Ponte 300 megas verás como no solucionarás la pesadez, pero si la lentitud y lo digo yo que vengo de 2 megas hace mes y medio.

Con 300 megas estarás igual porque la lentitud es del servidor de los datos o de los intertubos con los que te los ofrece.

Además, para qué quieres tantos megas para cargar webs? Típica actitud cazurra española.

#16: No tiene sentido lo que dices. Tu línea tiene asociada una tasa límite de datos por segundo, no puedes acaparar sin fin.

Peka

#12 No eres informático verdad. No sabes de lo que hablas.

sorrillo
D

#11 Las páginas pesan más -> más tráfico -> la red está más saturada. No se trata sólo de tu conexión.

D

Malos desarrolladores y, sobre todo, malos clientes.

D

#10 Varnish. Y ya puedes ser todo lo script kiddie que quieras que tus mamotretos de webs programadas como el culo le parecerán el colmo de la eficiencia a los usuarios.

A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. Sin sistemas de caché la gente se cagaría en dios usando internet y para cualquier cosa que tuviera más de 100 usuarios simultáneos ya tendrías que tirar de C++ o Java.

v

#26 Joder y yo aprendiendo Ruby on Rails

D

#86 Un consejo: deja esa mierda.

En serio, déjala. Todos los raileros que conozco dejaron de usar Rails hace años. Y no es broma.

Tienes más opciones, algunas también con Ruby, no hace falta que lo abandones. Pero Rails... pos no.

D

#26 "A ver si no de qué iban a triunfar todos esos "lenguajes lentos" como Ruby o Python en la web. "

PHP es peor que Ruby y Python.

D

#26 Mejor hacer las cosas bien desde el principio y te ahorras capas extra. Pero no, mejor hacer mierda y triturarla para que pase mejor.

jixbo

#26 Google usa muchísimo python y no le va del todo mal.

redewa

#125 La solución vendrá, como dice #26, en web basada en C++.

Homertron3

Mmmm... más lento? Será más pesado!

sorrillo

#4 No, más lento.

El motivo es que las páginas tienen más datos (más pesadas) y por eso tardan más en cargar, van más lentas en cargarse que si fueran más ligeras.

G

#24 Bueno quizás exagere un poco esa media, pero la impresión es el doble. lol

Rorschach_

#27 No me voy a poner a cuantificarlo, pero notarse se nota.

D

#27 Si al 50% es el doble, el 44% es casi el doble, asi que tu impresion es buena.
Si la reduccion fuera del 100% entonces es que ya no habria tiempos de carga.

G

#56 #60 Exagere... un 6%

kolme

#59 Es el efecto placebo

kolme

#27 #24 Si se cargan en la mitad de tiempo, entonces si van el doble de rápido

p

#23 Una pregunta: Si tan buena es ésta feature (menor tiempo de carga y más protección) como es que no viene habilitada por defecto? Puede dar algún problema con alguna página? La noticia de #24 dice que disminuye las cookies.

G

#63 Si mal no recuerdo evita el tracking por cookies y otros medios de terceras dominios, yo no tuve problemas todavía y llevo varios meses.

¿Por que no viene por defecto? ni idea. Quizás por que simplemente evita algo que un web quiere hacer y para bloquearte algo es de recibo pedir tu consentimiento o que lo hagas tu por iniciativa propia.

Bloquear cosas sin decírtelo aunque sea por tu bien igual no estaría bien visto. El "por tu bien" es relativo siempre.

p

#73 El Do Not Track ya lo tenía activado, sin embargo ésta opción seguía desactivada. Creo que son cosas distintas.

sorrillo

#78 Es lo mismo: https://support.mozilla.org/es/kb/proteccion-de-rastreo-firefox

Quizá lo que habías hecho previamente era activarlo para una pagina en concreto, como explica el tutorial en la parte inferior.

p

#79 Puede ser, gracias por la respuesta!

Edito: Leyendo ésto:

"La protección de rastreo te permite tomar el control de tu privacidad. Aunque Firefox proporciona la funcionalidad No rastrear, que le indica a los sitios web que no monitorizen tu actividad web, las compañías no están obligadas a hacerle caso. La Protección de rastreo de Firefox te devuelve de nuevo el control de tu privacidad, bloqueando activamente los dominios y sitios web que son conocidos por rastrear a sus visitantes."

Sigo dando a entender que son dos cosas distintas. El Do Not Track es lo que tú comentas: la versión voluntaria. La protección de rastreo, yo entiendo que lo fuerza, quieran las empresas o no.

Quizás me equivoque

Y

#23 Acabo de probarlo y ¡funciona! En varias páginas que visito habitualmente y que suelen tardar bastante en cargar he notado una mejora impresionante.
¡Gracias por el truco!

manwy

#23 Eso es para Firefox ¿no? ¿Alguna posibilidad de hacerlo en Chrome?

charly-0711

#23 Gracias, me sirve bastante, ya estoy navegando más rápido. Tengo problemas con el ancho de banda.

m

#4 Más pesada = más tiempo en cargar

Georgius_Saliciletensis

#7 Internet no son solo las páginas web.

Capitan_Centollo

#4 A ver, que el sitio web tenga más elementos y más "pesados" almacenados en el servidor no tiene por qué influir directamente en el tiempo de carga, ya que el código que se ejecuta en el lado del servidor no se entrega al cliente y normalmente no suele ser demasiado complejo. Influye cuando el número de imágenes o vídeos a cargar por página aumenta o cuando el código ejecutándose desde el servidor requiere de mucho tiempo de computación, y no creo que el algoritmo para decidir qué versión de una imagen o un vídeo darle al cliente sea excesivamente complejo. Lo que probablemente influye más es el número de procesos en ejecución para llevar el tracking y las estadísticas, que implican un flujo más o menos contínuo de datos y una serie de conexiones abiertas y el número de personas que simultáneamente hacen uso del servicio.

D

#37 Cada vez hay más mierda que se ejecuta en cliente. Eso es mierda que se tiene que mandar al navegador, y mierda que se tiene que ejecutar probablemente antes de que se visualice la aplicación.

francmsk

Si quitamos los productos que contienen Streaming, música y contenidos en directo, y aquellos que meten mierda hasta hartarse para sacar cuatro perras, si un desarrollador se esfuerza, hay mogollón de herramientas para aligerar el peso de una web, aligerando desde las imágenes (Firebug por ejemplo) hasta el peso de los efectos con los estilos, cargas desde diversas máquinas etc... Si además cortamos el scraping que hacen desde algunas empresas de minería de datos, para que nuestra web no sirva peticiones a robots de mierda, nos encontraremos webs muy ligeras y eficaces,

mchock1

En general por la publicidad. Me gustaría vivir sin adblock pero es que a veces es imposible.

D

Desde que desactive el plugging "flash" las paginas se cargan en un flash!. Cuando quiero ver algo "active plugging" y listos.

b

Errónea, internet no es más lenta, las páginas son más pesadas.

Es como decir que mi coche es más lento porque tardo más en llegar a los sitios, obviando que estoy yendo más lejos...

waterbear

#71 El problema es que para el usuario el destino es leer la noticia, ver el saldo de su cuenta o reservar un vuelo. Si dichas actividades le cuestan más tiempo (por el abuso de videos o la razón que sea), el resultado final es que el sistema va más lento. Aunque sea culpa de que unas partes pesan demasiado pese a otras ir más rápido...

Pijus_Magnificus

#71 A parte de que el aumento medio en el peso de las páginas web va casi a la par que la adopción de Wordpress para blogs de actualidad y todo tipo de páginas profesionales. Qué casualidad.

Por no mencionar que el crear webs adaptativas no justifica el aumento de peso si se hace con mimo y cuidado, utilizando media queries.

Y ahora que lo pienso, una cosa que no se menciona es la integración de redes sociales en muchos sitios web, ya que la velocidad de respuesta de las API públicas de esas redes sociales puede ralentizar la carga del sitio.

musg0

#88 El problema es que las empresas, supongo que porque no tienen un duro, quieren ahorrarse todo lo posible en la presencia en Internet y no te queda otra que tirar de Wordpress, Joomlas o similares y plantillas sin retocar ni optimizar nada.
Hace tiempo que hacer webs a medida sale muchísimo más caro que usar como base soft libre y optimizar a partir de ahí, pero estamos llegando a unos límites que ya no se quieren ni gastar lo que te cuesta bajar el soft de Internet y comprar las plantillas

miguelpedregosa

Gran parte de la culpa la tiene la ingente cantidad de código de terceros que tienen las web actualmente.

El número de conexiones y la latencia importan más que el peso de la web (al menos para conexiones a Internet de 5megas5megas o más)

Y

#70 Por eso se da la paradoja de que muchas páginas carguen antes con una conexión de fibra ed 6MB/s que con una ADSL de 20MB/s (que sea en torno a 12 ó 16MB/s reales). Una página o cualquier otro archivo grande descargará antes en una conexión rápida, pero una página dividida en decenas de archivos pequeños se verá más penalizada por el tiempo de respuesta que por la velocidad de descarga.
Yo lo noté mucho cuando en casa pasamos de fibra (6MB/s) a ADSL (20MB/s, en torno a 15MB/s reales).

D

Adblock ayuda algo

Jfreek

#32 u-block más

andando

#34 y no te cuento desde que me he enterado que también lo puedo usar en android si lo pongo en firefox

anv

#32 No necesariamente. El adblock lo que hace es ocultar las coas pero no necesariamente evita su descarga. Algunos sitios verifican que la publicidad ha sido descargada. Lo que no pueden saber es si adblock la ha ocultado en la pantalla.

D

Todavía recuerdo cuando tardaba 15 minutos o más en entrar al chat de Terra porque el flash ocupaba casi 300kb.

Hoy en día, como usuario de internet, no instalo flash y uso Ghostery para ahorrarme la basura que mete la gente. Como desarrollador web, intento los recursos de mis webs estén lo más optimizados posible y los pongo solo si es necesario para el correcto funcionamiento de la web, nada de bloatware ni florituras. De esto último se olvidan muchos y te dejan la plantilla de WP o Bootstrap tal cual la han comprado aunque la web no use más del 20% de lo que ofrece.

D

¿Cómo sabes que no soy yo? No paro tío, no paro.

A mí me hace gracia la tendencia que hay de sobrecargar el front end de las aplicaciones web, de manera hiper complicada e innecesaria. Me pone negro. Pero como los programadores tienen que sentirse realizados, y en vez de hacer aplicaciones para que funcionen hacen aplicaciones para demostrarse algo a sí mismos y a los demás, pues...

D

no es solo el ancho de banda, algunas paginas te ponen el procesador a trabajar a tope, y total para mostrar texto y alguna que otra animacion, eso no deberia pasar del 2% en cualquier ordenador moderno

Minéame

Yo creo que también mucha gente pasa de usar la opción de "guardar imagen para web" y entonces suben archivos de 3 megas pudiendo ser 3 veces menos.

K

Entrar desde el móvil a leer algunas noticias de periódicos digitales es insufrible. Principalmente por algo que no citan, curiosamente, en el artículo. La cantidad de publicidad. Un banner cada dos pequeños párrafos es excesivo.

eltercerhombre

#22 Y algún periódico que te carga y reproduce un banner de vídeo nada mas entrar... Mira que no soy contrario a la publicidad, pero algunas cosas son excesivas, y además bloquean la lectura de la página.

astronauta_rimador

Una pregunta que lanzo a los desarrolladores web. ¿Esas páginas ahora tan de moda que no tienen menus algunos y que va cargando por un scrollvertical es también una patada en los cojones a la optimización?

diskover

Firefox se esta volviendo un tanto insufrible.

D

#85 En mi oficina Chrome nos va a todos 10 veces más lento que FireFox.

Sofrito

Ah. Pensaba que era yo.

D

Sí hombre!! ahora que el p0rn está en streaming como para que me bajen la velocidad de conexión!

D

Te irá lento a tí, a mí me va de puta madre

p

Google ha generalizado la optimizacion de la velocidad de carga. En mi caso de los 15-20 portales qe trngo ninguno carga en mas de 3,5 segundos, alguno de ellos tarda menos de 1 segundo. Todo a base de optimizar las webs, los servidores, pagar sistemas premium de DNS (no me da el hobby para CDNs).Como consultor en mi curre me peleo igualmente para que mejore este
Parametro y creo que vamos a mejor en lugar de a peor.

F

Me la voy a jugar preguntándo algo que igual es un poco off topic. No se suponía que Youtube empezaba a usar html5 en lugar de flash? Si html5 puede hacer lo mismo, por qué se sigue usando flash? Al margen de todo eso, por que Adobe Flash ha de actualizarse cada dos días? Qué necesidad técnica real hay para eso? Gracias de antebrazo

Y

#74 El reproductor HTML5 debería ser más eficiente y ocupar menos espacio que el reproductor Flash... y digo debería porque cada empresa usa su propio reproductor. No obstante, lo que realmente peso es el propio vídeo, que debe ser más o menos igual (depende del formato de compresión, la resolución, etc...).
Flash se actualiza cada poco tiempo principalmente por tres motivos: porque está plagado de agujeros de seguridad que deben taparse lo antes posible, porque cada vez que se instala aumentan las probabilidades de que dejes pasar el adware típico que trae de serie y porque a Adobe le da la gana. Si no quieres, no lo actualices y punto; tampoco es que te vaya a explotar el ordenador por eso.
Perdone las dizculpas.

d

Yo creo que es debido a la publicidad y a los nuevos frameworks javascript "mobile first" que están de moda como angularjs, modernizr, bootstrap, jquery, responsive, nicescroll... y ochocientas más.

D

Mas bien los programadores cada vez son peores ... Es lo que tiene comprar programadores como el que compra choped.

jaimehrubiks

Por qué no dice nada de http2? La noticia debería ser eso no este sin sentido...

andando

Bueno los porros también me influyen

D

#2 no es menéame si no tienes un comentario de mierda intentando destruir el envío. #1

yo les voto sistemáticamente negativo a todos los comentario que hacen referencia a menéame y sus reglas

M

#80 Yo también. Y parte me gustaría educarlos correctamente para que no me den más la brasa.

RFK80

#3 Ya lo dice su nick, Billy the kid el mas rapido de meneame dando negativos...

frg

#77 #3 ¿Seguro que no es un bot?. Porque, en caso contrario creo que hay que conseguir en teléfono de su madre, para que lo saque arrastras de casa, aunque sea para hacer botellón.

Svacam

#6 Si leyese la noticia no sería el y no podría cagarla antes que nadie.

D

#1 Lo único duplicado aquí es tu incapacidad para leer antes de votar.

D

#1: otro mendigo del karma.

1 2