De l’aberrante dérive du poids des pages d’accueil

Savez-vous combien pèse la page d’accueil de Yahoo ? Cette question n’est pas anodine car cette valeur a été pendant longtemps une unité de référence pour la vitesse de chargement des pages d’un site web. En presque 10 ans passés en agence, je ne compte plus le nombre de cahiers des charges et brief où il étai stipulé que le poids des pages du futur site du client ne devait EN AUCUN CAS dépasser la limite de 30 Ko (le poids théorique de la page d’accueil de Yahoo! dans l’inconscient collectif).

Puis il a été question de 60 Ko…

Puis ça a été l’avènement de l’ADSL, les années YouTube et maintenant plus personne ne se soucie du poids des pages. Il faut dire que les foyers français sont équipés en haut-débit à plus de 95% (ADSL + câble + fibre, si mes sources sont exactes), donc plus la peine de se soucier du temps de chargement.

Oui mais voilà : Il fut un temps où la page d’accueil de Yahoo! pesait 30 Ko, mais cette époque est loin derrière nous et je constate une inflation alarmante (euphémisme) dans le poids des pages d’accueil qui dépassent fréquemment le Mo. Ce fameux « poids » correspond à l’espace disque occupé par l’ensemble des fichiers qui composent une page d’accueil (HTML, javascript, css, flash, images…).

Je me suis amusé à comparer les pages d’accueil de certaines boutiques en ligne française, et le résultat n’est pas brillant :

  • Cdiscount = 2,8 Mo
  • Pixmania = 1,4 Mo
  • RueDuCommerce = 1,3 Mo
  • Amazon = 845 Ko
  • MisterGoodDeal = 840 Ko
  • PriceMinister = 570 Ko

Non vous ne rêvez pas, pour avoir le privilège d’admirer la page d’accueil de Cdiscount il vous faudra télécharger près de 220 fichiers pour un total avoisinant les 3 Mo. Hallucinant ? Oui, surtout dans un marché aussi concurrentiel. PriceMinister s’en sort très bien avec une page bien plus légère que les autres dû à une utilisation très limitée des images (contrairement à Cdiscount).

Concernant les sites d’information, c’est encore pire :

  • L’Express = 3,5 Mo
  • Liberation = 3,4 Mo
  • 20Minutes = 2,7 Mo
  • LeMonde = 2,2 Mo

Même si les mega-bannières et autres publicités au format vidéo plombent la page, n’est-il pas aberrant de ne pas trouver un site d’information sous la barre des 2 Mo ? Et ce n’est pas forcément mieux de l’autre côté de l’Atlantique :

  • LA Times = 2,9 Mo
  • WashingtonPost = 1,8 Mo
  • Newsweek = 1,8 Mo
  • NY Times = 1,55 Mo

Concernant les grands portails, la moyenne est moins élevée :

  • Facebook = 2 Mo
  • Free = 1,8 Mo
  • MSN = 1,2 Mo
  • Yahoo = 890 Ko
  • Bing = 125 Ko
  • Google = 125 Ko

De façon surprenante, les grands portails sont plutôt raisonnables dans leur utilisation de la bande passante. Mention spéciale à Facebook qui dépasse la barre des 2 Mo avec une ribambelle de fichiers javascript. Vous noterez au passage que les deux moteurs de recherche pèsent rigoureusement la même poids (je ne sais pas trop quoi en penser…).

Bref, cette rapide étude concurrentielle nous révèle une vérité bien dérangeante : Les pages d’accueil de sites de news sont plus lourdes que certains plug-ins dont le temps de téléchargement est soit-disant rédhibitoire. Même si nos liaisons ADSL sont très performantes, les tuyaux ont des limites et le nombre de fichiers à télécharger nous éloigne toujours plus de la limite symbolique des 2 secondes pour charger une page d’accueil (le temps d’attente est directement lié à l’expérience utilisateur).

Tout ceci est très dérangeant, surtout à partir du moment où Google annonce qu’il va prendre en compte le temps de chargement des pages dans son algorithme. Oups, c’est justement ceux qui ont le plus besoin d’un bon référencement (commerce en linge, news…) qui vont se faire dégrader. Je ne peux que me réjouir de cette annonce car cette escalade dans le poids des pages d’accueil n’augure rien de bon et surtout rend les éditeurs fainéants.

Pourtant il existe de nombreuses façons d’optimiser le poids des pages en limitant le nombre d’images, en optimisant les fichiers HTML et javascript… J’imagine que l’arrivée à maturation des terminaux de consultation alternatifs (smartphones, touchbooks…) va inciter les éditeurs à se remettre en question.

61 commentaires pour “De l’aberrante dérive du poids des pages d’accueil”

  1. Posté par Pinkfrenetik a dit : le

    Price Minister… Ça serait 512 Ko plut^pot que 512 Mo non ? :p

  2. Posté par Gpenverne a dit : le

    Il est vrai que ça grimpe vite, mine de rien … Ma homepage fait 2.16mo (sûrement à cause de la régie pub-vidéo), ce dont je ne me rendais même pas compte.

    Merci pour cet article !

  3. Posté par Kaaviar a dit : le

    Par manque de temps je ne peux pas tester mais as-tu pu vérifier que la taille de la page en chargement n’était pas liée au débit ?

    Il y a quelques années j’avais trouvé un script JS permettant de faire ce distingo.

  4. Posté par Maxx a dit : le

    Il faut vraiment l’ »espérer » très fort…
    Personnellement, quand je vois l’incompétence flagrante de nombreux ingénieurs/développeurs d’interfaces web (quelque soit le langage derrière, PHP, JSP, ASP pour les + courants) en termes de conception « propre », je doute qu’on arrive rapidement à des notions d’optimisation du poids. Peu de monde en a réellement conscience.

  5. Posté par l’Ours a dit : le

    C’est doublement se mettre une balle dans le pied quand on voit le parc grandissant de terminaux légers.

  6. Posté par gpenverne a dit : le

     » la taille de la page en chargement n’était pas liée au débit  » >> Pour ma part, j’ai juste fait « enregistrer sous » sous firefox, il enregistre automatiquement les css, js, frames et flash (swf). Je ne sais pas si c’est la meilleure technique, ceci dit.

  7. Posté par ¥€$ a dit : le

    Zuneo 18 Ko

  8. Posté par Anthor a dit : le

    On m’a rit au nez en agence web, quand j’ai osé parlé du poids de la page !

    Je pense qu’on peux aussi ajouter que même si en France, nous avons de bons débits, c’est loin d’être le cas partout.

    J’imagine bien aux États-Unis le temps qu’il faut pour charger la page du LA Times :s

  9. Posté par Frédéric CAVAZZA a dit : le

    @ Pinkfrenetik > Oui c’est bien 570 Ko pour PriceMinister (corrigé dans l’article).

    @ Kaaviar > Non j’ai fait un simple « Enregistrer sous… » dans Safari.

    @ Maxx > Oui je prédit une remontée de la côte des « experts Front Office » qui seraient justement chargés d’optimiser les templates.

  10. Posté par Hugues a dit : le

    firebug permet d’avoir le poids de la page avec tous les éléments ainsi que le temps de téléchargement.

    396 KB pour la home Meetic, 1,3 Mb une fois loggué…
    Par contre, pour LeMonde, si j’ai bien plus de 250 fichiers, le poids n’est que de 1.1 Mb

  11. Posté par Caraibes35 a dit : le

    Gp enverne, ta régie balance des pubs flash en béton, j’ai pesé 606ko de swf (tiens je croyais que les vidéos étaient streamées et pas chargées, j’ai du gourer…)

    Pour le contrôle du front, je vous conseille FF avec Firebug et page-speed. Quand à la vitesse moyenne du site il faut suivre dans Google webmastertools (nb quelques pages lourdent suffisent à plomber la moyenne du site)

  12. Posté par Blawesom a dit : le

    J’ai fait des tests avec Opera et IE8, je n’ai même pas des résultats identiques, que ce soit sous « archive Web » ou « pages complètes » (avec images).
    De plus, je pense qu’on ne prends pas en compte le volume qu’occupe le flash selon les sites (non téléchargés lors de l’enregistrement, si je ne m’abuse…)

  13. Posté par Tony a dit : le

    En ce moment l’optimisation du poids des pages reviens à la mode. La tendance est visible sur les blogs de développeurs web ou les sites similaires.
    Il me semble que Amazon avait détecter qu’une augmentation du temps de chargement de 0,1 seconde réduisait les ventes de 1% (et vice-versa).

    @Anthor: sauf sur les gros projets, je pense que les agences web se fiche du poids des pages.
    Sur le site vitrine d’une entreprise alpha, est-ce que le possesseur de l’entreprise souhaite vraiment dépenser 10% de budget supplémentaire pour gagner 10% de temps de chargement en moins (chiffre totalement aléatoire juste pour illustrer mes propos). Surtout que ce client n’a probablement pas conscience de l’impact de ce facteur.
    Je pense qu’il va encore falloir un petit peu avant que la réduction du poids des pages se généralise aux petits projets web, mais ça va venir.
    Par contre, je regrette la réaction de l’agence web, s’il s’agissait d’un gros projet.

  14. Posté par Renardudezert a dit : le

    Je vais ajouter mon petit grain de sel a cet article.

    En faisant « Enregistrer sous … » on passe a coté d’un élément essentiel du web : Le serveur web (prenons par exemple Apache pour ne citer que lui). En effet, le serveur permet lorsqu’il est bien configurer d’activer certains modules qui sont assez « utiles », cf le mod_deflate d’apache (qui active la compression gzip). Je ne vais pas entrer dans le detail ici, car ce n’est pas le sujet de l’article.

    Pour tester le poids effectif d’un site web, vous pouvez vous faire une idée grâce a GTMetrix, et la on voit une énorme différence entre les chiffres de cet article et le poids réel des pages (pour info, Facebook, Yahoo et MSN font quand même parti du Top1000 des sites testés sous GTmetrix).

    J’ai donc :
    Facebook : 42 KB (On est loin, très loin des 2Mo annoncés)
    Yahoo : 366KB
    MSN : 571KB (et la j’admets que le chargement de la page en 8.15, c’est très loooonng pour un portail)

    @Maxx : encore une belle généralité sur les développeurs. Soit, j’ai vu et je continue de voir un certain nombre d’énormités au niveau code (surtout au niveau des requêtes SQL), mais c’est un peu tout le temps le même discours. Je pense qu’il ne faut pas oublier un élément important qui entre en jeu dans le temps de chargement des pages, c’est l’optimisation des images (et je sais que beaucoup pensent que les images sont optimisées, alors qu’en réalité …).

    Sinon il est vrai que plus on a de ressources et plus on les utilise, souvent au détriment des performances pures.

  15. Posté par Auto-Entrepreneur Lyon a dit : le

    Bonjour,

    toujours intéressant de voir les pratiques des sites de grosses « marques ».

    Pour cdiscount je confirme avec Firebug que la page fait bien 2.1Mo.

    Quand je vois que ma page fait 300K et que j’essaie d’améliorer via les sprites etc… Ils ont encore du boulot je pense chez les e-commercants niveau ergonomie.

  16. Posté par jonathanulco a dit : le

    Au sujet du développement et plus particulièrement du temps de développement en agence, le fait est qu’on a pas trop le temps d’optimiser les requêtes serveurs. On marche par rush pour un site lambda faut qu’en deux jours il soit pondu. Pour des techniques comme les « sprites » qui sont plus long à mettre en place parfois on cherche pas à prendre le temps de les faire. Allez expliquer au client que ça va prendre une journée de plus de faire son site pour l’optimisation du poids, le « web c’est facile »

  17. Posté par Brett a dit : le

    SearchEngineLand vient justement de communiquer sur les principales données du Google Web Report :
    « …
    Highlights:
    * The average web page takes up 320 KB on the wire.
    * Only two-thirds of the compressible material on a page is actually compressed.
    * In 80% of pages, 10 or more resources are loaded from a single host.
    * The most popular sites could eliminate more than 8 HTTP requests per page if they combined all scripts on the same host into one and all stylesheets on the same host into one.
    … »
    http://searchengineland.com/google-web-report-average-page-size-320-kb-46316
    http://code.google.com/speed/articles/web-metrics.html

  18. Posté par apwn a dit : le

    Je me demande si ces sites vont changer leur stratégie depuis qu’on a appris que Google prendrait en compte le temps de chargement dans l’affichage de ses résultats.

    Ainsi un site A identique à un site B mais moins lourd serait privilégiée en termes de référencement. Après il faut voir qu’elle poids cette donnée a concrètement dans le référencement.

    Réflexion intéressante cependant

  19. Posté par Bertrand a dit : le

    J’ai toujours essayé de privilégier des pages relativement légère en poids dans leur structure afin de permettre une meilleure qualité au niveau des images notamment. Cependant j’ai actuellement des pages d’articles qui font dans les 1,7 Mo dont pas moins de 700 pour les modules sociaux de Facebook : Like Box et Bouton j’aime. Je peux faire du sprite, rassembler les feuilles de styles, compresser… Le plus gros gain serait d’enlever ces outils.

  20. Posté par ¥€$ a dit : le

    Alt + cmd + I dans Safari ou Chrome (ou Ctrl + Shift + I) pour ouvrir l’outil de développement et voir le poids d’une page http://i.imgur.com/bo5Fh.png

  21. Posté par katsoura a dit : le

    Ah, c’est amusant cette histoire d’optimisation des images. Si je regarde le poids de ta page d’accueil avec WebDeveloper, ce sont les images qui pèsent le plus. Tu as 1360 ko pour 29 images. La plupart sont au format jpg, par contre la plus lourde est au format… png. Pour moi, optimiser ce n’est pas seulement faire le plus léger mais choisir avant tout le bon format. Une petite capture d’écran d’une page web ne s’enregistre pas en jpg ! C’est moche, ça bave, c’est pas propre, mais… c’est plus léger. Si la taille fichier est vraiment une contrainte et si on a le soucis de la qualité de ses illustrations, on sabre dans les dimensions (largeur, hauteur). Mais c’est dommage d’en arriver là juste parce que Google l’a intégré dans son algorithme alors qu’une grosse majorité télécharge les infos de manière assez fluide.

  22. Posté par Christophe Jean a dit : le

    Impressionnant en effet.

    Toutefois, ces poids sont à relativiser, si les x mo sont téléchargés la première fois qu’on se rend sur le site, ce n’est plus le cas les fois suivantes grâce à la mise en cache dans le navigateur et/ou l’utilisation d’Ajax qui évite le rechargement complet de la page.
    Il est par exemple intéressant de noter que Google charge les images qui seront affichés sur la page de résultat d’une recherche dès la page d’accueil alors qu’elles ne sont pas affichés, ça permet paradoxalement de gagner du temps sur le chargement des pages suivante.

    Autre nuance à apporter également, sur la majeur partie de ces sites, le contenu n’est pas envoyé tel quel et subit différentes optimisations comme leur compression (gzip) avant d’être envoyé (ce qui, pour des fichiers de type html/js/css réduit considérablement le poids) et un « Sauvegarder Sous » ne permet pas de s’en rendre compte.

    Pour ce qui est du confort de l’utilisateur, si le site est relativement bien fait, les contenu les plus lourds ne se téléchargent qu’une fois que le contenu à proprement dit.

    Pour ce qui est de la lourdeur critiqué des plug-ins, ce n’est pas tellement leur poids qui est réellement critiqué mais le fait qu’ils se chargent qu’une fois que la page est chargée (ce qui fait qu’on a l’impression d’attendre plus longtemps) et qu’ils prennent trop souvent beaucoup de ressources comme le processeur ou la RAM ce qui a une fâcheuse tendance à ralentir le fonctionnement d’une machine

  23. Posté par Christophe Jean a dit : le

    @apwn je doute réellement que ça a une influence sur le référencement de ces sites. En effet, pour un crawler, il est difficile de de détecter les javascripts ou images qui sont ajoutés dynamiquement à la page (comprendre à l’exécution du javascript) ce qui permet à ces sites de paraitre léger pour les robots.

    Déjà que voir Google favoriser ceux qui ont les moyens de se payer un expert et/ou des serveurs rapides quand on parle de neutralité du net m’a choqué, quand on voit que ça ne permet pas forcement d’atteindre le but escompté (un web plus rapide), je doute du bien fondé de l’idée de Google.

  24. Posté par Philippe a dit : le

    Pour http://www.simpleweb.fr j’ai Total 1396 Ko (1472 Ko sans compression), en utilisant Web Developer sur Firefox, arghh le poids des images

  25. Posté par Van Houten a dit : le

    Pour juger du poids de votre page d’accueil aller faire un tour sur : http://tools.pingdom.com

  26. Posté par Frédéric CAVAZZA a dit : le

    @ katsoura > Ha non pas d’accord, les images en PNG pèsent 2 à 3 fois plus lourd pour un résultat quasi-équivalent à l’oeil. Je suis très curieux de lire un argumentaire qui justifie le PNG au détriment du JPEG.

    @ Christophe Jean > Certes, il y a le cache, mais il me semble que cette excuse est ressortie à toutes les sauces (un bon prétexte pour ne pas se creuser la tête à optimiser).

  27. Posté par Micka a dit : le

    Article intéressant, nous avions deja remarqué cela.
    j’ai l’impression que les gros sites ont du mal avec leur home, c’est un problème vraiment crucial…

    PS:ton lien pixmania est une 404

  28. Posté par michel a dit : le

    Je suis d’accord avec d’autres pour dire que toute cette belle « communication » de Google autour du poids des pages est une belle fumisterie! Plus Google communique sur un sujet, moins celui-ci est important. Un poids des pages plus bas permet à Google d’économiser des ressources et donc de l’argent, mais de là à l’intégrer à l’algorithme, si c’est le cas ça ne doit pas dépasser 0.5% de l’ensemble des critères, et encore.

    Le poids des pages, c’est comme Google Webmaster Tools: tout juste bon à faire bander certains webmasters, mais au final c’est de la rigolade..

  29. Posté par Kaaviar a dit : le

    Pour les sites de e-commerces, je pense que le ratio

    perte de clients potentiels à cause d’une connexion trop faible / attractivité marketing liée au flash, javascript et nombreuses images

    leur est profitable.

  30. Posté par Mr Xhark a dit : le

    Chez moi Facebook pèse 99 Ko (sans être connecté)

  31. Posté par dz a dit : le

    Un article interessant mais qui finalement est fonde sur des donnees pas tout a fait correctes.

    La technique utilisee pour « peser » la page n est pas correcte.
    En effet, comme souleve plus haut, l utilisation du mod_deflate permet d obtenir des poids plus petits a l envoie; la decompression de l objet se faisant au niveau du client.
    De ce fait, tous les chiffres annonces sur ce post sont potentiellement incorrectes et devraient etre recalcules avec un outil qui permet de constater les poids reels des pages
    recuperees.

    Ensuite, je souhaiterais repondre a Maxx concernant sa remarque sur la qualite des developpements.
    Je trouve plutot gonfle de dire que tous les inge/dev web sont des tanches.
    Si tu as travaille avec des losers, prends t en a ta hierarchie qui ne sait pas trouver les competences la ou elles sont.
    Je travaille personnellement pour une boite d hebergement opensource dans le departement R&D et je peux te garantir que les inge/dev web ne sont pas a blamer, certains sont plus que competent ; de meme si l on se penche du cote des admins c est le meme constat, certains sont plus que competents, d autres sont carrement incompetents.
    Y a des losers partout, inutile de generaliser a cause de mauvaises experiences.
    Je te souhaite de travailler un jour avec un inge/dev qui t apprendra ton travail ?
    Pour conclure sur ce point, un bon admin proposera a un dev de mettre en place des solutions pour optimiser au mieu son temps de reponse/chargement comme par exemple mod_deflate, varnish, lighttpd, nginx, … suivant les cas.

    Enfin et pour conclure, pourquoi vous les blogger ne linkez pas vers les articles originaux ?
    Franchement c est pas pratique et vous partez dans le n importe quoi apres.

    Le lien vers l article original sur le blog de google webmaster :
    http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html

    Le lien vers la premiere explication du score pour le loading time sur le blog d adwords (pour info) :
    http://adwords.blogspot.com/2008/03/landing-page-load-time-will-soon-be.html

    cya —

  32. Posté par Daniel, de SeoMix a dit : le

    @ Frédéric : pour le PNG au lieu du jpg, il n’y a qu’une seule raison : la gestion de la transparence, en conservant la qualité de l’image (contrairement au gif).

    Je rejoins les dires de RenardDuDezert sur la nécessité de bien paramétrer son serveur, pour effectuer moins de requêtes (expire-header, etags, cache-control) et compresser le transfert via Gzip.

    Et je conseille aussi l’utilisation de minify pour les css et les js, ainsi que des sprites au maximum pour les images de « déco ».

    Pour ceux intéressés par le fichier htaccess, j’ai fait un article complet dessus : Temps de chargement et Htaccess

  33. Posté par Christophe Jean a dit : le

    @Frédéric CAVAZZA > Je vais répondre à la place de katsoura mais contrairement au jpg, le png a la capacité d’être un format sans perte et est capable de s’optimiser par rapport au nombre de couleurs de la page etc…
    Mais sinon, il n’y a pas de bonne ou de mauvaises solutions, il faut voir selon ses besoins.

    Sinon, pour la partie qui me concerne, en effet, le cache ne doit pas servir de prétexte pour tout se permettre mais je voulais juste mettre en avant que ça n’a pas systématiquement une influence sur la qualité de navigation de l’utilisateur.

  34. Posté par David M a dit : le

    Salut Fred,

    Tu as répondu @ Kaaviar > Non j’ai fait un simple “Enregistrer sous…” dans Safari.

    Cette technique n’est malheureusement pas super efficace car tous les fichiers images des CSS ne sont pas téléchargés et quelque fois le javascript charge également des éléments externes. Mais comme cette méthode a été appliquée sur l’ensemble des sites testés cela permet une bonne comparaison.

    Un autre lien intéressant : http://www.websiteoptimization.com/speed/tweak/average-web-page/ qui montre le poids des pages qui a triplé de 2003 à 2008.

    Pour ce qui concerne le développement je rejoins le point de vue de dz (2 commentaires plus haut) avec google webmaster qui encourage les professionnels à développer plus light à l’aide de très bons outils (plugin Firefox/Chrome).

  35. Posté par alex de @referencement a dit : le

    Salut,

    Cette dérive risque d’évoluer maintenant que Google risque de valoriser les sites léger ?
    http://www.journaldunet.com/solutions/moteur-referencement/temps-de-chargement-dans-google.shtml

  36. Posté par Nicolas Chevallier a dit : le

    Le temps de chargement d’une page n’a jamais été proportionnel à la taille des composants qui la composent… D’ou un article faux concernant la partie prise en compte de Google…

    Beaucoup de sites, y compris Google et Yahoo font du post loading sur leur home page pour accélerer le chargement des pages suivantes.

    Ce qui est utile pour Google c’est le temps de premier affichage (domready je crois) et pas le chargement complet.

    Ensuite Google ne dit pas si il tient compte du temps de chargement du fichier HTML seul ou de l’ensemble de la page. Je penche plutot pour la première solution dans un premier temps.

  37. Posté par Patrouille a dit : le

    Est ce que c’est vraiment le bon débat? Beaucoup de pages lourdes sont positionnées et vice versa. Ça reste selon moi qu’un critère parmi tous. Très bon article en tout cas. Sinon en effet t’as une 404 sur ton lien pixmania
    Bonne journee

  38. Posté par Guillaume a dit : le

    Indépendamment de la méthodologie qui n’est pas bonne, le poids des pages n’est heureusement plus un problème aujourd’hui alors qu’il y a 10 ans c’était un critère très fort. Le haut débit est passé par là, et on ne se soucie plus du poids des pages, étant donné qu’elles se chargent toutes très rapidement : débits plus élevé, réseaux plus denses, serveurs et ordinateurs plus puissants.

    L’optimisation a un coût en matière de développement, il est donc normal de ne plus (vraiment) s’en soucier aujourd’hui à l’heure d’Ajax, Flash et autres technos côté client. Ce qui a eu l’énorme avantage de libérer la créativité et proposer de véritables contenus multimédia comme on disait dans les années 90 ?

    Aujourd’hui les terminaux mobiles mériteraient des sites optimisés, ce qui est loin d’être le cas, mais tout viendra en temps et en heure. Je me rappelle avoir travaillé en 2000 sur un site Wap quand presque personne ne surfait sur mobile en GSM.

    C’est la loi des cycles informatiques : mes jeux-vidéos tournaient sur une simple disquette 880 Ko sur mon Amiga, mais Dieu merci aujourd’hui ils font plusieurs Go.

  39. Posté par Les news incontournables Geek de la semaine -52- a dit : le

    […] SimpleWeb : De l’aberrante dérive du poids des pages d’accueil […]

  40. Posté par Annabel a dit : le

    Ah lalala sans tomber dans les généralités, je suis face au comportement typiquement geek qui m’agace…
    Sous pretexte que le cache sauvegarde les scripts, images, CSS, et que la connexion devient plus performante, on se permet beaucoup de choses. j’ai l’impression que l’optimisation des pages est le dernier souci comme pour l’écologie. Je précise que personne, ici, n’a pensé au motif écologique. Eh oui, n’avez-vous pas pensé que plus le poids des pages est lourd, plus on charge les ordinateurs des particuliers (s’ils n’ont pas automatisé le nettoyage du cache) et les serveurs, plus on use les performances des machines, plus on dépense de l’énergie et de l’argent, plus l’impact sur l’environnement est élevé. Les serveurs se multiplient, les ordinateurs s’usent plus vite ? A quand la sobriété technologique (130 Ko pour une page d’accueil par ex) sans revenir à l’âge de pierre ? Eh oh arretez de vous prendre la tête sur comment mieux mesurer le poids des pages, optimisons les pages pour le bien de tous !
    Soyons écologeek !

    Annabel

  41. Posté par Nicolas a dit : le

    En utilisant firebug (plugin firefox) il me semble que tout est mieux pris en compte (onglet réseau, activer, ensuite actualiser la page).

    Exemple pour
    – cdiscount : 2,5Mo (2,2Mo mis en cache navigateur) / 303 requêtes => 12,225s de chargement total
    – Le monde : 1,3Mo (0,78Mo) / 349 requêtes / 15,4s
    – La Voix du Nord : 1,2Mo (0,98Mo) / 231 requêtes => 11,7s

    Tout n’est pas a prendre au pied de la lettre (surtout le temps de chargement) mais c’est un bon indicateur aussi ?

    Bonne journée

    Nicolas

  42. Posté par Nicolas a dit : le

    Soit dit en passant, cette page fait 74ko pour 48 requêtes et met 1,53s a charger ?

  43. Posté par Content is truth a dit : le

    […] ne tenais pas vraiment à revenir sur un article que j’ai lu la semaine dernière (De l’aberrante dérive du poids des pages d’accueil), mais après la lecture de l’article de Laurent : Faut-il vraiment commenter tant que ça ? […]

  44. Posté par Alexandre a dit : le

    @Fred

    Je remarque que tu n’as pas testé Orange.fr qui a récemment changé sa page et qui est a mon sens la plus légère des HP dans l’univers des grands portails.

    Peut-être sera-t-elle devancée prochainement par la nouvelle HP de MSN qui est déjà visible sur la version US du site

    A suivre donc

  45. Posté par FredCavazza.net > L’actualité des mes autres blogs (juillet 2010) a dit : le

    […] De l’aberrante dérive du poids des pages d’accueil ; […]

  46. Posté par Vincent a dit : le

    Tester les poids des pages, c’est une chose (et comment dit précédemment, il faut le faire correctement). Mais il faudrait aussi tester le temps qu’on attend réellement avant de pouvoir consulter la partie visible de la page. C’est l’avantage du html : un chargement progressif, qui fait que je peux commencer à visualiser la page rapidement, pendant que le reste se charge. Si je prends l’exemple de la page du monde, le haut se charge très rapidement, je peux commencer à lire et regarder les premiers articles. Le temps que je scrolle la très haute page, tout est chargé (chez moi). Donc à relativiser je pense… Idem sur yahoo où les vidéos se chargent après me semble-t-il, ou en parallèle…

  47. Posté par Al Bundy a dit : le

    Et ben dis donc, faut pas avoir une connexion qui rame ou se connecter via une clé usb !

  48. Posté par Virginie a dit : le

    Bonjour,

    Merci pour cette mise au point !

    Le poids des pages est censée être prise en compte pour un bon positionnement ( dixit certains livres blanc pour le positionnement de site sur les moteurs de recherche ).

    Cela dit, quand on voit la taille des pages de site en première page sur de très grosses requêtes, on se demande.

    Quand est il vraiment pour chacun ?

    Idem pour la structure « table » ou « div », le nom d’images dans la page, les textes de plus de 10.000 caractères dans un article, …

  49. Posté par jeu français a dit : le

    Voila un article fort intéressant ! merci beaucoup, à bientôt !

  50. Posté par La course au poids 2.0 – Filluzeau Alexandre a dit : le

    […] Si ce sujet vous intéresse, je recommande l’excellent article de Frédéric CAVAZZA : De l’aberrante dérive du poids des pages d’accueil. […]

  51. Posté par Lione@ audit site internet a dit : le

    Bonjour,

    Je reste partagé avec cet article. Prenons l’exemple de cdiscount qui a une stratégie basée sur les bas prix, le nombre de produits, promotions, nouveautés. Le visuel prend une place importante dans leur stratégie qui fonctionne à plein régime.

    Certes c’est contre ergonomique mais pas contre productif. Les responsables ont raison d’appuyé sur une stratégie rentable.

    amicalement

  52. Posté par Starwatch a dit : le

    Merci à Damien Brizzi qui veille à la homepage de PriceMinister

  53. Posté par actumeet a dit : le

    Bonjour, le poids des pages a bien diminué dans l’ensemble, par rapport à la « fabuleuse » époque des structure en « Table » ^^ Avec l’avènement du xhtml / css et les balises « div » le poids général des pages a été largement diminué, ce qui a contribué à accélérer les temps de chargement ( si on a un bon hébergement bien sur ! ).

    Maintenant il y a encore des pages lourdes mais avec tellement de liens entrant que ca ne pose pas problème ( les plus gros sites ).

    Mais pour un p’tit site qui démarre, il est fortement conseillé d’alléger au maximum et de passer par « PageSpeed » et Firebug pour tester le poids de la page et le temps de chargement, si cher à Google de nos jours :)

  54. Posté par hervelegerelite a dit : le

    An excellent blog!I like it.but The meaning of the last paragraph a bit puzzled.It’s always good to have passions in life to keep yourself from going down the negative path and work towards staying positive.I really enjoyed this. You can look your article comments. This information has really been helpful for most of the readers. I really appreciate the way you have written about this. I will really like to read more on this from you. I know your expertise on this. I must say we should have an online discussion on this. Writing only comments will close the discussion straight away! And will restrict the benefits from this information.

  55. Posté par boisman a dit : le

    les chiffres sont très intéressants merci

  56. Posté par coucou a dit : le

    oui d’accord

  57. Posté par Alice a dit : le

    Bienvenue de visiter notre magasin en ligne de sacs à main de luxe

    http://www.nicegiftsforu3.com

    Il y a une grande sélection de conceptions et de styles, y compris Louis Vuitton, Gucci, Chloé, Prada / Miu Miu, et les autres. Les sacs sont à prix réduit qui est favorable et abordable. Nos clients bénéficieront de l’expédition gratuite. Nous fournissons aussi un processus dapprovisionnement efficace et gérable qui couvre toutes les phases de la cha?ne logistique internationale et rationalise les circuits commerciaux.

    Notre objet est de vous faire profiter de votre shopping dans notre monde de mode et devenir la femme la plus charmante grace à nos belles chaussures. Toutes les commandes seront traitées avec soin pour répondre aux besoins de nos clients. Dans tous les cas, nous avons toujours la confiance de vous offrir de bonnes politiques de vente, les prix de réduit raisonnable, la livraison rapide et s?re, la protection de la vie privée et les services fiables.

  58. Posté par Alice a dit : le

    How to clean Bags

    http://www.nicegiftsforu3.com

    Comment nettoyer les sacs à main de luxe?

    Nous avons déjà connu qu’il est important d’avoir au moins un sac à main de luxe. Il est nécessaire de savoir comment traiter et nettoyer les sacs à main précieux et de valeur dont nous avons disposés. Avant tout, il nous faut savoir qu’il est difficile de nettoyer la surface du cuir. Leur surface se tache facilement des produits chimiques, bien que le cuir soit dur et durable. Et bien, voici des conseils sur la fa?on de traiter et nettoyer nos sacs à main en cuir.

    Essuyez doucement les sacs à main en cuir de Louie Vuitton avec un chiffon blanc, doux et humide. Utilisez le nettoyant du cuir après avoir essuyé les sacs avec le chiffon. Si vous vous sentez satisfaits, vous pouvez traiter le cuir avec un conditionneur pour restaurer son lustre et remplacer les huiles naturelles du cuir. Testez toujours le cuir en choisissant une zone peu visible de votre sac à main avant d’utiliser le nettoyant. Si le cuir change de couleurs, il y a des sprays disponibles de cuir qui peuvent restituer les couleurs du sac à main. Il suffit de faire correspondre le plus possible à l’original.

    N’essayez pas de nettoyants, de solvants ou d’autres solutions normales de nettoyage pour nettoyer le cuir. Il est naturellement un matériau poreux qui ne peut pas souvent être entièrement restauré. Si vous suivez le présent conseil, vous n’avez q’un sac à main de luxe dans toute votre vie. J’espère que vous n’êtes pas ennuyeux avec un seul sac à main. Si vous en êtes ennuyeux et que vous souhaitez avoir plus de sacs à main en cuir, il vous suffit de surfer sur Internet et de trouver des sacs à main excellents qui sont conformes à votre go?t unique et à votre appréciation de beauté.

  59. Posté par celine a dit : le

    Je ne trouve pas la dérive du poids des pages d’accueil aberrante

  60. Posté par coach a dit : le

    Personnellement, je n’ai pas fait attention au poids de ma page d’accueil de Yahoo, merci pour lui rappeler.

  61. Posté par liveshow sans cb a dit : le

    On en veut davantage avec autant d’humour. Sympa.

    Vraiment cool tout ça !