"En octobre 2000, le poids moyen d’une page web était de 89 Ko (images et scripts compris). En 2015, le poids moyen arrivait déjà à 2,6 Mo, soit une multiplication par trente en quinze ans. Le nombre de requêtes a quant à lui été multiplié par 10. La course aux KPI (un acronyme pour Key Performance Indicator traduit en français par indicateur clé de performance) nous a amené à installer toute sorte de traqueurs et widgets, ce qui dégrade fortement les performances."
@xakan Je crois surtout qu'on a voulu tout faire dans un navigateur web (à tord ou à raison) et qu'on affiche pas aussi vite du HTML pur, et du Mastodon multi-colonnes (avec rafraîchissement, contenue full-js et interaction lourde client-serveur).
Même si, factuellement, notre temps d'attention à baissé depuis des années, alors que notre réactivité ne cesse d'augmenter.
On peut toujours faire du web de 2000, aujourd'hui… merci tous le monde s'en fout…
@Sp3r4z ben pour des applications dans un navigateur, tu sais que c'est lourd. Et tu t'y attends.
Mais beaucoup de "simples" sites web sont tout de même inutilement lourds. Et n'offrent pas beaucoup plus que du web des années 2000, si ce n'est que ça brille, et que ça récolte tout ce que ça peut récolter.
@xakan Pour ça que je disait "à tord ou à raison", c'est ni bien, ni mal, ça dépend :)
Je suis entièrement d'accord avec toi, j'essaye (professionnellement) de tout internaliser, toutes les librairies (et j'en utilise le moins possible), de supprimer toute dépendance à quoiqu'est-ce d'externe et de pouvoir rendre statique tout contenu.
Mais c'ets pas simple :/
@xakan Typiquement, la grande majorité des blogs ou des sites web non-commerciaux (et si on enlève les commentaires dans le poids des pages), on peut tout "statiquiser" et ça fiat tout à fait bien le taff… sauf que on voit rarement des sites statiques, et c’est très malheureux en 2018…
@Sp3r4z parce que les CMS qui permettent à Monsieur et Madame tout le monde de créer des blogs ne proposent pas du statique. Tu prends Hugo de mémoire, qui génère du statique, c'est pas à la portée de mon père par exemple, alors que WordPress le sera.
@xakan c'est FAUX, Wordpress propose du statique, si tu installes le plugin qu'il faut… mais ça demande de mettre de côté le système de commentaire (le traiter à part en fait)
Hugo (comme les autres) demande d'installer whatmille truc sur son poste client pour générer le Blog (en Go, mais qu'importe, à la rigueur), puis faut upload les nouveaux fichiers (ceux modifier en somme)… Trop loin d'être évident pour les gens :/
@Sp3r4z je l'ignorais pour le plugin WordPress, je vais me renseigner.
Par contre toujours pareil, mon père ne saura pas faire la différence entre statique et dynamique, et n'installera donc pas le plugin :)
@xakan Ça demande de la configuration, de savoir ce qu'on fait…
Un des soucis aussi, c'est de considérer (et d'avoir fait considérer) que n'importe qui peut le faire, que ça demande aucune connaissance ou si peu…
O nse retrouve vite avec un château de versaille, pour avoir une pelle quoi…
@Sp3r4z bah après dans la mesure où ca a permis à du monde de s’exprimer, c’est pas qu’un mal. Mais bon...
@xakan Oui, complètement… mais ça favorise et massifie les mauvaises pratiques quoi :/
@Sp3r4z @xakan @valere oui y'a un cron interne à wordpress https://codex.wordpress.org/Function_Reference/wp_cron
@angristan Quelle merveilleuse idée (moitié nope moitié ça va)
@xakan Non, le principe de se faire imposer une attente de plus de 3 secondes JUSTE pour charger des merdes non seulement inutiles au fonctionnement du site, mais nocives (pubs, trackers, scripts qui interceptent les entrées de lhutilisateurs pour en faire de la merde et changer le comportement du navigateurs…. )
Le problème n'est pas « les utilisateurs qui veulent tout sur le champ », mais bien les devs qui font de la merde et les commerciaux qui leurs en donnent l'ordre…
@xakan Faut se poser la question de pourquoi 3 sec d'attente pour charger une page web quand on a une fibre à 300 Mbps
@xakan La page web moyenne ! Parce que les pages de réseaux sociaux genre Facebook...
@Jean_no oui, moyenne, et c'est pire du coup. C'est ce que je disais, sur des réseaux sociaux, tu peux le comprendre. C'est pas vraiment de la page web, c'est une application à part entière, et tu le sais.
Mais sur des pages "de base", ça fait quand même mal.
@xakan Quand j'ai commencé le web, tout le monde était aux modems 14400, alors l'optimisation des pages, ça plaisantait pas, sinon nous-mêmes on ne pouvait pas les charger :)
Quand je dis à mes étudiants de mettre les images au bon format, d'être économes, ils comprennent pas bien :)
@Jean_no je ne suis pas dev, mais quand tu discutes avec certains, ce qui ressort aussi, c'est qu'on ne met plus de budget dans l'optimisation, vu qu'on a largement assez de ressources (ADSL, fibre, processeur, ram, cartes graphique...). Et je trouve ça dommage.
@Satanik666 @xakan Des outils existent mais la volonté, pas toujours. Le pire pour moi étant les pubs, dont certaines sont vraiment codées avec les pieds et ralentissent à mort les mages des médias en ligne.
@Satanik666 oui enfin minifier ton fichier n’optimise pas ton code.
@Satanik666 au début oui, puis ensuite de l'optimisation de façon générale.
Le souci étant qu'on veut faire quelque chose qui brille, et qui rapporte. Trackers, publicités et HD ne font pas dans la légèreté.
@xakan l'optimisation c'est pas tant une affaire de budget qu'une question de soin.
@Jean_no budget temps, budget financier ou autre. Je peux te sortir du code avec mes maigres connaissances de dev. Mais ce sera degueulasse. Si je veux optimiser, il me faudra plus de temps.
@xakan Doom1.wad (Doom version 1.9) fait 4,2 Mo.
Le répertoire complet de Doom (avec le moteur du jeu) sous MS-DOS fait 5,5 Mo.
@alex où as-tu eu l'info? J'arrive pas à retrouver ça.
@xakan Peut-être parce que j'ai le jeu installé sur mon PC ?
@alex ah ben voilà! C'est ça l'info que j'avais pas. J'ai pas su trouver ces valeurs sur le net, d'où ma question. Tout ce que j'ai trouvé c'est 2,3.
@xakan ah moi mon truc c’était Wolfenstein
Doom c’était trop moderne
@xakan 2M c'est ce que fait une image de fond en HD sur un site web.
Dans MsDOS il y avait surtout du code qui ne prend pas beaucoup de place. Sur les sites web il y a des images, polices, etc. qui sont nécessaires.
@mimi89999 ouais, et c'est bien ça le souci. C'est que quand je vais sur le net, j'ai pas besoin de la super image HD qui change rien au fonctionnement du site.
@xakan Le problème n'est pas seulement la taille, mais aussi à quoi ça sert : la majorité de ce poids ne sert à rien, voire est négatif (traqueurs, dispositifs visant à capter l'attention).
@bortzmeyer @xakan De toutes façon, le Web depuis la fin de Rotten.com... :((
@bortzmeyer C'est d'ailleurs l'idée de l'article.
Je trouve ça terriblement lourd et inutile. On privilégie le tracking et le bling bling (pour que ça brille), et on laisse de côté le fonctionnel.
@xakan @bortzmeyer
La note, au demeurant très intéressante, se concentre sur la "responsabilité" de JavaScript. Comme le remarque l'un des commentaires, il y a aussi la responsabilité des gros frameworks type Bootstrap qui poussent à charger des CSS pléthoriques et générique sans rapport avec le contenu effectif de la page
@aris l'article en parle, en expliquant que ce sont les services tiers qui posent plus souci que le code de base en lui-même.
Code de première partie et code tiers :)
"Après 3 secondes d’attente, 57 % des internautes quittent un site et 80 % d’entre eux n’y reviendront jamais."
Le principe d'avoir tout, tout de suite, tout le temps.