Logo journal du hacker middle
  1. 8
  1.  

  2. 3

    On peut ajouter aussi : dont les employés sont en télétravail => pas de déplacement, moins d’empreinte carbone

    1. 2

      Hello ! On peut également ajouter ce point effectivement. Après, je voyais plus l’article côté web et uniquement côté web, mais effectivement, si on élargit le spectre à la politique RSE de l’entreprise derrière, ça rentre en compte ! Merci !

    2. 2

      Bonjour,

      Cela passe peut-être aussi par la destruction de contenu devenu obsolète. Il est fort probable qu’un blog vieux de six ans contienne des articles qui ne sont plus pertinents. Il ne faut pas trop être conservateur. Il faut jeter à la poubelle tout ce qui n’a plus de raison d’être, car je suppose que tout ce contenu inutile encombre inutilement les serveurs, n’est-ce pas?

      1. 1

        Hmmm je pense pas que ça change quelquechose ça. Un disque dur contenant 20Go de données ou un disque dur contennant 500Go de données ne consomme pas plus. Supprimmer d’anciens blog posts ne va rien changer, non ?

        1. 2

          Ce point est possible, en voyant la chose autrement. Il faut avoir à l’esprit que Google crawl votre site régulièrement, et ça forcément, pompe de l’énergie. Au moins le Googlebot passe de temps sur votre site, au moins il consommera. Mais ce point ne fonctionne que si tous les sites indexés par Google et autres jouent le jeu…

          1. 1

            Si tes contenus ne changent pas, Google n’y passera presque jamais, d’autant plus s’ils sont peu consultés, donc l’impact est minime.

            Le nerf de la guerre c’est vraiment de concevoir des sites légers et de mettre du cache. S’il faut requester la base de données et lancer un process pour dynamiquement générer les pages a chaque requête, la c’est mauvais (et plus lent).