La question serait plutôt de savoir comment exploiter la mémoire. C’est ce que permettent les tests de performances (benchmarks). Sans comparaisons (ou références), il est difficile de se faire une idée juste.
Pour donner une idée : certains membres d’un peuple indigène n’ayant pas évolué parmi la civilisation moderne lesquels étant effarouché par le survol d’un hélicoptère lui tirent dessus avec des arcs (de mémoire, il me semble) pour le chasser.
Question : Est-il vrai que les spécifications des ordinateurs sont trop généreuses en termes de capacité mémoire ?
Résumé : La mémoire annoncée n’est pas vraiment surévaluée : elle est plutôt dimensionnée pour les usages actuels et futurs, même si certains modèles haut de gamme vont un peu au-delà de ce que l’utilisateur moyen exploitera immédiatement.
Pour faire très court, voici ses arguments.
La mémoire demandée a explosé.
La RAM supplémentaire améliore réellement les performances.
Les systèmes anticipent l’avenir.
Parfois, c’est du marketing… mais rarement totalement :
Il peut y avoir un effet marketing (ex : pousser vers 32 Go pour des usages qui en demandent 8–16).
Mais les marges d’exagération sont limitées, car :
les benchmarks révèlent vite les performances réelles,
les utilisateurs ressentent immédiatement si la machine rame,
les fabricants sérieux évitent de spécifier des valeurs techniquement incohérentes.
hello, je plussois .. voici le lien du site : https://ente.io/auth/
A savoir que j’auto héberge ente photos, et que j’ai pu connecter ente auth vers mon instance ente photo sans rien faire de plus que me connecter :)
Salut.
Expérience intéressante, en effet ; mon seul et gros reproche à Hugo est le fait que lors de la régénération des pages, il les recréé toutes, résultat pour la publication, il faut envoyer toutes les pages à nouveau vers le serveur hébergeur, et non pas juste celle(s) qui a eu une réelle modification.
Du peu que je vois on ne joue dans la même cour en terme de maturité. Le coté “mesh” est intéressant sur NATS, mais ça manque de fonctionnel. Après ça doit être utilisable si ça supporte la charge, ie, est-ce que par exemple tu peux avoir 1 000 000 “subject” sur un cluster afin de gérer scalabilité et partitionnement des traitements ?
Pulsar, tu as des acknowledges de message, le key shared consumers (vraiment nécessaire pour une scalabilité des traitements dans mon cas), la gestion de délai d’envoi de message et la scalabilité à la kafka. Pour la gestion de priorité, on a du coder notre propre système mais on ne désespère pas d’arriver à intégrer au maximim. Pour la suppervision, on arrive à avoir un apperçu de ce qui est présent dans les topics et n’est pas acquitté. Je n’ai pas (encore) testé la geo-replication de la techno.
Quand je clique sur “Liens intéressants de la semaine”, j’ai une alerte de sécurité comme quand j’héberge un truc avec un certificat auto-signé. Sauf que là y’a pas moyen de choisir “Accepter et poursuivre”. Souci de certificat.
So far si good ! Merci beaucoup !
J’ai juste remarqué qu’une fois connecté, l’icône de l’utilisateur n’apparaît plus avec le post (en étant sur la page d’accueil en mode déconnecté, on voit toutes les petites icones des posteurs. Quand on est connecté, les icones ne sont plus la)
Oui il y a un certain nombre de bugs/problèmes déjà existants mais il n’était jusqu’ici pas question de toucher à quoi que ce soit tant qu’on n’avait pas migré vers la nouvelle archi. On va pouvoir commencer à regarder ces bugs/problèmes.
La question serait plutôt de savoir comment exploiter la mémoire. C’est ce que permettent les tests de performances (benchmarks). Sans comparaisons (ou références), il est difficile de se faire une idée juste.
Pour donner une idée : certains membres d’un peuple indigène n’ayant pas évolué parmi la civilisation moderne lesquels étant effarouché par le survol d’un hélicoptère lui tirent dessus avec des arcs (de mémoire, il me semble) pour le chasser.
ChatGPT n’est pas vraiment d’accord.
Pour faire très court, voici ses arguments.
La mémoire demandée a explosé.
La RAM supplémentaire améliore réellement les performances.
Les systèmes anticipent l’avenir.
Parfois, c’est du marketing… mais rarement totalement :
Il peut y avoir un effet marketing (ex : pousser vers 32 Go pour des usages qui en demandent 8–16). Mais les marges d’exagération sont limitées, car :
Sur le même sujet: Une vulnérabilité dans React et Next.js à corriger en urgence
Si les “autres” pages n’ont pas réellement changées, un rsync n’y vera que du feu et n’enverra que celles modifiées.
Bonjour, c’est un oubli de notre part, c’est corrigé.
hello, je plussois .. voici le lien du site : https://ente.io/auth/ A savoir que j’auto héberge ente photos, et que j’ai pu connecter ente auth vers mon instance ente photo sans rien faire de plus que me connecter :)
Salut. Expérience intéressante, en effet ; mon seul et gros reproche à Hugo est le fait que lors de la régénération des pages, il les recréé toutes, résultat pour la publication, il faut envoyer toutes les pages à nouveau vers le serveur hébergeur, et non pas juste celle(s) qui a eu une réelle modification.
Bonjour, Encore un article qui ne met pas de lien vers le projet officiel. Çà sera sympa de faire le nécessaire en ce sens. Merci d’avance.
Du peu que je vois on ne joue dans la même cour en terme de maturité. Le coté “mesh” est intéressant sur NATS, mais ça manque de fonctionnel. Après ça doit être utilisable si ça supporte la charge, ie, est-ce que par exemple tu peux avoir 1 000 000 “subject” sur un cluster afin de gérer scalabilité et partitionnement des traitements ?
Pulsar, tu as des acknowledges de message, le key shared consumers (vraiment nécessaire pour une scalabilité des traitements dans mon cas), la gestion de délai d’envoi de message et la scalabilité à la kafka. Pour la gestion de priorité, on a du coder notre propre système mais on ne désespère pas d’arriver à intégrer au maximim. Pour la suppervision, on arrive à avoir un apperçu de ce qui est présent dans les topics et n’est pas acquitté. Je n’ai pas (encore) testé la geo-replication de la techno.
Corrigé hier soir.
Tcho !
C’est de toute beauté.
oY.
On est dessus.
Tcho !
Désolé, en fait je l’avais désactivé. Donc pas de bug. Bravo en tour cas pour la migration, ça fait plaisir de voir ce site chouchouté !
Quand je clique sur “Liens intéressants de la semaine”, j’ai une alerte de sécurité comme quand j’héberge un truc avec un certificat auto-signé. Sauf que là y’a pas moyen de choisir “Accepter et poursuivre”. Souci de certificat.
Sur la page https://www.journalduhacker.net/settings, tu a bien la partie “Montrer les avatars des utilisateurs” qui est activé ?
Bravo pour cette migration !
Il y avait un problème sur https://www.journalduhacker.net/comments.rss, corrigé.
Tcho !
So far si good ! Merci beaucoup ! J’ai juste remarqué qu’une fois connecté, l’icône de l’utilisateur n’apparaît plus avec le post (en étant sur la page d’accueil en mode déconnecté, on voit toutes les petites icones des posteurs. Quand on est connecté, les icones ne sont plus la)
Bien joué ! Zéro soucis de mon côté
Oui il y a un certain nombre de bugs/problèmes déjà existants mais il n’était jusqu’ici pas question de toucher à quoi que ce soit tant qu’on n’avait pas migré vers la nouvelle archi. On va pouvoir commencer à regarder ces bugs/problèmes.
Tcho !