Tiens je croyais que seul Windows affichait des Mo de 1024, j’apprends qu’Android aussi…
Généralement ce qui est basé sur Linux affiche bien Mio pour 1024 et Mo pour 1000. MacOS aussi je croyais, mais je peux pas vérifier…
Notons que même avec les préfixes SI, ça fait souvent moins qu’indiqué. Et oui, certains stockages se gardent une zone de secours pour remplacer les zone défaillantes qui arrivent avec le temps. Bon pas autant qu’avec la confusion 1000/1024 mais quand même (et sur certains SSD c’était pas négligeable). Par contre les compter dans la taille par le constructeur reste malhonnête, ça devrait être en plus puisque pas utilisable du tout.
Pour le coup, lancer un speedtest toutes les 10 minutes c’est pas une bonne idée je trouve : si tu utilises beaucoup de bande passante au moment du test, soit il va prendre la priorité et tu auras un gros lag, soit tu as la priorité et il retournera un résultat faiblard.
Il vaut mieux monitorer l’utilisation réelle de ton débit, et voir si tes latences correspondent à des pics de consommation : si c’est le cas, c’est normal.
Outil très pratique en effet. Pour pouvoir partager le résultat ou tester de n’importe où, j’ai monté une version web sur https://testssl.breizh.pm perso. C’est plus limité (ne permet pas de tester un site sans pointage DNS, et toutes les options sont fixées une fois pour toutes) mais c’est un bon complément / alternative à SSL Labs ou Cryptcheck.
Si tu en trouves, préviens moi, en théorie c’est assez safe, mais ça reste du shell.
Pas de repo Git (et surtout pas sur Github, au pire ça serais sur ma forge perso), c’est bien trop crade et à l’arrache pour mériter ça.
C’est juste un wrapper autour de ansi2html.sh et testssl.sh, avec du HTML hardcodé salement affiché sur base de if et de grep pour l’indicateur de progression. Nan crois-moi tu veux pas voir ça :p
En fait, c’est spécifique à ton gestionnaire de fichiers. Je ne sais pas lesquels le prennent en compte, mais PCmanFM ou ranger par exemple l’ignorent.
[Comment removed by author]
La plupart des distros l’ont d’ailleurs supprimé, /bin n’étant qu’un lien symbolique vers /usr/bin. Et même tarif pour /sbin et /usr/sbin. C’est pas tellement le bordel je trouve. Idem, /var/run vire au profit de /run
Si tu veux du bordel va sur BSD, à force de tout bien séparer y’a même un /etc et un /usr/local/etc. Et les frontières floues comme celle que tu mentionnes sont encore plus nombreuses…
Salute,
Quels sont les cas d’utilisation ? Je veux dire quelqu’un l’utilise et dans quel cas ?
Tcho !
Salut ! Je n’y vois pas d’intérêt sur serveur. Cependant pour un poste de travail, qui n’a pas beaucoup de RAM, c’est quand même plus réactif que le SWAP sur fichier. Autant sur un vieux PC, on a un vieux CPU MAIS c’est plus réactif que de swapper pour le coup. Cas typique, une bécane avec 4Go de RAM d’il y a 5 ans, tu évites de swapper, le système continue de marcher presque normalement, là où en swappant, les perfs sont nulles :D Avec 8Go + SSD, si tu swappes un peu, tu n’uses pas ton SSD. Avec 16Go c’est discutable en effet. Les utilisateurs de RAMFS/TMPFS chargés en RAM peuvent disposer d’un peu plus de “place”
Typiquement j’avais activé ça sur mon Pi qui galèrait avec 1 Gio de RAM, et que je ne voulais pas faire swapper sur la carte SD. Depuis je suis passé à un Odroid N2 qui a 4 Gio de RAM donc plus besoin.
[Comment removed by author]
[Comment removed by author]
Avoir une conf simple et unifiée pour ses services plutôt que des scripts d’init imbuvables, quand c’est pas carrément loufoque. SystemD permet ça aussi, donc en effet SystemD + SupervisorD est inutile, mais quand t’utilises pas SystemD (et il y a plein d’autres inits aussi bon voire meilleurs que SystemD) ben je suppose que c’est encore utile.
[Comment removed by author]
Salute,
Je suis pas sûr de comprendre ta remarque sur les panneaux verticaux dans Thunderbird. Ça existe et fonctionne parfaitement. Menu hamburger, Préférences, Disposition puis Verticale.
Tcho !
[Comment removed by author]
Claws-Mail fonctionne aussi très bien sous Windows. Quant au mails HTML en lecture, ça ne l’a jamais vraiment géré… LiteHTML (utilisé par le nouveau module pour gérer ça) est à peu près aussi mauvais que Dillo (utilisé par l’ancien module)…
La conversion HTML vers plain text native fonctionne pas mal la plupart du temps. En général ça foire quand le mail est mal foutu.
J’ai survolé les commentaires, personne souligne le manque de tests ? Donc une unité de stockage se casse la gueule, on se rend compte que pour remonter les données ça va prendre XX heures en prod ? Comme on fait des tests de restauration, de PRA, d’alerte incendie, il aurait suffi de tester cette éventualité pour se rendre compte qu’il y avait un gros fail derrière. Bon après je lance pas la pierre mais ça me paraît bizarre.
Petite histoire drôle : Dans ma boîte on a testé le service “Smart Hands” d’un datacenter où on a des serveurs. On simule un problème sur un serveur, personne de l’entreprise pour intervenir, on fait intervenir un technicien (du datacenter) sur place. Ça coûte un bras évidemment. On a arrêté le test après 2h, technicien toujours pas devant la baie…
Tcho !
Perso de ce que je comprends, il n’y avait pas de garantie sur la restaurabilité des données. D’ailleurs, ils l’ont explicitement reprécisé là où ça pouvait être confus.
Faut savoir pour quel service on paye dans ce genre de cas, et voir à ne pas trop en demander par rapport au contrat…
Initiative intéressante, maintenant il “suffirait” que le JDH utilise les medias queries en CSS pour utiliser le mode dark lorsque la configuration utilisateur est paramétrée en mode adéquat (prefers-color-scheme: dark)
L’avantage : pas de hack supplémentaire, ni d’addons
Inconvénient : nécessite que le browser web gère le media en question
ou, encore (mais ce n’est malheureusement plus à la mode, alors qu’en terme d’ergonomie, laissez le choix à l’utilisateur est quand même mieux) utilisez un sélecteur de thème CSS, gérée + ou - dynamiquement.
Je préfère pouvoir choisir sur le site plutôt qu’une détection automatique. Je n’active pas le mode sombre de mon OS, pourtant j’aimerais bien avoir le JDH en sombre.
Surtout qu’il existe la possibilité de renseigner des feuilles de style alternatives, et tu peux choisir dans le navigateur (dans Firefox, Affichage -> Style de la page). Et comme ça c’est standard et natif.
Malheureusement, les navigateurs, du moins Firefox, ne conservent pas le choix fait au changement de page… du coup c’est un peu lourd et inutile.
Tiens, je ne connaissais pas cette possibilité !
Dommage que cela ne permette pas de choisir le schéma de préférence Dark ! :(
Parce qu’il faut l’avouer que cette techno de préférence de schéma de couleurs, soit c’est parce que je suis sous OpenBSD, soit ??? (en tout cas, je ne trouve pas ça très au point)
D’où mon rappel, sur le sélecteur de thème CSS “dynamique” ;)
[Comment removed by author]
C’est le cas de beaucoup de registrars, non ? Il me semble que chez Gandi l’équivalent est aussi gratuit par exemple.
Personnellement ma mère va changer de PC et passer à Linux. Mais avec un Windows 10 dans un coin du disque au cas où un soft ou une vieille habitude le nécessite, et que j’ai pas le temps de faire le SAV dans un délai acceptable.
Quant au vieux PC… on va le stocker, comme d’hab’. Et on le revendra à pas cher un de ces jours, comme on l’a déjà fait pour une autre tour.
Ces “problèmes” m'énervent de plus en plus, au manque de logique, à des lois mal foutues, aux complexités du droit et de la législation, on en arrive à : “Or par définition, pour pouvoir participer au service Jamendo Licensing, les artistes doivent nécessairement choisir une licence avec une clause NC (Pas d’usage commercial). Cela leur permet de continuer à réserver le droit patrimonial d’exploitation commerciale sur leur musique et de l’utiliser pour conclure un contrat avec Jamendo en vue de conférer à cet intermédiaire la faculté de proposer des tarifs pour la sonorisation des espaces de magasins”.
Donc tu choisis une clause non commerciale pour conclure un contrat avec Jamendo… je sais c'est compréhensible d'un point de vue légal mais d'un point de vue humain c'est un ramassis de conneries.
Tcho !
Hum, pas tellement. Je trouve logique que l’usage commercial puisse être autorisé au cas par cas en cas de CC-NC. En tant qu’auteur de l’œuvre, tu as tout as fait le droit de faire du commercial avec et d’interdire les autres de le faire à ta place avec du NC. D’ailleurs, poser la clause NC rends l’œuvre non libre il me semble (seuls CC-0, CC-BY et CC-BY-SA sont libres si ma mémoire est bonne), c’est pas pour rien…
Est-ce que les espaces insécables provoquent encore des erreurs 500 si on essaie de poster un message en contenant ?
Ah ben oui (j’ai essayé d’en mettre une fine devant mon « ? » ci-dessus (et des normales autour de celui-ci) et ça a fait une 500 quand j’ai cliqué sur poster).
Personnellement j'utilise SmartHTTPS : https://mybrowseraddon.com/smart-https.html
Dans le tableau, il aurait « infini » pour le nombre d'entrées et 100% en couverture de trafic. Il test systématiquement le HTTPS (et par défaut, mets en whitelist le site si ça foire après avoir fallback en HTTP, pour ne pas réessayer à chaque fois). On peut évidemment forcer le HTTP ou le HTTPS manuellement sur chaque site pour qu'il n'essaye pas à chaque fois.
Il permet également d'ajouter l'en-tête Upgrade-Insecure-Requests quand un site est chargé en HTTPS, afin d'éviter le mixed-content.
Je le préfère donc à HTTPS Everywhere qui est souvent conseillé. Et je le recommande aussi en priorité par rapport à celui-ci.
« Au début d’internet, pour se rendre sur un site, au lieu de taper lesite.com il fallait taper son adresse IP » Mais c'est quoi, ces conneries ? Le DNS existait bien avant le Web !
« Un serveur DNS […] reçoit même des metadata tel que la résolution de votre écran » On trouve vraiment n'importe quoi sur le Web. On peut voter “Moins” sur le Journal du Hacker ?
“On peut voter “Moins” sur le Journal du Hacker ?”
Nope, c'est pas l'approche du Jdh de pénaliser les créateurs de contenu, même s'ils écrivent des bêtises parfois, on préfère penser qu'ils vont s'améliorer à partir des retours qu'on leur fait ou les retours que l'exposition via le Jdh va leur apporter.
De plus c'est pas parce qu'il y a des erreurs techniques et historiques que le fond de l'article n'est pas intéressant, à savoir mettre en avant le fait que des infos persos fuitent via les serveurs DNS. C'est sûrement une évidence pour les spécialistes, mais pas pour tout le monde.
Le fait de parler d'une chose importante (les fuites d'information via le DNS) n'excuse pas les erreurs. Sur toute chose importante (Linky, le réchauffement planétaire, les vaccins, etc), des gens disent des énormités. Faut-il les accepter puisqu'au moins, ils parlent de questions cruciales ?
Oui. Les débutants et le droit à l'erreur n'ont pas leur place ici ? Le Jdh n'est pas là pour contrôler la véracité et l'exactitude de tout article qui est remonté dessus, qui le pourrait ?
Cet article a 2 votes au bout de 5 heures, il ne faut pas croire que c'est juste une coïncidence mais également le fait que certains ont lu et ont décidé de ne pas voter pour. Chacun est responsable de son article (chez lui, sur son site/blog), OrelAuwen verra probablement ces commentaires et fera des corrections sur son article.
Tcho !
Accepter les erreurs non bien sûr, ce serait à la fois dommage pour les lecteurs et pour le rédacteur, mais les remonter à l'auteur dans l'espoir qu'il les corrige est à mon avis une action plus participative et efficace que nier en bloc l'effort de production de contenu de la personne, surtout si l'article va dans le bon sens.
Personnellement j'ai toujours corrigé mes articles quand on m'a remonté des points incorrects ou imprécis. Et sur le Jdh, plusieurs auteurs suivent les commentaires et réagissent quand on leur fait des remarques. C'est une façon de fonctionner qui, je trouve, permet d'encourager et valoriser l'effort de l'auteur, mais aussi l'effort de la communauté qui réagit au contenu qu'on lui soumet et ses réactions et remarques peuvent se concrétiser par une amélioration du contenu en question.
Euh, j'ai remonté à l'auteur (via le formulaire de commentaire du blog), donc je ne me sens pas concerné par ces reproches.
ah désolé si ça sonne comme des reproches, ce n'était pas le but, je rebondissais plutôt sur ta question de voter “moins” pour détailler la démarche du Jdh et mon point de vue personnel. @cascador a d'ailleurs écrit un article il y a quelques temps sur le blog du Jdh “Le downvote en question” https://blog.journalduhacker.net/index.php?article153/le-downvote-en-question
On note aussi le 323 dans une adresse IPv4… enfin, le message de fond est pas mal, mais faudrait quand même corriger les quelques erreurs, parce qu'au mieux ceux qui n'y connaissent rien vont retenir des bêtises, au pire ceux qui y connaissent pas grand chose mais un peu quand même risquent de remettre en cause la crédibilité de tout l'article…
Ça permet de ne pas utiliser une IP qui existe. C'est une méthode courante dans le cinéma d'ailleurs et ça ne change rien au message de fond.
Tu peux utiliser une IP valide spécialement conçue pour être utilisée dans ce genre de cas.
https://tools.ietf.org/html/rfc5737
Bon je sais pas si le cinéma ça rentre dans le cadre « documentation », mais pour l'article dont il est question ici, je trouve que ça a sa place.
[Comment removed by author]
Je plussoie, j'ai déjà été intéressé par plusieurs de tes « articles », mais souvent le format vidéo m'arrange pas et je zappe…
Yep, je sais que le format est pas adapté a tout le monde, je suis beaucoup plus a l'aise a l'oral qu'a l'écrit donc j'ai pas prévu de faire un blog pour l'instant mais je vais y penser c'est une bonne idée ;) Si c'est juste google qui te gene, mes vidéos sont aussi dispo sur peertube :p https://peertube2.cpy.re/video-channels/cocadmin_channel@alttube.fr/videos
L’auteur dit qu’il a 4000 requêtes par minute et annonce “c’est de la faute à l’IA” sans jamais prouver que ce sont bien des bots d’IA à l’origine de ces requêtes (aucune IA digne de ce nom et commerciale ne se fait passer pour un Windows 95…)
Et une attaque par déni de service distribué, ça n’a rien à voir avec du scraping.
On mélange les torchons et les serviettes… Mais comme il y a un ennemi commun (l’IA), ça a l’air de générer du buzz. Tant mieux pour dryusdan.
C’est justement là que le bat blesse, une IA est par essence, prévu pour piller des données quel que soit le moyen (faut bien l’entraîner), et si elle pille, on ne peut pas leur faire confiance sur le “digne de ce nom”.
https://rknight.me/blog/perplexity-ai-is-lying-about-its-user-agent/
Maintenant feel free hein, quel sont les moyens que je peux mettre en oeuvre pour m’assurer que ce n’est pas de l’IA ? C’est vrai qu’il y a une énorme différence entre de l’IA et des scrappers peut vertueux (non).
Mais on va parler coïncidence hein (j’ai pas envie d’asseoir un éventuel argument d’autorité comme quoi des attaques DDoS j’en ai bouffé professionnellement à la pelle) ;)
Punaise, les coïncidences sont folles, mais aucune preuve, juste de curieuse coïncidence dont les schémas se répète partout et pas que sur mon infra.
Petit point quand même, un DDoS quel qu’il soit à pour unique objectif de dégommer un site. Soi il arrête une fois le site down, soit il continue jusqu’à pourrir l’infra ou juste pendant X temps.
Ici, à l’instant où le 403 est apparut POUF plus de trafic suspect. Dès qu’il est impossible de lire le contenu, le scraping agressif s’arrête. C’est fou hein. Aucune recherche à mettre mal mon infra, à dégommer mon site principal ni même à le lire. Juste Forgejo. Pour du scraping c’est vachement bizarre de ne lire que la forge surtout chaque petit micro URL de la forge (pourtant j’en ai du site en place, et un paquet), et pour une attaque ça l’est encore plus. Au cas ou, un site down c’est, au mieux, un code 5XX, pas 403.
Si les IA étaient dignes de ce nom, elles respecteraient les robots.txt, scraperaient à un rythme décent et on aurait pas besoin d’avoir 15 000 articles qui expliquent comment les bloquer malgré leurs contournements des blocages, déjà…
Le simple fait que vous ayez fait un article « arrêtez de bloquer les IA » est déjà une preuve que les entreprises faisant de l’IA font n’importe quoi et ne sont donc pas dignes de confiance. Parce que si elles l’étaient, la question ne se poserait pas, le trafic serait passé inaperçu pour la plupart des gens.
Perso j’ai constaté la même chose que Dryusdan sur pas mal de mes infra… Si bien que j’ai du développer un outil pour bloquer tout ça.
Sinon concernant le reste :
“
aucune IA digne de ce nom et commerciale ne se fait passer pour un Windows 95
” : si, on a plein d’exemples comme ça, mais en tant qu’adminsys c’est vrai qu’on passe pas notre temps à poster nos logs en ligne, mais il y a des bases de partages si besoin.“
une attaque par déni de service distribué, ça n’a rien à voir avec du scraping
” : Alors en fait si, de plus en plus d’ailleurs, par exemple j’ai eu le cas (moi aussi sur ma forge git, quel hasard) de crawlers IA qui venaient sur mon infra avec pas moins de 70 000 IP différentes qui faisaient chacune 1 ou 2 requêtes seulement. Surement pour ne pas être banni facilement (c’est loupé eheh).“
Mais comme il y a un ennemi commun (l’IA)
” : Non, l’ennemi commun ce sont les humains qui font de l’IA absurde (et capitaliste à outrance) comme ça et pourrissent le web, ces nécromanciens du rêve sont juste néfastes et seront bloqués et ridiculisés autant que possible.Même constat que Dryusdan sur mon infra :
J’ai eu plus de chances avec moins de requêtes par minute mais poste filtrage par user-agent (qui date de plusieurs semaines), quasi 100% des IP appartiennent à Alibaba.