Hooo :-(
Bon, concernant l’avenir je pense que le site actuel est très bien en l’état mais j’avoue que depuis que je connais Lemmy et son interconnexion au fédiverse, je me dis que ça serait tellement plus cool.
Mais s’il y a changement de plateforme, que faire du contenu actuel ? Je ne pense pas qu’il soit possible de migrer l’existant vers Lemmy. Du coup serait-il envisageable de conserver une archive statique du site (sur un sous-domaine ?).
Rien de nouveau sous le sapin. On a déjà eu des benchmarks de terminaux et on sait bien qu’Alacritty s’en sort extrêmement bien. https://news.ycombinator.com/item?id=39967295
Mais sérieusement, ce n’est plus un critère pertinent désormais. Kitty par exemple rajoute des délais de microsecondes pour réduire sa consommation CPU.
Les critères pertinents sont les fonctionnalités des émulateurs de terminaux. Le support des emojis, de 16M de couleurs au moins, des sixels, des onglets, thèmes personnalisés, …
hoo ça dépend tout le monde n’a pas les mêmes besoins ^__^ La latence est quand même un critère important mais passé un certain seuil, effectivement ce sont les autres fonctionnalités qui vont orienter le choix.
Ce que je veux dire par là c’est qu’à part quelques terminaux, la réactivité est maintenant excellente et qu’il n’y a plus de distinction perceptible vraiment entre les différents terminaux (sauf bien-sûr quelques-uns à la traîne)
Du coup, ce sont d’autres fonctionnalités qu’il est plus pertinent de prendre en compte.
tu t’en sers où de sixel ? J’ai testé un ptit moment un lecteur de rss avec support sixel mais bon bof quoi…
Visionner des wavefom sur des serveurs de stockage via ssh avant de recup le fichier audio/video de 4To
mon navigateur, offpunk, utilise chafa qui dépend soit de sixel, soit du format d’image Kitty. J’utilise ça 100x par jour donc je ne peux plus m’en passer ;-)
Hugo permet déjà ça avec “hugo new chemin/titre” qui va prendre directement le bon template (archetype) en fonction du chemin donné. ^__^
Commentaire parodique
Yo! Man t’a grave assuré, ça fait le taff. Magnifico.
Uptime?
Feel good!
Reboot de temps à autre… on s’est jamais <:-) sûr.
Explication du commentaire
Dommage, l’écriture inclusive ! Dommage, le franglais ! Dommage, ces maladresses !
“Dommage l’écriture inclusive”… Tu parles de “Bonjour à toutes et à tous” ? o__o
Concernant le franglais, chaque nouveau terme est expliqué au préalable et il s’agit de termes techniques. Les traduire serait bien plus contreproductif. Malheureusement dans l’informatique et le réseau le vocabulaire technique est en anglais. Faire de la documentation en francisant les termes ne fait que déservir le lecteur qui devra réapprendre les vrais termes lorsqu’il les croisera ailleurs.
C’est une formulation formelle qui frise le déplorable.
C’est de la suffisance. J’ai lu de très bon textes sur l’informatique rédigés intégralement en français, avec tous les mots équivalents précisés en anglais. Le franglais c’est du charabia ; on perd littéralement le sens d’origine.
Le “sens d’origine” quand un mot est une invention anéricaine et qu’il a donc un nom américain, est-ce que lui donner un nom français ne serait pas justement une perte du sens d’origine ?
C’est marrant comme je suis quasi jamais d’accord avec tes points de vue ^__^
C’est trop marrant, en effet.
Bonjour, J’ai lu l’article par curiosité, et je le trouve bien: les notions sont bien expliquées et les schémas sont bien faits et aident à la compréhension (d’ailleurs si quelqu’un sait quel logiciel a été utilisé je suis preneur). Quand on bosse dans un domaine, on apprend son langage. En informatique, beaucoup de termes sont anglais, et l’anglais est incontournable dans ce domaine, notamment pour faire des recherches efficaces. Le franglais est donc tout à fait normal. Quant au lien sur le marketing, on ne peut pas leur reprocher leur langage. Une compilation des phrases pleines de mots anglais fait effectivement sourire (enfin c’est plutôt leur incapacité à expliquer clairement les notions associées qui me fait sourire), mais ce ne sont que des termes techniques qui sont compris par l’ensemble des gens qui bossent dans ce domaine. Utiliser les équivalents français (si seulement ils existent…) c’est rendre les discussions difficiles entre les gens de ce domaine.
Plaît-il ? Quant est-il du bilinguisme ? Je suis autodidacte. Je lis en anglais et en français. Mon domaine de prédilection, c’est l’informatique. Je n’ai pas de difficultés particulières pour rechercher des informations sur le Web. Sans une maîtrise suffisante du français, il m’aurait été impossible de progresser. On retrouve bien votre état d’esprit en France dans le domaine social. Sur France Term, je ne trouve pas la terminologie dont j’ai crucialement besoin. Mais il s’avère souvent que les termes recherchés figurent dans le grand dictionnaire terminologique de l’office québécois de la langue française. D’ailleurs, je donne la primauté à des ouvrages écrit en anglais, suite à des déceptions mais également par nécessité. Force est de constater qu’en suivant votre mentalité, ma perception des choses n’aurait jamais évolué. Accepter du charabia, très peu pour moi.
Ok, je pensais pas que ça demanderait autant de temps! Je pensais qu’en quelques heures ce serait fait. Je commence à me dire qu’un logiciel pour faire des jolis schémas sans trop y passer de temps ça n’existe pas :/
Disons que pour les 70 images de l’article. 120 ont été dessiné qui ont demandé de créer des symboles puis les schémas qui en découlent. Schémas qui ont été redessinés au moins 2 fois, 3 fois pour certains. le tout combiné en parallèle, sur une recherche documentaire de 3 semaines environ ^^
Bonjour merci de votre lecture. Lorsque l’on réalise une recherche sur le sujet une grande partie des résultats seront en anglais. Avoir ces termes permet d’approfondir le sujet. C’est donc sciemment que j’utilise les termes utilisés par la majorité des professionnels c’est-à-dire la version d’origine issue des RFC de la IEEE. J’ai écrit cet article car je ne trouvais pas de version illustrée. Si vous le désirez vous pouvez prendre votre plume et en écrire un en jargon technique français.
Ce que je déplore on le retrouve régulièrement à l’écrit dans la façon de s’exprimer. Reprendre votre article ferait la démonstration de ce qu’on peut nettement y perdre. Même problématique que la traduction (ou le dessin). À voir !
Dommage, l’écriture inclusive ! Dommage, le franglais ! Dommage, ces maladresses !
Dommage l’écriture inclusive ?! Non mais sérieusement ?! Pour un « Bonjour à toutes et à tous » ?!
Une idéologie qui veut activement « cacher » les femmes et qui s’en cache même plus.
Comment vous avez fait pour ne pas parler du coût du stockage qui rend ainsi toutes vos affirmations types
Avec une réduction des coûts de 50% par rapport à S3 Standard
totalement caduques ?
Merci ache pour ton commentaire :) (enfin une personne constructive).
S3 Express est bien plus cher sur le stockage mais 50% moins cher sur les requêtes.
Prenons pour exemple le cas d’une entreprise ayant un datalake de 500 Go de données avec un volume de 100 Millions de requêtes GET
et SELECT
mensuel et 100 Millions de requêtes POST
, PUT
et LIST
mensuel.
Avec les tarifs fournis par AWS pour le stockage S3 dans la région US East (N. Virginia) on constate rapidement que le prix du stockage est mutiplié par x7
alors que le coût pour 1,000 requêtes est seulement divisé par /2
.
Approfondissons maintenant notre scénario de départ, nous obtenons les calculs suivants :
Dans ce scénario l’intérêt financier est uniquement pour des applications gourmandes en données — accès fréquent. Toutefois, pour les usages moins centrés sur les accès fréquent aux données, le supplément lié au stockage pourrait s’avérer contre-productif. Dans ce cas, s’orienter vers une solution comme S3 Standard, voire Standard - Infrequent Access serait plus judicieux.
En faisant cette réponse, j’en ai profité pour éditer l’article pour ajouter cet exemple et clarifier ce point qui en avait besoin.
Hmmm mais à ce tarif là, ça revient pas vraiment beaucoup moins cher de juste louer un serveur dédié ?
Ok, intéressant, c’est un cas d’usage que je ne rencontre pas souvent.
Mais qu’en est-t-il de la bande passante ? Toujours au même coût si je comprends bien.
Donc, S3 Express est adapté aux données de petite taille avec accès très fréquents uniquement ? Mais du coup, un Redis ou MemoryDB ne serait pas plus intéressant ?
Comme tout le site… ;) Étrange cette boîte apparue depuis quelques mois et qui ne semble proposer que du vent. Des trentenaires désœuvrés ?
Je te remercie … Mon enthousiasme pour ce produit est réel, rien d’artificiel. Il est souvent facile de critiquer AWS, mais je suis curieux de découvrir quelles autres entreprises offrent une technologie similaire. Avez-vous des suggestions?
De mon point de vue, AWS est une fois de plus en train de poser les jalons pour ce qui deviendra probablement un standard que d’autres s’empresseront de suivre/imiter.
Si si ça se trouve ici
Article pénible à lire à cause du point médian.
Zig donne très envie de l’essayer. Mais qu’en est-il de la gestion de projet, des dépendances ? Il me semble qu’il manque un “Zig Hub” et un écosystème de bibliothèques. Comment émettre des logs ? Comment charger une configuration ?
Houlla, allez je mord au troll.
Donc un article de 22505 caractères est pénible à lire à cause de 10 occurences d’un point médian ? Qu’est-ce que ça aurait été avec des émojis des smileys !
Donc “var recv = [_]u8{0} ** 1024;” c’est limpide, rapide à lire et ne pose aucun souci alors que “le·a programmeur·se” rend la lecture pénible ?
Et donc sur un article qui parle d’un langage de programmation et de sa syntaxe, tu t’attaques à l’usage de l’écriture inclusive et non sur la syntaxe du langage en question alors qu’ils sont “aussi lisibles” l’un que l’autre ?
Pénible. Faudrait pas abuser. Y a une adaptation a avoir (comme pour toute chose nouvelle) mais la science est formelle l’accord actuel (le féminin < masculin) genre notre représentation mentale, donc je comprends que certaines personnes cherchent à changer ça. Et puis bon, il est claire que l’auteur s’en tamponne de l’avis des autres à ce sujet.
Pour Zig, je n’aime pas ce langage. Je trouve que l’apport est faible par rapport au C. À l’époque ou j’avais regardé, il n’y avait rien pour empêcher les UAF ni les data races alors que Rust permet de faire ça. Au niveau du hub, Zig fonctionne comme Go. C’est à dire que l’on importe directement depuis GitHub. Pour trouver un package, contrairement à pkg.go.dev, il n’y a pas de liste officielle mais il existe des agrégateurs de packages.
J’aime bien ce système mais il est vrai qu’un site (et un outil en CLI) qui permettrait à tout le monde de chercher facilement un package serait idéal.
@ache: L’écriture inclusive c’est le saccage d’une langue vivante en grande pompe. C’est chouette !
Non, tu confonds écriture inclusive et point médian. Le point médian a effectivement des problèmes, à étudier s’ils sont sérieux où hypothétiques.
Personnellement, je suis pour un retour à l’accord de proximité plus naturel pour moi et plus beau à entendre. Je ne comprends pas vraiment le besoin d’un point médian si ce n’est pour simplifier un langage pompeux. (ex: Toutes et tous, Les bourgeoises et bourgeois, …).
Je suis pour également que la prononciation « Travailleur et travailleuse » quand les gens utilisent le point médian. Car oui, c’est dégueulasse de prononcer « Travailleur·e ». comme ça: Travailleur RE en insistant sur le RE.
Qu’est-ce qu’une UAF ?
Merci pour l’info sur les dépendances. Ça semble tout récent (janvier 2023!).
Pas vraiment convaincu que build.zig soit vraiment plus pratique que go.mod. J’attends de voir.
UAF
Use After Free: https://beta.hackndo.com/use-after-free/
Non moi non plus je ne suis pas convaincu. J’ai le même sentiment que toi, mais je crache pas encore dessus car il pourrait devenir aussi bien que go.mod.
Je viens de recevoir un pourriel par SMS qui s’avère être du hameçonnage. Le système de protection fourni avec Firefox est ineffectif. Aucune alerte. France Verif présente le site Web dont l’URL est renseignée dans le SMS (je ne le préciserai pas) comme suspicieux.
L’interface ressemble furieusement au site Web de Chronopost en se faisant passer pour Chronopost.
En mode navigation privée, avec la « protection stricte » activée, la page Web du site malveillant affiche seulement du texte « YOU ARE NOT AUTHORIZED ».
Édition : idem, lorsque je me reconnecte en mode navigation privée avec la « protection standard ». J’ai l’impression que le serveur malveillant a modifié sa réponse à cause d’un changement de paramètres du navigateur client. C’est même possible que je me sois fait piraté mon ordinateur car je n’y connais rien en sécurité informatique. Ce n’est pas de la paranoïa mais de l’incompétence contre de la compétence.
Visiblement, les personnes derrière ce site s’adaptent sans souci à ma tentative de test.
Je peux à nouveau y accéder. Peut-être que je me suis trompé d’orthographe lors de l’écriture de l’URL. Il n’empêche que ce site usurpe l’identité de Chronopost. Le nom de domaine a été créé en avril 2023. Je l’ai signalé en utilisant la fonction intégrée à Mozilla Firefox mais toujours rien en terme de blocage. Je serais curieux de savoir combien de temps il va encore rester accessible et feindre d’être un service officiel de Chronopost.
Mozilla vitupère à propos du projet de loi SREN. Les opposants rappellent systématiquement qu’il existe la fonctionnalité Google Safe Browsing pour protéger contre l’hameçonnage et que les États ne devraient pas s’en mêler. Je trouve que Mozilla adopte une approche un peu légère en la matière étant donné l’essor de la cybercriminalité et le potentiel destructif. C’est un cas pratique, un cas concret, une mise en situation. Le site Web malveillant va t’il être bloqué suite au signalement ? Si la réponse s’avère non, alors Mozilla perd une bonne part de sa crédibilité dans son positionnement. Cela signifierait que les mesures existantes ne seraient pas « dissuasives » (pénalisante pour les cybercriminels). D’autant plus que ces gens pourraient passer au travers.
Je suis aller contrôler la situation. Maintenant, on me demande de payer directement une somme de quarante huit centimes parce que le colis excède le poids demandé. Les hameçonneurs m’ont même géolocalisé dans un secteur géographique. Tant qu’ils ne m’ont pas piraté… Enfin voilà ! J’espère ne pas être une de leur prochaine victime. Par contre, ils ont l’air crédibles et ne manquent pas au but. Derrière, il y aura des victimes à coup sûr si l’on en croit les statistiques.
Je ne signerais pas cette pétition en ligne. En plus, traiter le gouvernement Français de « faciste » est inadmissible. En outre, la pétition de Mozilla est une mesure démagogique.
Je n’ai pas encore eu le temps de lire les documents officiels.
Quand j’écris “c’est aussi un nouvel outil terrible pour un gouvernement fasciste”, j’écris bien “UN”. Le RN pourrait très bien arriver au pouvoir un jour et je lui prête bien volontiers une étiquette de groupe politique fasciste. C’est pourquoi je poursuis avec : “Je n’accepte pas que la France soit une locomotive pour ces régimes vers lesquels nous nous dirigeons chaque jour qui passe.”
Il faut aussi accepter d’appeler un chat, un chat. La France a un pied dans le fascisme.
Je crois que nous n’avons pas la même conception de ce qu’est un régime autoritaire. Sinon, cela dit, j’en arrive enfin à la lecture du fameux article 6 qui semble poser problème à Mozilla.
Pourtant le contrat avec l’OpenSource® était assez clair ; siphonner le logiciel libre pour gagner de l’argent. Maintenant que c’est le cas les libristes semblent tomber de leur chaise.
Il faut nuancer et ne pas mettre tout le monde dans le même panier. Depuis toujours certains libristes sont contre l’opensource et à insister pour le Libre.
J’ai quand même l’impression que ça aurait pu simplement se faire en utilisant un script lancé par git.
Perso, dans le repo git de mon site hugo, j’ai ajouté un simple script shell dans .git/hooks/pre-push . À chaque fois que je git push, il est automatiquement executé, ça génère le site et tout le bordel et pousse les fichiers vers le serveur qui héberge.
Du coup pas de webhook, pas de dépendance à github.
Oh, mais que l’idée est bonne !!! Tu veux bien me fournir ton script pre-push… après faut que je voye/trouve avec Gitea comment faire, mais étant donné que mon service Gitea est sur la même machine que mon service web… :p
Perso, dans le repo git de mon site hugo, j’ai ajouté un simple script shell dans .git/hooks/pre-push . À chaque fois que je git push, il est automatiquement executé, ça génère le site et tout le bordel et pousse les fichiers vers le serveur qui héberge.
Oui, j’aurais pu aussi faire ça. Ca m’obligerait à avoir un accès SSH à ma machine, ce qui n’est pas le cas aujourd’hui (elle est pas directement exposée sur Internet, uniquement trafic HTTP et encore, elle est derrière un reverse proxy)
Et les webhooks c’est pas une spécificité de Github donc c’est pas vraiment une dépendance
Tout ceci est gênant, surtout en axant pas son propos. Les prérequis en réseautique sont essentiels pour réaliser la mise en œuvre de services réseaux. Pour avoir des garanties que cela fonctionne convenablement malgré ce qui pourrait survenir. L’auto-hébergement, il n’y a pas de garantie générale.
Félicitations à tous ceux qui y arrivent, parce que cela peut être problématique.
A-t-on besoin de garantie pour absolument tout ? Franchement non.
Faut arrêter de tout le temps vouloir des trucs infaillibles à 100%. Ça a un coût humain et environnemental vraiment mauvais. Il faut apprendre à accepter que parfois des choses ne marchent pas (tant que la sécurité des gens n’en est pas menaçée).
J’auto-héberge mes mails depuis quinze ans, j’ai dû avoir un mois de coupure en tout et pour tout, ça ne m’a pas spécialement impacté. Vouloir tout redonder dans tous les sens nécessiterait beaucoup de matos pour une plus-value vraiment négligeable.
Tant que ce n’est pas hasardeux cela peut en valoir la peine. Or, il faut tout prendre en compte si possible. Le niveau des gens augmentent avec le temps et les interconnexions. Les choses peuvent dérailler. À l’origine, il paraît que le premier virus informatique était une sorte de jeu. Clairement, l’équilibre initial peut être rompu à cause de la malveillance. Je me demande comment un particulier peut faire face aux scénarios catastrophes lorsqu’on a pas suffisamment de recul sur ce qu’il faut faire. C’est alarmiste mais néanmoins possible, en considérant que certains sont dénués d’états d’âme. Je m’interroge sur les dégâts que cela peut causer. En pensant au malheur et à la violence qui en découle, et à notre époque contemporaine, où un certain nombre de choses se transposent désormais sous forme automatique (avec désincarnation ou pas).
Mon précédent message n’est pas aussi clair que je l’aurais souhaité. Ce que je trouve regrettable ce n’est pas l’article en soi. C’est le fait que l’auto-hébergement a une dimension globale qui s’adresse en fait, principalement aux personnes ayant un certain niveau de connaissance en réseautique, comme l’a averti explicitement l’auteur.
Hmmm quelques remarques qui me viennent :
QUIC n’est pas spécifique au web. C’est un protocole de transport qui peut bouger n’importe quoi à vrai dire même si ça a été en grande partie pensé pour le web. Donc non cette histoire de brouillon qui a été renouvellé plusieurs fois pour se transformer en http3 c’est juste faux. la RFC de QUIC est indépendante de la RFC de HTTP3.
Concernant DoH : là aussi tu vois une manœuvre de Google mais derrière c’est l’ICANN et Mozilla donc là pour le coup ils n’y sont pour rien. Par contre ils l’ont vite adopter sur Chrome et Android c’est vrai. Comme tu dis, pour eux c’est un moyen d’éviter le blocage des pubs par DNS traditionnel.
Pas besoin d’être pote avec quelqu’un à l’IETF pour publier une RFC. C’est absolument ouvert à tous. Là encore il n’y a pas conspiration de la part de Google pour publier une RFC.
Si un brouillon de l’IETF expire rien n’empêche d’en reposter un autre quasi identique.
1- ça montre quoi ? Dans la RFC HTTP n’y est quasiment pas abordé. QUIC est à peu près indépendant de ce qu’il transporte. C’est utilisé pour du HTTP mais on commence à voir également des softs qui l’utilise pour autre chose notamment SSH, DNS et même des jeux vidéo. Tu peux utiliser QUIC sans HTTP3.
2- Donc tu reproches à Google d’implémenter une RFC ? Ça marche pour 100% de l’Internet ce reproche.
3- Mouai. J’ai pas spécialement d’avis là-dessus cela dit, en survolant vite fait le datatracker de la 9000, on voit que le nombre de révision est assez régulier dans le temps et que sans trop de surprise, plus ça avance moins les modifs sont importantes donc je suis pas vraiment convaincu de l’argument.
4- Alors non Google n’a pas pris possession du W3C par contre c’est le WHATWG qui a pris le dessus sur le W3C. Et à sa fondation, bha … Google n’en faisait pas parti.
(c’est fou on va croire que je défend Google mais c’est clairement pas une boîte que j’affectionne hein, mais faut pas non plus déformer l’histoire).
Ça montre l’historique du dépôt du brouillon initial en 2015, sa filiation avec le brouillon de HTTP/3, et la ratification en 2021. Comme je le dis dans mon article, je présente des faits vérifiables (comme cet historique), mais c’est moi qui fait les liens. Libre à chacun d’en penser ce qu’il veut, pour ma part je trouve qu’il y a matière à soupçonner Google (entreprise privée) d’avoir forcer les choses concernant un outil public en copinant avec une organisation à but non lucratif.
Non, je reproche à Google d’avoir insisté pour que son propre outil devienne un standard du web, jusqu’à trouver quelqu’un à l’IETF qui accepte de le ratifier, comme ils l’ont fait avec le W3C (voir point 4 ci-dessous).
Justement, c’est la régularité de MàJ qui me pose problème parce qu’elle correspond plus ou moins avec le délais au-delà duquel l’IETF considère un draft comme étant obsolète.
Google a rejoint le WHATWG en 2017. Deux ans après une soi-disant collaboration entre le W3C et le WHATWG, le W3C abandonne la spec de HTML et de DOM au WHATWG. Chrome a le monopole des navigateurs web. Certes, juridiquement parlant, Google n’a pas pris le contrôle du W3C, mais l’entreprise fait désormais partie de ceux qui décident de l’avenir de deux des technologies les plus importantes du monde informatique à l’heure actuelle. Et qu’on ne vienne pas me faire croire qu’ils font ça par charité ou pour faire un meilleur web, l’intention initiale de Tim Berners Lee et du W3C. Le WHATWG est un regroupement d’acteurs privés, les décisions sont entre leurs mains (comme précisé dans ce document). Je doute que la communauté (les développeurs, les utilisateurs, bref les petites gens) ait véritablement leur mot à dire. Sinon ça fait depuis longtemps qu’on n’aurait plus de vendor-specific.
2- Google ne pousse personne à l’utiliser. Ils ont créé une spec, diverses personnes se sont penchées sur la RFC ça a évolué et pouf ça a été normalisé. Google pousse son implémentation dans son logiciel. Après, ils ne forcent la main sur personne pour l’implémenter dans les autres logiciels (clients ou serveurs). Si des devs voient l’intéret de l’implémenter dans leur logiciel, libre à eux de le faire. Si c’est effectivement le cas, c’est que les devs y ont vu un intéret. Personne n’a été forcé/menacé dans l’histoire.
3- Les RFC ne sont pas jetés s’il n’y a pas de majs régulières. Certaines mettent des années avant d’être validées, d’autres le sont bien plus rapidement mais elles ne sont pas jetées s’il n’y a pas de maj. C’est même plutôt l’inverse. Quand il n’y a pas de maj pendant un moment et quelle a été discutée, la RFC aura plutôt tendance à sortir de brouillon et d’être officialisée. Donc pousser des majs régulières a plutôt tendance à retarder le processus.
Ok, admettons que ça se soit fait dans les règles de l’art. Et pour le reste ? TOUT le reste de ce que Google a imposé au monde ? Il n’y a que deux possibilités : soit les utilisateurs/développeurs/pseudo-geeks sont très cons d’avoir laissé faire, voire encouragé à l’adoption de tous les produits et services de Google, malgré les avertissements répétés et soutenus de tout “informaticien” qui se respecte de ces 20 dernières années, soit Google a forcé, pas en mettant un flingue sur la tempe mais politiquement, sémantiquement, linguistiquement. Je préfère croire cette hypothèse plutôt qu’en la stupidité des gens.
Je suis d’accord sur le principe. Appelle ça une intuition, de la paranoïa, ce que tu veux, mais moi j’y vois une insistance de Google pour légitimer l’imposition massive de leurs propres technologies. À l’époque, AMP c’était trop gros, trop évident. L’approche employée pour QUIC, plus subtile, est passée plus inaperçu. Et ils ont réussi. Encore une fois, moi je n’y vois rien de bon, ni de normal, j’y vois quelque chose d’inquiétant. Et tant qu’il y aura des gens pour s’inquiéter, il ne sera pas trop tard.
2- Mouai je suis plus pessimiste que toi. Google n’a pas imposé grand-chose. Les gens sont venus manger dans sa main. Ils “offrent” des produits compétitifs gratuitement. Les geeks se ruent dessus (gmail, google reader, google maps…). Ça fini par déborder ensuite dans le grand public et hop c’est bon. Mais personne n’a été forcé, ils ont juste proposé un truc qui répond à une demande sans avoir besoin de débourser un centime. Les gens y trouvent leur intéret. Les rares personnes qui s’y opposent ne sont que très rarement écoutés et sont d’ailleurs assez souvent ridiculisés.
3- J’ai tendance à penser que ce n’est pas parceque c’est une techno issue de chez eux que c’est intrinsèquement néfaste. D’autant plus quand ce n’est pas un produit fini mais une techno d’infrastructure comme l’est QUIC. Dans ce cas, ça apporte de réels avantages par rapport à TCP et UDP. Si nginx (par exemple) pense que HTTP3 et QUIC peuvent être un atout pour leur serveur web et qu’ils l’implémentent, c’est leur choix, ce n’est pas Google qui leur impose quoi que ce soit.
Google a poussé le truc car ils y voient un intéret pour eux, mais cet intéret ne leur est pas exclusif. C’est d’ailleurs une bonne chose qu’ils aient poussé ça en temps que standard ouvert plutôt que de garder la techno rien que pour eux dans leur coin ou alors soumis à licence.
Pourquoi faut-il toujours que, quand j’ai un sursaut d’espérance pour l’humanité, on finisse par me dire qu’elle l’a bien cherché… ;-)
Google, c’est avant tout un moteur de recherche. Leurs incursions dans la publication de contenu ne sont pas innocentes. Ils sont à tous les étages du modèle OSI, et c’est dangereux. Le jour où Google fera des propositions pour la protection de la vie privée, la confidentialité des contenus, et plus généralement aura un discours éthique (et pas seulement en surface avec des yeux de biches plein de promesses), je considèrerai peut-être que leurs propositions ne sont pas intrinsèquement néfastes.
Peut-être que je me trompe, peut-être qu’il n’y a pas de grand dessein de contrôler le monde, ou peut-être que c’est déjà le cas et qu’on ergote sur des platitudes. Dans le fond, je ne suis pas en total désaccord avec toi quand tu dis : “C’est d’ailleurs une bonne chose qu’ils aient poussé ça en temps que standard ouvert”, mais je réponds : “Il faut toujours se méfier du monsieur qui t’attire avec des bonbons dans son van sans fenêtres”. Le passif de Google ne joue pas en sa faveur pour une acceptation aveugle de ses technos, aussi cools soient-elles.
3- Le but de l’IETF et des RFC c’est que ça ne soit justement pas une technologie “Made in Google” mais une technologie de l’Internet. C’est une norme ouverte publiée par l’IETF avant tout.
Par contre, non Google n’est pas une moteur de recherche avant tout. Pour savoir ce que c’est faut voir ce qui leur génère du pognon : la pub. C’est une boite de pub. Tous les services autour ont pour but ultime de vendre des utilisateurs pour de la pub. ;-)
“Google n’est pas une moteur de recherche avant tout” dans l’esprit des gens “lambda”, bien sûr que si. Pour nous autres geeks non, évidemment. Et d’ailleurs ça abonde en ce que je voulais dire : “Tous les services autour ont pour but ultime de vendre des utilisateurs pour de la pub” alors justement, qu’ils fassent de la pub et pas des nouveaux protocoles qui vont servir à faciliter la diffusion de la pub !
Leur réseau est en fait un réseau étendu (réseau départemental). L’expression « internet local » prête quand même à confusion. Leur caractéristique est la prise de participation, façon coopérative et associative.
SCANI est une Société Coopérative d’Intérêt Collectif. En quelques mots, c’est une forme de société qui réuni les forces du collectif et du volontariat avec la capacité d’investissement du capital. Nous l’avons conçu sur un modèle associatif.
Par contre, dans leur modèle, on peut se demander comment les enjeux stratégiques majeurs sont gérés.
Ils ont d’abord démarré sous forme associative avant de devenir une SCIC. Ils ont été parmis les membres fondateurs de la FFDN. Ça fait plaisir de voir qu’ils parviennent à grandir en restant petits et humains :-)
Je vois souvent ce genre de truc pour déployer un blog, mais quel est l’avantage par rapport à un script shell déclenché par un hook git ? Là on se retrouve à devoir utiliser une forge logicielle + un serveur pour le webhook. Ça ajoute pas mal de dépendances, non ?
J’avoue ne pas connaître exactement les possibilités de hook git sur Github par exemple.
Mais j’imagine qu’on a 2 possibilités :
L’idée est de déporter l’action sur un serveur sur lequel on a la main.
Gachette fait une pseudo authentification entre le nom du projet (par exemple blankoworld/gachette) avec un mot de passe (certes déposé sur Github/Gitlab/Gitea).
Étant donné que dans l’article j’exprime le fait d’avoir des dépôts disséminés partout (Framagit, Github, etc.), je permets d’avoir mes scripts hébergés chez moi avec les bonnes infos (id/mdp pour synchroniser par exemple).
J’ai l’impression que, quoiqu’il arrive, il faut un service sur son serveur qui soit copie le dépôt Github régulièrement pour savoir qu’un commit a été fait et ajouter un hook git, soit un serveur de Webhooks (dont c’est le job) qui reçoit directement la requête de Github afin de déclencher une action.
Ai-je répondu à la question ?
Haha non je pensais à avoir le hook directement sur ta machine à toi.
Du coup ça implique d’avoir hugo (mais bon généralement on l’a déjà sur sa machine pour au moins avoir la preview) + rsync sur la machine où tu écris/git commit.
Perso c’est ce que j’ai fait, j’ai hook sur pre-push. Donc juste avant de push, ça execute le script (génération du site+génération des images+compression du site+génération de blogroll+rsync vers le serveur web).
Mais du coup ma question, le fait de déporter ça sur un serveur ça a quel intéret si ce n’est de pouvoir git push depuis n’importe quelle machine ?
L’avantage du serveur déporté (tout comme une CI finalement) c’est la souplesse de plusieurs machines adaptées SI on peut se le permettre.
Mais aussi de pouvoir utiliser les éditeurs de chacune des plateformes sans avoir Hugo d’installé ! J’édite sous Github, Gitlab, Gitea, puis toutes ses plateformes web permettent de commit puis d’envoyer un appel à Gâchette qui s’occupe du reste.
Je n’ai pas toujours la possibilité d’avoir Hugo sur les machines qui me tombent sous la main. Ni la patience et le temps d’installer ce qu’il faut.
Personnellement, j’ai toujours apprécié le JdH, fan inconditionnel depuis bien avant que je m’inscrive pour publier, donc le voir disparaître m’ennuierait mais bon, il y a un temps pour tout. 10 années d’une aventure :D Tous les matins, cela fait partie de mes lectures ! (je vais être perdu, moi, sans…) :p
Merci pour ce retour de situation ; on ne t’aurais pas imaginé tout seul ; quand Carl s’est désengagé, il aurait fallu communiquer pour obtenir de l’aide (mais avec les si, et y’a qu’à… bref)
Ce qui fait l’essence du JdH : sa facilité et simplicité de lecture, et d’accès (Web + RSS), interface très neutre, très lisible ; je vote aussi pour un “dark theme”. Il ne faut pas oublier que c’est le seul en français véritablement.
Reddit : non (je ne suivrais pas) ; Lemmy (non pour le fait d’avoir été banni simplement pour avoir demandé de l’aide à l’un des admins : erreur / 2FA). Fediverse : oui… mais attend, attend, tu mentionnes feed2toot qui permet de publier sur le Mammouth. Franchement c’est déjà bien. Intégrer une pile logicielle pour utiliser directement le Fed, whynot, mais ce n’est pas essentiel, ni fondamental. Un plus intéressant ;)
Côté publication : oui, à chaque fois que j’ai publié (soit à titre perso, soit pour la communauté OpenBSD Fr que j’ai co-créée), soit pour d’autres proches de mon univers IT, c’est clairement sensible. Rien que pour cet aspect : MERCI.
PS : Ahhh, si, où est la “cagnotte” qu’on puisse y verser notre écume de dividendes ? ;)
Tu t’es fait bannir par 1 admin d’1 instance de Lemmy, ça ne remet pas en cause le logiciel en lui-même. Fonctionnellement c’est très proche.
L’avantage de Lemmy, c’est que ça permettrait à tous les utilisateurs du fediverse de pouvoir commenter, foutre un like et booster. Pour poster ça nécessite tout de même un compte local il me semble (ça a ptet évolué). Mais du coup ça permet de potentiellement agrandir la communauté et rendre le tout plus vivant.
Oui, sur l’instance officielle ! Donc, je n’ai plus d’accès à mon compte ; et quand tu es “admin” de deux communautés différentes, que tu te retrouves banni pour des broutilles ; ca “juste” craint :( (et impossible de se défendre !)
Après tu as raison sur le propos de Lemmy, mais c’est du plus, pas une obligation ;)
Bonjour,
Pour le contexte, je suis membre de https://jlai.lu/, une instance Lemmy francophone.
L’instance lemmy.ml (j’imagine que tu parles de celle-là quand tu veux dire “officielle”) est connue pour ne pas être top niveau admin. C’est l’instance gérée par les devs de Lemmy, et disons qu’ils sont meilleurs en tant que devs qu’admin, tu es loin d’être le premier à faire ce genre de retour.
Les autres instances populaires (lemmy.world, lemm.ee, sh.itjust.works, lemmy.zip etc https://fedidb.org/software/lemmy/ ) sont beaucoup mieux gérées, et côté Jlai.lu on essaye d’être assez réactifs aussi.
Bonjour,
Il est possible de poster sur Lemmy depuis un compte d’un autre serveur sans soucis.
Je suis moi-même un membre de https://jlai.lu/, une instance Lemmy francophone.
Sur ce fil par exemple on voit des comptes de plusieurs instances répondre: https://jlai.lu/post/10363239
Pour une liste des communautés sur Jlailu: https://jlai.lu/communities
Pour accéder à une communauté Jlailu depuis une autre instance: https://lemmy.ca/c/technologie@jlai.lu
Oui mais est-ce qu’un compte “non lemmy” (mastodon, pleroma, friendica, misskea…) peut poster (pas juste commenter mais créer un nouveau thread) ?
Oui, tout à fait!
Exemples d’un fil posté depuis IceShrimp: