submitter:username — rechercher les publications d'un utilisateur domain:example.com — rechercher les liens d'un domaine
submitter:username
domain:example.com
Dans son blog @nemunaire expose un sujet similaire même si comparaison n’est pas raison. Je recommande le « MOOC Objectif IPv6 ». La suite de protocoles IPv6 continue de changer avec les RFC.
J’ai aussi découvert Alpine avec l’essor de docker, qui est top pour l’embarqué et autres systèmes à faibles ressources. J’aime l’esprit “dépouillé” mais je n’aurais pas idée de construire un système critique avec.
Alpine Linux est connu pour être minimaliste et aussi un peu controversé (notamment dans le monde Docker) pour le remplacement de la glibc par musl (ce qui provoque parfois des surprises).
C’est une bibliothèque reconnue, surtout dans les systèmes embarqués, à l’inverse de GlibC qui est considérée trop lourde (complexe). Il y a même une intégration expérimentale dans systemd.
J’avais une préférence pour musl en terme d’apprentissage. Mais il faut connaître le langage C et avoir des connaissances en développement système Linux pour rectifier les erreurs (comprendre ce qu’affiche le compilateur, faire des recherches, lire les sources, apporter des modifications).
Hier, je compilais OpenWrt sur une Void Linux (merci à @kikinovak). J’ai eu ce problème. J’aurais pu étudier les sources mais j’ai recherché le correctif. J’ai également eu un autre problème « bad for loop variable » (le shell POSIX de Void n’interprète pas les boucles for de type C). Ce sont des problèmes mineurs mais qui peuvent potentiellement ralentir lorsqu’on a une tâche à réaliser : une méconnaissance de l’environnement peut amener à un blocage.
Je ne connais pas encore les conteneurs ni la virtualisation.
les différents types de réseaux natifs Docker sont bien expliqués et la résolution des conflits avec le réseau par défaut au top !
Je découvre avec beaucoup de retard cette news.
Je veux déjà, comme tous les autres, vous remercier @carl et @Cascador pour tout le travail et l’investissement tant en énergie que financier qu’a représenté et représente encore le Journal du Hacker.
En regardant mon profil, je vois que mon compte a 8 ans, sur invitation de @carl. Le temps passe vite !
Par rapport à la suite, je pense qu’il est bon de comparer le JdH avec son inspiration originelle, Hacker News (que je consulte beaucoup plus).
Déjà, de manière générale, ces derniers temps voire années maintenant, je n’arrive plus à trouver le temps de faire ma veille quotidienne ni hebdomadaire RSS (composée de plusieurs centaines de flux sur mon lecteur RSS).
Mais quand je me connecte, j’ai toujours plaisir à consulter autant Hacker News que JdH.
Pourquoi ? Car HN (et JdH dans une moindre mesure) est idéal pour dénicher autant des petites pépites de sites inconnus que d’être tenu au courant des grosses tendances ; qu’on peut autant “rencontrer”/ discuter directement avec des patrons (je me souviens de discussions autour de Docker ou de Gitlab ou autre directement avec la team de la boite) que tomber sur des spécialistes des sujets les plus obscurs ; qu’on a même plus besoin de section commentaire sur le site et qu’il est préférable de faire directement référence aux discussions HN ou autre sur nos sites ; que cela nous encourage indirectement à produire du contenu pour le soumettre à la communauté.
Ce dernier point est important et va de pair pour moi avec la réflexion ici : L’un (le JdH) va avec l’autre (le contenu). Pour que le JdH croisse, il faut qu’il y ait croissance aussi du contenu produit, et qu’on ait le réflexe de le poster sur le JdH.
Tout personnellement, si je suis un consommateur avide de contenu de multiples sources, cela fait bientôt 10 ans que j’essaie de m’organiser suffisamment pour dédier une partie de mes semaines à produire du contenu, et la dissonance va en grandissant au fur et à mesure que la liste souhaitée de contenu à produire s’allonge.
Aussi, m’est avis qu’au-delà d’une refonte technique (à ce niveau-là, mettre à jour Lobsters ou passer sur Lemmy sont des options tout autant bonnes à mon avis), il faudrait surtout trouver un modérateur, un peu comme un “community manager” qui encourage du monde à créer et à publier sur JdH. Presque comme un mentorat, peut-etre ;).
Tous mes encouragements en tout cas et n’hésite pas à me dire @Cascador si on peut t’aider d’une manière ou d’une autre.
Y
J’utilise un micro script bash pour retenter en erreur: https://github.com/dalibo/docker-buildpack/blob/master/common/retry
Il est en bash strict, 11 lignes. Il attends 0 secondes, puis 1, puis 2, etc. jusqu’à 10s d’attente. Soit un total de 55 secondes avant d’abandonner.
#!/bin/bash -eux for s in {0..10} ; do if "$@" ; then exit 0 else sleep "$s" fi done exec "$@"
Beaucoup d’erreurs dans son fichier Docker Compose. Bon, du coup c’est didactique parce qu’il faut corriger.
Alors la bonne nouvelle c’est que tu peux avoir plusieurs fichier docker-compose en parallèle avec des versions différentes, pour que tout le monde puisse communiquer il faut juste qu’ils utilisent justement le même réseau ;)
Merci! Bon j’ai d’autres erreurs de syntaxe maintenant. Je pense savoir pourquoi: je suis en version 1.25.0 de docker-compose alors que tu utilises la 2. Faut que je prenne le temps d’upgrader, j’ai déjà des services qui tournent faut que je regarde l’impact.
@Azlux : oh c’est très intéressant merci ! Je vais jeter un œil.
À noter que l’article annonce également se délester du certbot de Let’s Encrypt, ce qui est un avantage supplémentaire dans les dépendances nécessaires à l’utilisation d’un tel projet.
En revanche je ne connaissais pas non plus docker-gen qui me semble très intéressant également (utilisé sous nginx-proxy cité précédemment). Je suis comme un enfant dans un magasin de jouet, merci :-)
Si tu ne veux pas changer de reverse proxy, il existe un projet pour Nginx pour avoir des confs dynamiques via le socket docker. https://github.com/nginx-proxy/nginx-proxy
Très intéressant !
Surtout le fait qu’il existe des Addons communautaires :
Pas besoin de s’embêter à créer ses propres triggers dès l’installation…
Personnellement, j’ai eu du mal avec cet article, avec sa “vision” très limitée - descriptive - de l’auto-hébergement.
le premier point que j’ai trouvé intéressant est le fait de mentionner qu’on fait avec ce que l’on a sous la main, de fait qu’il existe différentes solutions matérielles ET logicielles. mais :
Dire qu’en général, on tourne sous Linux pour de l’auto-hébergement ; je trouve cela aussi très réducteur. Ne pas mentionner les *BSD est une faute en soit, dont FreeBSD qui est très utilisé pour l’auto-hébergement, voire en solutions commerciales, bien plus que Linux. (à mon sens). (d’aucuns utilisent même NetBSD en ce sens… voire OpenBSD. Maintenant, il est vrai que ce sont des communautés très restreintes, très ciblées, voire élitistes)
Devoir utiliser fail2ban n’est pas la panacée, et me fait toujours l’effet d’un pansement appliqué sur une plaie béante. Quant je vois comment le parefeu sous OpenBSD, à savoir PF, est capable de faire de la mitigation de ce genre d’exploits et autres tentatives, je reste surpris de la nécessité de ce genre d’outils sous Linux.
Après je rejoins l’avis de Lord aussi, faire de l’auto-hébergement, et se reposer sur certaines solutions nommées, me semblent hors du propos ; tu deviens dépendant de ces grands aspirateurs à données.
Pour finir, tu as raison de dire que l’objectif de l’auto-hébergement est d’apprendre, mais ce n’est qu’un des objectifs, le principal étant d’héberger ses propres données, quelque soit le service actif “derrière” ; mais je ne suis pas certain que ton expérience après plusieurs années soit l’itération qui restera réaliste pour d’aucuns. (personnellement, je trouve que tu te “compliques” la vie, avec ce genre de solution, utilisant des tiers majeurs).
L’important est de trouver ce qui vous convient le mieux.
Absolument. Le “problème” si c’est en un vraiment, et d’apprendre à trouver ce qui nous convient le mieux ;) L’auto-hébergement est une solution qui permet de l’apprendre. :D
Je veux bien débattre du vocabulaire et je considère que l’auto hébergement peut couvrir un nombre large de configurations différentes.
J’ai une situation ou j’utilise mes propres ressources matérielles et ma propre connexion réseau pour héberger les services qui m’intéressent, je pense donc pouvoir parler d’auto hébergement sans être trompeur. J’utilise des services externes dont je pourrais me passer, et qui viennent surtout me rajouter du confort et de la sécurité. Mais dans ce cadre, ou s’arrêter ? Je dépend aussi des dépôts apt, de docker hub, de mon FAI, de mon fournisseur d’électricité, etc.
De mon point de vue, utiliser un VPS hébergé chez OVH reste aussi de l’auto-hébergement dans le sens ou je maîtrise mon infrastructure, je ne suis pas lié à un prestataire unique, je suis maître de mes données, etc.
Donc pour moi la définition de l’auto-hébergement est suffisamment large pour englober mon cas d’usage. Après j’entend que d’autres peuvent avoir une perception différente. Je n’ai pas trouvé de définition faisant consensus sur ce sujet, mais je suis peut être passé à côté.
Très bon choix de livre, c’est une référence. Effectivement, la vitesse d’affichage est dépendante de ton archi, mais ce n’est pas là qu’est la vraie information de l’article en réalité. Cette phrase n’existe que pour faire un premier constat, constat qui est expliqué par le code. L’affichage est immédiat parce que la conso de RAM est constante (et faible) [EDIT: my bad, cette phrase est fausse. Cf. la suite de la conversation]. Le tout étant la conséquence du streaming de données. Au besoin, tu peux augmenter la taille du fichier pour tester les limites de ton propre système.
Avec ton Raspberry tu observes une latence qui peut être liée à d’autres paramètres dont j’ai pas conscience mais ça ne remet pas en question la logique interne de cat qui ne fait pas un « loadFileInMemory then print ». Ça se teste très facilement avec un trace. Je t’invite à jouer avec la stack de test que j’ai mise en place https://gitlab.com/prytoegrian/blog-codes/-/tree/main/consommation_memoire_cat en limitant la RAM de docker pour valider ton cas limite.
Pour la petite anecdote, je me suis aperçu que l’implémentation de cat sous alpine différait de celle sous debian ; la logique de streaming demeurait. Ça ne me choquerait pas qu’il y ai aussi quelques adaptations pour Raspberry.
Oui c’est sûrement plus léger qu’une image docker. De tête, Orange est le seul fournisseur en France à proposer des IP dynamiques pour les particuliers
En quoi le titre est-il trompeur ? FreshRSS permet bien de suivre des flux RSS non ? L’article est une présentation succincte du logiciel et de son déploiement. Pourquoi Docker ? Pour séparer l’application du système et des autres applications hébergées. C’est un peu la ligne directrice du blog. Libre à vous de l’installer comme vous voulez.
Mouaif, un peu trompeur ce titre, pi pourquoi Docker bordel?
Hello, Les Majs ce sont avec ‘docker-compose pull’, Le monitoring, pareille qu'une VM, y'a même des containers de monitoring, Strategie de segmentation, chaque service dans un containers, plusieurs containers par serveurs. Tu peux gérer les containers de plusieurs serveurs avec par exemple, Rancher UI, Shipyard, Kubernetes, Swarm et plein d'autres outils. Donc oui, il y a pas mal de changement avec des VMs classiques mais je pense que chacune de tes questions peuvent avoir une réponse. J'espère t'avancer un peu ! =)
en fait tu cherches une solution complète de gestion de conteneurs ? je dois t'avouer qu'avec les échos que j'ai de swarm ou kubernetes, je ne suis même pas sûr qu'ils offrent déjà tout ça.