Je te conseille de créer une machine virtuelle développement et de développer dessus.
Sur FreeBSD les environnements jail sont bien adaptés pour ces séparations. Ils n’utilisent que peu de ressources (comme des containers) mais ils sont conçus avec la sécurité à l’esprit.
A titre d’exemple, j’ai une machine pro et une machine perso et quand je fais du perso sur la vm du pro, ce que je limite au maximum, je le fais sur des choses safe avec un vpn avec une machine dédiée au vpn.
@mirabellette@nikaro quand j’ai commencé à développer, on ne parlait pas de « conteneurs » et c’était les débuts de qemu … rien à voir avec l’actuel kvm. :) Donc j’ai commencé en bordel (et en auto-didacte ; ce qui n’est pas sans lien). Et j’ai eu le tord de ne jamais revoir cette organisation pro/perso/assos.
C’est mésaventure me donne l’occasion de reposer les choses à plat avec un nouveau modèle de menaces que j’avais ignoré jusque lors. Je précisera ces choix d’organisation dans un futur billet une fois que tout ceci se sera un peu tassé.
Je ne suis pas un immense fan de Docker de manière générale, mais c’est ce genre de problèmes qui pourraient m’encourager à l’utiliser lorsque je développe des logiciels. Après faut fait gaffe de ce côté là aussi, on pourrait certainement se retrouver également avec des images vérolées…
Merci pour ton retour, je suis d’accord avec toi sur le fait que mes backups supplémentaires sont des backups de backups, donc risques de corruptions.
Pour syncthing, ce n’est pas un backup, mais une synchro, ce qui n’est pas totalement pareil, le risque de corruption est quasi null.
Pour ce qui est de ta méthode, pour les serveurs oui c’est faisable, mais pour du desktop/laptop, c’est plus compliqué, comme dis, ils ne sont allumés que quand je les utilisent, et je ne veux pas que ça utilise trop de ressource (compression + chiffrement), et mes PCs ne sont pas des plus performants (par exemple un rclone mount bouffe tout mon CPU).
C’est pour cela qu’une synchronisation me semble le mieux pour le moment, ce n’est pas une sauvegarde, juste une syncrho 1:1, avec une rétention des fichiers à 2 jours en cas de suppression sur la source.
Comme dis dans mon article, ma solution n’est pas un choix arrêté, mais j’ai déjà vu une faille dedans, si je perds tout chez moi, pour restaurer il faut que je télécharge toute l’archive de duplicati (pour l’instant environ 1To), alors qu’avec une solution comme restic ou borg, je pourrais monter et récupérer ce que j’ai besoin.
Pour le scheduling, je ne sais pas encore, je pense finir par partir sur ansible, qui se connectera à chaque machine pour faire les sauvegardes, ce n’est pas sont rôle normalement, mais on va dire que si, cependant, ce n’est pas encore défini.
Voila ce qui arrive quand on développe sur une machine sensible. Je te conseille de créer une machine virtuelle développement et de développer dessus. C’est chiant mais cela évite ce genre de déboire.
Perso, pour pas que ça se chevauche, je fais tout depuis le serveur (un so you start à pas cher).
C’est lui qui fait le tour de tout le monde la nuit, et qui fait ses rotations pendant la journée, une fois fini le tour.
Avec un petit fichier de config à mettre à jour à chaque nouvelle VM et sa clé publique à rajouter automatiquement au script de déploiement.
Pas sûr que ce soit parfait mais jusqu’à présent j’ai toujours récupéré ce que mes clients avaient éventuellement perdu.
Tu sembles penser que l’équipe de modération du Jdh vote sur chaque article, ce n’est pas le cas.
Je ne vois pas du tout pourquoi tu utilises les termes ‘modération’ et ‘indésirable’, juste personne n’a plussé l’info.
Tcho !
Beh, oui, je connais la nouvelle modération . Il faut 2 avis pour qu’il y ait promotion. D’autant que j’y ai participé aux commentaires…
Donc, en quoi mon contenu est indésirable pour qu’il n’y ait pas de vote qui permette le relais ? J’aimerais comprendre !
Salute,
Tu peux préciser ta question vu que l’article est publié sur le Jdh ? Tu entends quoi par “modération” ?
Pour rappel : https://www.journalduhacker.net/s/bh8duu/changement_des_crit_res_pour_arriver_en
Tcho !
Mouahaha ! Non, on dit : « le CMS le plus piraté au monde »
Bonjour, Pourquoi il ne passe pas la modération pour publication ? (ce serait la version anglaise, je comprendrais…)
:fr: “As-tu l’esprit DevOps” aurait fait plus intriguant qu’un franglais fleurant le langage marketing. Rien n’a changé depuis https://www.youtube.com/watch?v=WIxS9-xhGfM
Sur FreeBSD les environnements
jail
sont bien adaptés pour ces séparations. Ils n’utilisent que peu de ressources (comme des containers) mais ils sont conçus avec la sécurité à l’esprit.Clairement. Et plein de gens faisant du docker en root, c’est juste pire et plus délicat à détecter. :)
Salut :)
Merci, c’est corrigé
Simplement en me connectant dessus avec mon FF ! :p (v 79.0 sur Devuan)
peut-être une des mes extensions qui bloque !?
(entre Facebook Container, I dont care about cookies, Privacy badger, voire TrackMeNot, il y a certainement le choix)
Ne jamais mélanger les environnements ;)
A titre d’exemple, j’ai une machine pro et une machine perso et quand je fais du perso sur la vm du pro, ce que je limite au maximum, je le fais sur des choses safe avec un vpn avec une machine dédiée au vpn.
@mirabellette @nikaro quand j’ai commencé à développer, on ne parlait pas de « conteneurs » et c’était les débuts de qemu … rien à voir avec l’actuel kvm. :) Donc j’ai commencé en bordel (et en auto-didacte ; ce qui n’est pas sans lien). Et j’ai eu le tord de ne jamais revoir cette organisation pro/perso/assos.
C’est mésaventure me donne l’occasion de reposer les choses à plat avec un nouveau modèle de menaces que j’avais ignoré jusque lors. Je précisera ces choix d’organisation dans un futur billet une fois que tout ceci se sera un peu tassé.
Je ne suis pas un immense fan de Docker de manière générale, mais c’est ce genre de problèmes qui pourraient m’encourager à l’utiliser lorsque je développe des logiciels. Après faut fait gaffe de ce côté là aussi, on pourrait certainement se retrouver également avec des images vérolées…
Merci pour ton retour, je suis d’accord avec toi sur le fait que mes backups supplémentaires sont des backups de backups, donc risques de corruptions. Pour syncthing, ce n’est pas un backup, mais une synchro, ce qui n’est pas totalement pareil, le risque de corruption est quasi null.
Pour ce qui est de ta méthode, pour les serveurs oui c’est faisable, mais pour du desktop/laptop, c’est plus compliqué, comme dis, ils ne sont allumés que quand je les utilisent, et je ne veux pas que ça utilise trop de ressource (compression + chiffrement), et mes PCs ne sont pas des plus performants (par exemple un rclone mount bouffe tout mon CPU).
C’est pour cela qu’une synchronisation me semble le mieux pour le moment, ce n’est pas une sauvegarde, juste une syncrho 1:1, avec une rétention des fichiers à 2 jours en cas de suppression sur la source.
Comme dis dans mon article, ma solution n’est pas un choix arrêté, mais j’ai déjà vu une faille dedans, si je perds tout chez moi, pour restaurer il faut que je télécharge toute l’archive de duplicati (pour l’instant environ 1To), alors qu’avec une solution comme restic ou borg, je pourrais monter et récupérer ce que j’ai besoin.
Pour le scheduling, je ne sais pas encore, je pense finir par partir sur ansible, qui se connectera à chaque machine pour faire les sauvegardes, ce n’est pas sont rôle normalement, mais on va dire que si, cependant, ce n’est pas encore défini.
On rajoute à ça une petite Zipbomb pour le plaisir et hop
Salute,
T’as testé comment ? Aucun problème ici, je suis pas connecté sur YouTube.
Tcho !
OUahhh, non seulement on est sur Youtube, mais en plus il faut un compte G Suite :
Vidéo non disponible \ L’accès à cette vidéo est limité. Essayez de vous connecter avec un compte G Suite.
Donc, là, pour moi, très peu d’enthousiasme. :(
Salut. Bonne trouvaile.
Sinon, tu as une coquille : “États-Unies”/“États-Unis” ;-)
Merci pour le partage, c’est très intéressant !
Voila ce qui arrive quand on développe sur une machine sensible. Je te conseille de créer une machine virtuelle développement et de développer dessus. C’est chiant mais cela évite ce genre de déboire.
Une bonne leçon :)
Perso, pour pas que ça se chevauche, je fais tout depuis le serveur (un so you start à pas cher). C’est lui qui fait le tour de tout le monde la nuit, et qui fait ses rotations pendant la journée, une fois fini le tour. Avec un petit fichier de config à mettre à jour à chaque nouvelle VM et sa clé publique à rajouter automatiquement au script de déploiement. Pas sûr que ce soit parfait mais jusqu’à présent j’ai toujours récupéré ce que mes clients avaient éventuellement perdu.