A titre d’exemple, j’ai une machine pro et une machine perso et quand je fais du perso sur la vm du pro, ce que je limite au maximum, je le fais sur des choses safe avec un vpn avec une machine dédiée au vpn.
@mirabellette@nikaro quand j’ai commencé à développer, on ne parlait pas de « conteneurs » et c’était les débuts de qemu … rien à voir avec l’actuel kvm. :) Donc j’ai commencé en bordel (et en auto-didacte ; ce qui n’est pas sans lien). Et j’ai eu le tord de ne jamais revoir cette organisation pro/perso/assos.
C’est mésaventure me donne l’occasion de reposer les choses à plat avec un nouveau modèle de menaces que j’avais ignoré jusque lors. Je précisera ces choix d’organisation dans un futur billet une fois que tout ceci se sera un peu tassé.
Je ne suis pas un immense fan de Docker de manière générale, mais c’est ce genre de problèmes qui pourraient m’encourager à l’utiliser lorsque je développe des logiciels. Après faut fait gaffe de ce côté là aussi, on pourrait certainement se retrouver également avec des images vérolées…
Merci pour ton retour, je suis d’accord avec toi sur le fait que mes backups supplémentaires sont des backups de backups, donc risques de corruptions.
Pour syncthing, ce n’est pas un backup, mais une synchro, ce qui n’est pas totalement pareil, le risque de corruption est quasi null.
Pour ce qui est de ta méthode, pour les serveurs oui c’est faisable, mais pour du desktop/laptop, c’est plus compliqué, comme dis, ils ne sont allumés que quand je les utilisent, et je ne veux pas que ça utilise trop de ressource (compression + chiffrement), et mes PCs ne sont pas des plus performants (par exemple un rclone mount bouffe tout mon CPU).
C’est pour cela qu’une synchronisation me semble le mieux pour le moment, ce n’est pas une sauvegarde, juste une syncrho 1:1, avec une rétention des fichiers à 2 jours en cas de suppression sur la source.
Comme dis dans mon article, ma solution n’est pas un choix arrêté, mais j’ai déjà vu une faille dedans, si je perds tout chez moi, pour restaurer il faut que je télécharge toute l’archive de duplicati (pour l’instant environ 1To), alors qu’avec une solution comme restic ou borg, je pourrais monter et récupérer ce que j’ai besoin.
Pour le scheduling, je ne sais pas encore, je pense finir par partir sur ansible, qui se connectera à chaque machine pour faire les sauvegardes, ce n’est pas sont rôle normalement, mais on va dire que si, cependant, ce n’est pas encore défini.
Voila ce qui arrive quand on développe sur une machine sensible. Je te conseille de créer une machine virtuelle développement et de développer dessus. C’est chiant mais cela évite ce genre de déboire.
Perso, pour pas que ça se chevauche, je fais tout depuis le serveur (un so you start à pas cher).
C’est lui qui fait le tour de tout le monde la nuit, et qui fait ses rotations pendant la journée, une fois fini le tour.
Avec un petit fichier de config à mettre à jour à chaque nouvelle VM et sa clé publique à rajouter automatiquement au script de déploiement.
Pas sûr que ce soit parfait mais jusqu’à présent j’ai toujours récupéré ce que mes clients avaient éventuellement perdu.
De mon coté, c’est un peu plus simple, avec uniquement BorgBackup :
Les machines qui ont suffisamment d’espace disque font un backup sur leur propre disque (accès rapide)
Chaque machine (locale ou distante) fait un backup sur mon NAS (qui est chez moi)
Chaque machine (locale ou distante) fait un backup sur un serveur Kimsufi (pour avoir une copie distante)
Trois machines locales (desktop, serveur LAN et NAS) et une machine distante (Kimsufi) sont sauvegardées de cette manière (système complet en excluant des répertoires trop gros dont je peux retrouver/regénérer le contenu simplement).
Pour mon téléphone, les backups sont manuels via USB (script jmtps + rsync + borg), parce que 4G/Wifi/Bluetooth ne sont jamais activés. Il y a tellement peu de choses dessus que ça suffit.
Notes :
Les deux ou trois backups de chaque machine sont indépendants : La corruption d’un repo ne touche pas les autres.
Chaque backup se lance une heure après la fin du précédent. Le load se lisse tout seul avec le temps.
À l’utilisation, je ne sens aucun impact, que ce soit au niveau utilisation CPU/Disque ou connexion internet (ADSL 1.3 Mbps down / 473 kbps up).
À la fin d’un backup, les stats sont envoyées dans InfluxDB (alerting via Grafana) et par mail. Selon le statut du backup, le mail est rangé/marqué comme lu automatiquement (Success/Warning) ou laissé non lu dans la boite de réception (Erreur).
Par rapport à ce que tu as mis en place, je vois deux améliorations :
Avoir au moins deux backups indépendants : Actuellement, tes “backups supplémentaires” (Borg du répertoire syncthing puis synchro vers Google Drive) sont chacun basés sur le précédent. Une corruption du premier se propagera donc dans les autres.
Ajouter du monitoring pour être prévenu des anomalies (backup échoué, repo qui grossit très vite, absence de backup sur une certaine période, etc.).
Le problème du disque externe, c’est de penser à le brancher pour effectuer une sauvegarde. Et s’il est toujours branché, on a juste une tolérance à la panne.
C’est la méthode que j’utilisais avant, sauvegarde semi manuel avec rsync, mais quand ma mère à été cambriolé, et donc son PC + son HDD de sauvegarde (qui était dans une autre pièce) ont été volé, ba elle à perdu plusieurs années de photos et de documents.
Effectivement ! J’ai posté çà depuis Majorque entre la plage et la piscine ^^
Surtout que je ne m’attendais pas à autant de réactions ! j’ai fait des articles plus “techniques” qui n’ont pas sucités de réactions
Simplement en me connectant dessus avec mon FF ! :p (v 79.0 sur Devuan)
peut-être une des mes extensions qui bloque !?
(entre Facebook Container, I dont care about cookies, Privacy badger, voire TrackMeNot, il y a certainement le choix)
Ne jamais mélanger les environnements ;)
A titre d’exemple, j’ai une machine pro et une machine perso et quand je fais du perso sur la vm du pro, ce que je limite au maximum, je le fais sur des choses safe avec un vpn avec une machine dédiée au vpn.
@mirabellette @nikaro quand j’ai commencé à développer, on ne parlait pas de « conteneurs » et c’était les débuts de qemu … rien à voir avec l’actuel kvm. :) Donc j’ai commencé en bordel (et en auto-didacte ; ce qui n’est pas sans lien). Et j’ai eu le tord de ne jamais revoir cette organisation pro/perso/assos.
C’est mésaventure me donne l’occasion de reposer les choses à plat avec un nouveau modèle de menaces que j’avais ignoré jusque lors. Je précisera ces choix d’organisation dans un futur billet une fois que tout ceci se sera un peu tassé.
Je ne suis pas un immense fan de Docker de manière générale, mais c’est ce genre de problèmes qui pourraient m’encourager à l’utiliser lorsque je développe des logiciels. Après faut fait gaffe de ce côté là aussi, on pourrait certainement se retrouver également avec des images vérolées…
Merci pour ton retour, je suis d’accord avec toi sur le fait que mes backups supplémentaires sont des backups de backups, donc risques de corruptions. Pour syncthing, ce n’est pas un backup, mais une synchro, ce qui n’est pas totalement pareil, le risque de corruption est quasi null.
Pour ce qui est de ta méthode, pour les serveurs oui c’est faisable, mais pour du desktop/laptop, c’est plus compliqué, comme dis, ils ne sont allumés que quand je les utilisent, et je ne veux pas que ça utilise trop de ressource (compression + chiffrement), et mes PCs ne sont pas des plus performants (par exemple un rclone mount bouffe tout mon CPU).
C’est pour cela qu’une synchronisation me semble le mieux pour le moment, ce n’est pas une sauvegarde, juste une syncrho 1:1, avec une rétention des fichiers à 2 jours en cas de suppression sur la source.
Comme dis dans mon article, ma solution n’est pas un choix arrêté, mais j’ai déjà vu une faille dedans, si je perds tout chez moi, pour restaurer il faut que je télécharge toute l’archive de duplicati (pour l’instant environ 1To), alors qu’avec une solution comme restic ou borg, je pourrais monter et récupérer ce que j’ai besoin.
Pour le scheduling, je ne sais pas encore, je pense finir par partir sur ansible, qui se connectera à chaque machine pour faire les sauvegardes, ce n’est pas sont rôle normalement, mais on va dire que si, cependant, ce n’est pas encore défini.
On rajoute à ça une petite Zipbomb pour le plaisir et hop
Salute,
T’as testé comment ? Aucun problème ici, je suis pas connecté sur YouTube.
Tcho !
OUahhh, non seulement on est sur Youtube, mais en plus il faut un compte G Suite :
Vidéo non disponible \ L’accès à cette vidéo est limité. Essayez de vous connecter avec un compte G Suite.
Donc, là, pour moi, très peu d’enthousiasme. :(
Salut. Bonne trouvaile.
Sinon, tu as une coquille : “États-Unies”/“États-Unis” ;-)
Merci pour le partage, c’est très intéressant !
Voila ce qui arrive quand on développe sur une machine sensible. Je te conseille de créer une machine virtuelle développement et de développer dessus. C’est chiant mais cela évite ce genre de déboire.
Une bonne leçon :)
Perso, pour pas que ça se chevauche, je fais tout depuis le serveur (un so you start à pas cher). C’est lui qui fait le tour de tout le monde la nuit, et qui fait ses rotations pendant la journée, une fois fini le tour. Avec un petit fichier de config à mettre à jour à chaque nouvelle VM et sa clé publique à rajouter automatiquement au script de déploiement. Pas sûr que ce soit parfait mais jusqu’à présent j’ai toujours récupéré ce que mes clients avaient éventuellement perdu.
C’est pas mal, mais perso je préfère toujours travailler sur une copie plutôt que sur le disque original :)
De mon coté, c’est un peu plus simple, avec uniquement BorgBackup :
Trois machines locales (desktop, serveur LAN et NAS) et une machine distante (Kimsufi) sont sauvegardées de cette manière (système complet en excluant des répertoires trop gros dont je peux retrouver/regénérer le contenu simplement). Pour mon téléphone, les backups sont manuels via USB (script jmtps + rsync + borg), parce que 4G/Wifi/Bluetooth ne sont jamais activés. Il y a tellement peu de choses dessus que ça suffit.
Notes :
Par rapport à ce que tu as mis en place, je vois deux améliorations :
Tu peux être relativement serein avec ta configuration.
De mon côté j’utilise BorgBackup depuis un moment, mais j’utilise aussi Kopia depuis environ 6 mois en complément.
Non, mais, non, mais, non de mais non. Un de mes articles dedans, et encore une fois avec Puffy.
Faites gaffe les gars, vous allez vous faire piquer à force…
En tout cas, merci :D
Le problème du disque externe, c’est de penser à le brancher pour effectuer une sauvegarde. Et s’il est toujours branché, on a juste une tolérance à la panne. C’est la méthode que j’utilisais avant, sauvegarde semi manuel avec rsync, mais quand ma mère à été cambriolé, et donc son PC + son HDD de sauvegarde (qui était dans une autre pièce) ont été volé, ba elle à perdu plusieurs années de photos et de documents.
J’avoue on me l’a dit 2 fois depuis la publication de cet article mais je ne me suis jamais penché dessus ! faut que j’essaye
Effectivement ! J’ai posté çà depuis Majorque entre la plage et la piscine ^^ Surtout que je ne m’attendais pas à autant de réactions ! j’ai fait des articles plus “techniques” qui n’ont pas sucités de réactions
C’était une simple question n’utilisant pas vivaldi.
Pour être complet, rappelons que le master password n’est pas activé par défaut, ce qui est, à mon avis, une erreur.