Hello ! Je gère plusieurs serveurs et j'ai envie de progresser :)
Jusque là, je gère un peu tout ça à la main et ligne de commande. Et là j'ai envie d'automatiser le processus de sauvegarde, update de toutes mes machines en 1 click.
Et je sais pas trop par quoi commencer. Ya le script bash, ansible, cronjob, droit écriture, les tables ip et lire les connexions...
j'ai des bases fragiles, où je ne comprends pas ce qui se passe, ni lire les logs. Et j'ai toujours ce manque d'espace dans les fichiers système malgré les nettoyages et tuto linux...
Jusqu'ici, j'appuie sur le bouton installer, suit une docu mais je trouve très peu d'informations sur comment avoir un bon environnement de travail, bien sécurisé et surveiller les serveurs, machines, connexions entrantes...
Il me manque un schéma d'organisation des machines...et du coup, qu'elles ressources vous me recommandez ?
Coté serveurs, je suis sur la stack LAMP. Et mes machines sont sous linux.
Merci ☺️
https://yunohost.org/fr peut être une bonne base pour démarrer, le projet est justement de permettre aux gens d'auto héberger des sites
J'en heberge déjà. Là j'ai l'impression de relire l'installation de nextcloud. Mais ya pe des parties plus technique dans leur docu ? 😁
J'aimerai juste ne plus avoir à taper des ligne de commande à la chaine, télécharger le backup depuis sftp, le stocker sur l'ordi, puis copier sur un autre support...je souhaite l'automatiser de meme pour mes ordi, je veux plus les mettre à jour un par un et j'ai envie qu'iels aient les meme apps, que si j'en installe une ou supprime que ça le réplique sur mes machines.
Donc l'executer avec un petit script et ne plus le faire à la main. :)
Tu en penses quoi du coup de Yuno Host? J'hésite à passer mon serveur perso là dessus, j'en ai un peu marre de devoir me taper une doc de 2km de long pour chaque outil Cloud que je veux installer et que je dois maintenir ensuite. Ça me plaît bien l'idée de la distro avec les solutions déjà prêtes pour que je me concentre sur la configuration de l'outil et une maintenance un peu facilitée (des fois, je repousse les MAJ parce que
la flemmepas le temps et c'est mal).Ah oui pardon, tu es déjà plus loin 😄
J'imagine que quelqu'un d'autre aura des ressources :)
Loin, pas tellement, je reste un gros débutant. C'est pas évident de suivre une docu 😁
En tout cas merci, je vais la lire ya pe des choses que j'apprendrais. ☺️
Le mieux c'est presque de mettre les mains dans le camboui. Tu montes pas exemple un proxmox ou autre truc du style. Une fois que tu as des VM qui tournent, tu as un bac à sable pour faire des tests sans craintes! Par exemple pour l'histoire des backup, tu regarde rapidement quelles solutions existent puis tu vas voir la documentation de la solution en question! Si tu te rends comptes que tu effectues tout le temps les mêmes commandes, tu vas les mettres dans un scripts pour les rassembler et ainsi de suite.
Effectivement j'utilise les meme commandes ou effectue la meme action. Et j'aimerai l'automatiser depuis mon ordi. Faut que je scripte, ça me fera gagner du temps. :)
Ya pas un soucie de ressource si j'utilise plusieure VM ?
Pour les backup, je le fais via sftp et phpAdmin, à la main. Me connecter à ci, puis ceci...c'est pas efficace. J'aimerai trouver de la docu qui m'explique comment le faire à distance via ssh et 1 script. Étape par étape. De ce type : Connecte toi au serveur A, export mysql, nomme la {date}nextcloud.sql, sauvegarde ces dossiers dans celui ci et celui là. Lance la commande, puis celle-ci, celle-là...c'est long.
Une machine excelle très bien dans ces taches récurrentes pour peu qu'on sache qu'elles sont les commande, permissions et adresses. ☺️
Utilise 'rsync', cest pour sauvegarder en utilisant sshd, du coup a distance.
Tu peux utiliser 'tar' également pour sauvegarder pleins de dossiers situés dans des chemins différents en une seule archive ou plusieurs.
Et utilise 'date' pour rajouter la date dans tes noms de fichier en créant une variable genre.
Genre dans ton script tu peux mettre ces deux lignes a la suite:
Date=$(date '+%Y-%m-%d')
tar cvf "$Date"+".tar" filetosave
Oki faut que je teste entre 2 ordi :)
Franchement très bon conseil a apporter Bilbo. Ne te disperses pas trop.
Sinon pour ton test, Installe rsync sur les deux PC, et ensuite tu peux créer sur le PC A (serveur) un fichier 'test' avec cette commande 'touch /chemin/test'. Depuis le PC B récupère ce fichier avec :
rsync -av adresseA:/chemin/fichier /endroit/ou/sauvegarder
En vrai on fait tous nos scripts maisons selon les besoins. Si tu sais taper des lignes de commande tu peux créer un script.
Tu créés juste un fichier finissant par SH ou pas. Tu mets ta premiere ligne : '#!/sur/env bash' Tu saves, chmod +x et voilà tas un script.
Et ce que tu faisais a la main, tu met grosso modo ligne/ligne dans le fichier.
Déjà avec cette méthode tu peux récupérer tes backups et en créer rien qu'en mettant ton script en cron.
Et après lance toi sur les conditions et les fonctions bash genre "case" et tes scripts deviendront un peu plus évoluer
Petit a petit comme tas du faire jusqu'à maintenant.
Du coup selon ton post je dirais rtfm de bash et python en bonus. Pour savoir que tu peux vérifier la présence de fichiers ou non avec un built in ou une commande bash etc etc.
Après le reste cest des principes a apprendre. N'apprend pas la doc iptables si tes notions de réseaux sont faibles. Apprend les généralités car après cest de la mise en application valable globalement sur n'importe quel os.
My 2 cents de non professionnel de l'IT
Pour les iptable, je vais devoir l'apprendre vu que mes web app sont partagées à présent avec 10 personnes et ya minetest. Donc si je monitore pas un minimum les connections entrantes...😅
Cool, donc script bash pour commencer, merci ! :)
Tiens avec ce lien jai look viteuf, ca te montre que le scripting cest juste dans un premier temps ce que tu fais à la main dans le terminal mais dans un fichier texte que tu sauvegardes lol, et aussi comment use iptables.
https://doc.ubuntu-fr.org/iptables.
Ca couvre les besoins de bases du coup et de ton cas.