====== Das Backup, technisch ====== * Urspruenglicher Autor: Ramon Kukla * Urspruengliches Datum: 24.02.2012 Hatten wir das noch nicht? Wir hatten vor ein paar Tagen was zum [[http://adminstories.de/index.php?/archives/125-Das-Backup.html|menschlichen Backup]] erzaehlt, aber ich sehe, wir haben noch nichts dazu gesagt, wie wir auf unseren Servern das Backup machen. Verrueckt :) Wir haben ja zwei Server und verteilen dort die Dienste etwas. Auf Server foo haben wir in erster Linie Mail und Dokumentation. Auf dem Server bar haben wir dann primaer Web, bzw. die Webseiten von uns und einigen Bekannten. Wir sind bekennende Weicheier und erstellen daher taeglich auch immer ein komplettes Backup der fuer uns wichtigen Daten. Ein grosser Teil des Artikels wird aus den beiden Scripts bestehen, die wir zur Sicherung nutzen. Wie wir die Daten zwischen den Servern synchronisieren hatte wir ja vor einiger Zeit schon [[http://adminstories.de/index.php?/archives/45-Serversynchronisation.html" title="http://adminstories.de/index.php?/archives/45-Serversynchronisation.html|mal beschrieben]]. Und auch der log4bash-Teil wurde schon [[http://adminstories.de/index.php?/archives/55-Logging-in-Skripten.html|mal beschrieben]]. Daher gehe ich nachfolgend nicht weiter drauf ein. Fangen wir also mal mit einer Sicherung der wichtigen Dinge an: #!/bin/bash logger -t hotcopy.bash -i "Starting backup" TIMESTAMP=$(date "+%Y%m%d-%H%M") TARGET_DIRECTORY="/srv/bak/backup-md1" DB_PREFIX="db." DIR_PREFIX="dir" TRC_PREFIX="trc." DIRECTORIES_TO_COPY="/root /etc /var/log /var/mail /var/vmail /var/spool /var/www /home/∗ /srv/pwd /srv/www/∗ /usr/local/src/scripts /usr/share/munin/plugins /var/run/munin /var/spool/cron/crontabs/∗ /srv/trc/∗/attachments" DATABASE_USERNAME="deruser" DATABASE_PASSWORD="daspasswort" DATABASE_TO_COPY=$(mysqlshow -u $DATABASE_USERNAME -p$DATABASE_PASSWORD | awk '!/Databases|--/ {print $2}' | grep -v information_schema) cd /srv/trc TRAC_WIKIS=$(ls) cd ->/dev/null logger -t hotcopy.bash -i "save a list of installed packets" if [ -x /usr/bin/dpkg ] then dpkg --get-selections | bzip2 -9 > $TARGET_DIRECTORY/dpkg-selections-$TIMESTAMP.bz2 fi if [ -x /bin/rpm ] then rpm -qa | bzip2 -9 > $TARGET_DIRECTORY/rpm-selections-$TIMESTAMP.bz2 fi for i in $DIRECTORIES_TO_COPY do # vim backups entfernen find $i -iname '*~' | xargs -r rm FILENAME=$TARGET_DIRECTORY/$(echo $DIR_PREFIX$i-$TIMESTAMP.tar.bz2 | sed "s/^\///g ; s/\//./g") find $i -type s > /usr/local/src/scripts/sockets.lst cat /usr/local/src/scripts/sockets.lst /usr/local/src/scripts/exclude.lst > /usr/local/src/scripts/excludesum.lst tar -Pcjf ${FILENAME} ${i} -X /usr/local/src/scripts/excludesum.lst logger -t hotcopy.bash -i "save $FILENAME" done for i in $DATABASE_TO_COPY do FILENAME=$TARGET_DIRECTORY/$DB_PREFIX$i-$TIMESTAMP.sql.bz2 mysqldump -c --databases --add-drop-database -u $DATABASE_USERNAME -p$DATABASE_PASSWORD $i | bzip2 -9 > $FILENAME logger -t hotcopy.bash -i "save $FILENAME" done for i in $TRAC_WIKIS do /usr/local/bin/trac-admin /srv/trc/${i} hotcopy $TARGET_DIRECTORY/$TRC_PREFIX${i}-$TIMESTAMP tar -Pcjf $TARGET_DIRECTORY/$TRC_PREFIX${i}-$TIMESTAMP.tar.bz2 $TARGET_DIRECTORY/$TRC_PREFIX${i}-$TIMESTAMP logger -t hotcopy.bash -i "save $i" rm -r $TARGET_DIRECTORY/$TRC_PREFIX${i}-$TIMESTAMP 1>/dev/null done find $TARGET_DIRECTORY -mtime +6 | xargs rm -f logger -t hotcopy.bash -i "ending backup" /usr/local/src/scripts/ftpbackup.bash 2>&1 Sieht vielleicht wild aus, ist es aber nicht. Zu Anfang definieren wir ein paar Dinge wie Benutzername und Kennwort fuer den Datenbankzugriff, zu sichernde Vezeichnisse und so weiter. Wichtig fuer uns ist ''TIMESTAMP''. Diesen nutzen wir sowohl fuer die Logeintraege, als auch als Teil des Dateinamens fuer die Sicherungsdateien. Zu Beginn erstellen wir erst mal eine Liste aller installierten Pakete. Das hilft ungemein wenn der Server, warum auch immer, neu aufgesetzt werden muss. Oder man moechte einen Server identisch installieren. Dann holt man sich die Liste, setzt ein ''sudo dpkg --set-selections < Liste'' gefolgt von einem ''sudo apt-get -u dselect-upgrade'' ab und hat kurze Zeit spaeter alle benoetigten/gewuenschten Pakete installiert. Mit einer einfachen Schleife erstellen wir anschliessend Sicherungsdateien von den fuer uns wichtigen Verzeichnissen. Vorab generieren wir die Datei ''excludesum.lst''. Dies ist eine Liste aller zu ignorierenden Dateitypen/Verzeichnisse (*.mp3, etc.) und den zur Laufzeit in dem zu sichernden Verzeichnis zu findenden [[http://tldp.org/LDP/intro-linux/html/sect_03_01.html|Sockets]]. Die Datenbanken und die Tracdaten holen wir uns auch ueber eine einfache Schleife und erstellen auch hier eine Sicherungsdatei. Wobei bei Trac ''[[http://trac.edgewall.org/wiki/TracAdmin|trac-admin]]'' als Bestandteil der Trac-Installation zum Einsatz kommt. Damit haben wir nun ein Haufen Dateien (es sind etwas ueber 90 Dateien mit insgesamt etwa 18 GB) die wir nun sinnvollerweise von der Maschine weg sichern. Vorab loeschen wir auf dem Server mit ''find $TARGET_DIRECTORY -mtime +6 | xargs rm -f'' alle Sicherungsdateien, die aelter als die angegebenen Tage sind. Ja, es gibt -exec fuer find :-) Jetzt aber erst mal alles weggesichert. Rufen wir also ''/usr/local/src/scripts/ftpbackup.bash 2>&1'' auf. Damit die aufgerufene Sicherung auch laueft und wir keine Credentials in dem Script eintragen muessen, nutzen wir die Datei ''/root/.netrc''. machine zielserver login ulopa password vollkomplex Diese Datei wird beim Aufruf von ftp gezogen und genutzt. #!/bin/bash logger -t ftpbackup.bash -i "Starting ftpbackup" BACKUPDIR=/srv/bak/backup-md1 BACKUPDIRFTP=/ KEYFROMUSER=root HOST=zielserver ######################################################################## # declare -a L4B_LABEL=(DEBUG INFO WARN ERROR CRITICAL FATAL ENDOFWORLD) source /usr/local/src/scripts/log4bash.sh # L4B_DEBUGLVL=1 # L4B_DELIM="/" # L4B_DATE="date" # L4B_DATEFORMAT="+%Y%m%d-%H%M%S.%N" # L4B_VERBOSE=true # L4B_LOGFILE="skript.log" ######################################################################## cd $BACKUPDIR for FILENAME in *$(date +%Y%m%d)* do logger -t ftpbackup.bash -i "encrypt $FILENAME" gpg -e -o $FILENAME.gpg -r $KEYFROMUSER $FILENAME done logger -t ftpbackup.bash -i "copy files" ftp -i << EOF open $HOST bin lcd $BACKUPDIR cd $BACKUPDIRFTP mput *.gpg quit EOF logger -t ftpbackup.bash -i "delete enrcypted files in $BACKUPDIR" rm *.gpg logger -t ftpbackup.bash -i "delete files older 7 days in $BACKUPDIRFTP" ftp -i < Wie im oberen Job definieren wir auch hier erst mal ein paar Dinge. Da wir die Daten via FTP uebertragen muessen (gibt nichts anderes) verschluesseln wir diese vorab noch mit PGP. Nach der Verschluesselung werden dann alle Dateien auf den Backupserver uebertragen. Anschliessend werden alle lokal liegenden verschluesselten Dateien geloescht und auch auf dem FTP-Server werden alle Dateien, die aelter als sieben Tage sind, entfernt. Das Backup starten wir um 01:05 Uhr am Morgen und es dauert, mit dem Uebertragen der Daten, knapp ueber 2 Stunden. Das ist fuer uns wichtig zu wissen, da wir anschliessend ja noch den Synchronisationsjob laufen haben. Wenn der zu frueh startet koennen Dateien vielleicht nicht abgeholt werden, da diese im Rahmen des Backups noch nicht erstellt wurden. Wir werden im Zusammenhang mit dem Umzug auf die neuen Server vermutlich etwas am Backup aendern. Aber dazu dann spaeter mehr. Vielleicht ist fuer den ein oder anderen noch [[http://www.deimeke.net/dirk/blog/index.php?/pages/ubucon2010-baremetal.html|unser Vortrag ]]interessant, den wir auf der Ubucon 2010 zum Thema "Restore" gehalten hatten. Hintergrund war, dass uns Anfang 2010 unser damals noch singulaer ausgelegter Server abgeraucht ist. Das hatte hohen Unterhaltungswert! :) [[adminstoriesartikel|Zurück zur Uebersicht]]