Backupstrategie für extreme Datenmengen (Webseiten)?
Posted: 2005-12-16 16:07
Hallo,
ich würde gern von euren Erfahrungen hören, so dass ich meine jetzigen Ã?berlegungen und Umsetzungen einmal schildere:
Auf dem Rootserver laufen ca. 20-25 Webseiten, deren Größen von wenigen KBs zu 1-3 GB reichen. Diese Webseiten werden durch ein Backup-Skript wie Reoback oder ESR Backup in der Nacht bzw. am frühen morgen inkrementell gesichert. Diese Sicherungen landen kann auf einem über 300GB großen FTP-Backup-Space. Aus Performance-Gründen verzichte ich auf eine Komprimierung der Archive (gz oder bzip2) und erzeuge nur unkomprimierte Archive. Soweit klappt das sehr gut und zuverlässig.
Es existiert jedoch noch eine Webseite, die eine Größe von über 30GB aufweist. Auch hier wird nichts komprimiert, da die meisten Daten sowieso JPG-Bilder sind. Nichtdestotrotz erzeugt der Backup-Job hier eine so hohe Systemlast, dass insbesondere der Webserver in der Zeit des Backups praktisch unbenutzbar träge wird.
Ich denke nicht, dass es dafür direkt eine Lösung gibt, sondern Suche nach einer alternativen Strategie zur Sicherung dieser Webseite per FTP.
Welche funktionierenden Ideen habt ihr dazu? Aufteilen der Sicherung auf verschiedene Teilbereiche der Seite zu verschiedenen Zeiten? Gibt es eine Möglichkeit, die Seite direkt per FTP zu spiegeln (Stichwort: sitecopy)?
Gibt es möglicherweise noch sinnvolle Alternativen zu reoback oder ESR Backup, welche ohne lokal vorgehaltene Sicherung auf dem Server (backup2l) funktionieren?
Schon einmal Danke für die Infos und die Hilfe. Gruß, Vevelt.
ich würde gern von euren Erfahrungen hören, so dass ich meine jetzigen Ã?berlegungen und Umsetzungen einmal schildere:
Auf dem Rootserver laufen ca. 20-25 Webseiten, deren Größen von wenigen KBs zu 1-3 GB reichen. Diese Webseiten werden durch ein Backup-Skript wie Reoback oder ESR Backup in der Nacht bzw. am frühen morgen inkrementell gesichert. Diese Sicherungen landen kann auf einem über 300GB großen FTP-Backup-Space. Aus Performance-Gründen verzichte ich auf eine Komprimierung der Archive (gz oder bzip2) und erzeuge nur unkomprimierte Archive. Soweit klappt das sehr gut und zuverlässig.
Es existiert jedoch noch eine Webseite, die eine Größe von über 30GB aufweist. Auch hier wird nichts komprimiert, da die meisten Daten sowieso JPG-Bilder sind. Nichtdestotrotz erzeugt der Backup-Job hier eine so hohe Systemlast, dass insbesondere der Webserver in der Zeit des Backups praktisch unbenutzbar träge wird.
Ich denke nicht, dass es dafür direkt eine Lösung gibt, sondern Suche nach einer alternativen Strategie zur Sicherung dieser Webseite per FTP.
Welche funktionierenden Ideen habt ihr dazu? Aufteilen der Sicherung auf verschiedene Teilbereiche der Seite zu verschiedenen Zeiten? Gibt es eine Möglichkeit, die Seite direkt per FTP zu spiegeln (Stichwort: sitecopy)?
Gibt es möglicherweise noch sinnvolle Alternativen zu reoback oder ESR Backup, welche ohne lokal vorgehaltene Sicherung auf dem Server (backup2l) funktionieren?
Schon einmal Danke für die Infos und die Hilfe. Gruß, Vevelt.