Diskussion:Hauptseite: Unterschied zwischen den Versionen
Erik (Diskussion | Beiträge) |
|||
| Zeile 183: | Zeile 183: | ||
::Ich weiß nicht, was Du für Möglichkeiten hast und wie der content abgelegt wird. Bei einem Zope-Server, der seine Daten in plain-text abgelegt hat, hatte ich es einfach über einen eigenen http-Pfad (via .htaccess abgesichert) auf die betreffende Dateistruktur zugänglich gemacht. Danach konnte man dann von außen die Daten per http://backupuser:pw@servername.de/backupdatenpfad/ erreichen. Den Rest hat dann ein Script auf unserm Firmenserver gemacht, das einmal am Tag einen Mirror davon gebildet hat, dem Schlumps zusammengepackt und per ftp auf zwei Server geschoben hat. Einen internen, damit das Paket auch in der Nachtsicherung drin ist und einen externen Webserver (anderer Hoster als die Zope-Maschine, auch wieder über .htaccess geschützt), damit ggf. auch ein externer Dienstleister an alte Datenbestände kommt, ohne in die Firma rein zu müssen. | ::Ich weiß nicht, was Du für Möglichkeiten hast und wie der content abgelegt wird. Bei einem Zope-Server, der seine Daten in plain-text abgelegt hat, hatte ich es einfach über einen eigenen http-Pfad (via .htaccess abgesichert) auf die betreffende Dateistruktur zugänglich gemacht. Danach konnte man dann von außen die Daten per http://backupuser:pw@servername.de/backupdatenpfad/ erreichen. Den Rest hat dann ein Script auf unserm Firmenserver gemacht, das einmal am Tag einen Mirror davon gebildet hat, dem Schlumps zusammengepackt und per ftp auf zwei Server geschoben hat. Einen internen, damit das Paket auch in der Nachtsicherung drin ist und einen externen Webserver (anderer Hoster als die Zope-Maschine, auch wieder über .htaccess geschützt), damit ggf. auch ein externer Dienstleister an alte Datenbestände kommt, ohne in die Firma rein zu müssen. | ||
::Wenn Du auf dem Server einen cronjob laufen lassen kannst, dann ginge es natürlich auch direkt auf dem Webserver. Ansonsten steht bei mir auch eine kleine Kiste, die (nachts) das runterziehen, packen und woanders raufschieben besorgen könnte. Das wäre also nicht das Problem. Bleibt die Frage, ob die Daten als Dateistruktur vorliegen, wie bei obigen Zope-Server oder ob die in einer Datenbank sind? Falls letzteres: Kann man sie ferngesteuert oder zeitgesteuert stoppen, archivieren und starten? Oder kann sie fern- oder zeitgesteuert snapshots machen? --[[Benutzer:Crefeld|Crefeld]] 21:10, 16. Feb 2006 (CET) | ::Wenn Du auf dem Server einen cronjob laufen lassen kannst, dann ginge es natürlich auch direkt auf dem Webserver. Ansonsten steht bei mir auch eine kleine Kiste, die (nachts) das runterziehen, packen und woanders raufschieben besorgen könnte. Das wäre also nicht das Problem. Bleibt die Frage, ob die Daten als Dateistruktur vorliegen, wie bei obigen Zope-Server oder ob die in einer Datenbank sind? Falls letzteres: Kann man sie ferngesteuert oder zeitgesteuert stoppen, archivieren und starten? Oder kann sie fern- oder zeitgesteuert snapshots machen? --[[Benutzer:Crefeld|Crefeld]] 21:10, 16. Feb 2006 (CET) | ||
::Vermutlich wird Dein Provider keine cron jobs erlauben. Folgender Workaround ist denkbar: Du probierst aus, ob sich per php mysqldump aufrufen läßt. (schau Dir dazu mal die system-Funktion von php an). Ist das möglich kann man leicht ein kleines PHP-Script schreiben, was bei Aufruf die ein Dump der Datenbank sichert und ggf sogar per email verschickt. Das müßte mir nur wenigen Zeilen PHP zu realisieren sein. Dieses Script müßte dann nur regelmäßig von extern angestoßen werden. Dafür könnte man auf einem Rechner, zu dem man Zugang hat, einen entsprechenden Cron-Job installieren. -- [[Benutzer:Erik|Erik]] 00:24, 17. Feb 2006 (CET) | |||