Diskussion:Hauptseite/Archiv: Unterschied zwischen den Versionen

Peter (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
Peter (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
Zeile 152: Zeile 152:
::::Die Revierbewertung halte ich auch für eine gute Sache - soetwas in der Art schwebt mir auch schon länger vor. Bleibt nur die Frage, wie man es technisch integrieren kann. Ich werde auch mal bei Zeiten recherchieren.
::::Die Revierbewertung halte ich auch für eine gute Sache - soetwas in der Art schwebt mir auch schon länger vor. Bleibt nur die Frage, wie man es technisch integrieren kann. Ich werde auch mal bei Zeiten recherchieren.
::::--[[Benutzer:Peter|Peter]] 14:22, 15. Feb 2006 (CET)
::::--[[Benutzer:Peter|Peter]] 14:22, 15. Feb 2006 (CET)
== TODO ? ==
Was ist eigentlich mit dem Artikel mit der  [[TODO]]-Liste? Der Link darauf ist verschwunden.
Insbesondere würde mich interessieren, wie es mit dem backup steht. Die Aussicht, hier viel zu schreiben und dann läuft der Server irgendwann mal Amok (oder wird wegen Arbeitsüberlastung seines Eigentümers eingestellt), ist nicht so animierend. Was ist aktuell Stand hinsichtlich Backup? --[[Benutzer:Crefeld|Crefeld]] 19:04, 16. Feb 2006 (CET)
:Hallo Crefeld, ich habe den Link von der Hauptseite entfernt, weil er dort eigentlich nichts verloren hat (tendenziell sind es auch eher Punkte, die ich sukzessive abarbeiten muss). Wir können den Link gerne irgendwo einbauen, ich wüsste nur spontan nicht, wo.
:Bezüglich Backup: keine Angst! Ich mache regelmäßig manuelle Sicherungen (ich würde mich vermutlich am meisten über einen Datenverlust ärgern). Spätestens wenn mal wieder ein Urlaub anstehen sollte, werde ich mich um automatisierte Skripte kümmern. Vielleicht hast Du aber auch eine Idee, wie man es anders machen könnte (gerne auch per Mail). Viele Grüße, --[[Benutzer:Peter|Peter]] 19:20, 16. Feb 2006 (CET)
::Fiel mir grad mal wieder ein, nachdem aktuell ein von ziemlich vielen benutzter Forenserver seit 4 Tagen offline ist. Erst 24 h lang keine Verbindung, seither steht dort was von Wartungsarbeiten.
::Ich weiß nicht, was Du für Möglichkeiten hast und wie der content  abgelegt wird. Bei einem Zope-Server, der seine Daten in plain-text abgelegt hat, hatte ich es einfach über einen eigenen http-Pfad (via .htaccess abgesichert) auf die betreffende Dateistruktur zugänglich gemacht. Danach konnte man dann von außen die Daten per http://backupuser:pw@servername.de/backupdatenpfad/ erreichen. Den Rest hat dann ein Script auf unserm Firmenserver gemacht, das einmal am Tag einen Mirror davon gebildet hat, dem Schlumps zusammengepackt und per ftp auf zwei Server geschoben hat. Einen internen, damit das Paket auch in der Nachtsicherung drin ist und einen externen Webserver (anderer Hoster als die Zope-Maschine, auch wieder über .htaccess geschützt), damit ggf. auch ein externer Dienstleister an alte Datenbestände kommt, ohne in die Firma rein zu müssen.
::Wenn Du auf dem Server einen cronjob laufen lassen kannst, dann ginge es natürlich auch direkt auf dem Webserver. Ansonsten steht bei mir auch eine kleine Kiste, die (nachts) das runterziehen, packen und woanders raufschieben besorgen könnte. Das wäre also nicht das Problem. Bleibt die Frage, ob die Daten als Dateistruktur vorliegen, wie bei obigen Zope-Server oder ob die in einer Datenbank sind? Falls letzteres: Kann man sie ferngesteuert oder zeitgesteuert stoppen, archivieren und starten? Oder kann sie fern- oder zeitgesteuert snapshots machen?  --[[Benutzer:Crefeld|Crefeld]] 21:10, 16. Feb 2006 (CET)
::Vermutlich wird Dein Provider keine cron jobs erlauben. Folgender Workaround ist denkbar: Du probierst aus, ob sich per php mysqldump aufrufen läßt. (schau Dir dazu mal die system-Funktion von php an). Ist das möglich kann man leicht ein kleines PHP-Script schreiben, was bei Aufruf die ein Dump der Datenbank sichert und ggf sogar per email verschickt. Das müßte mir nur wenigen Zeilen PHP zu realisieren sein. Dieses Script müßte dann nur regelmäßig von extern angestoßen werden. Dafür könnte man auf einem Rechner, zu dem man Zugang hat, einen entsprechenden Cron-Job installieren. -- [[Benutzer:Erik|Erik]] 00:24, 17. Feb 2006 (CET)
::Ich habe grade mal etwas im Netz geforscht. Schau Dir mal  [http://www.mysqldumper.de http://www.mysqldumper.de] an. Das Script scheint gut geeignet. Ich habe es schon mal kurz mit meinen lokalen Datenbanken getestet und es funktioniert genau so, wie ich mir das vorgestellt habe. Mit dem Script kannst Du über ein Webinterface alle Optionen einstellen. Die Backups werden auf dem Server gesichert. Auf Wunsch kann die das Script die Sicherung dann auch per Email schicken oder auf einen anderen Server per FTP hoch laden. All das läßt sich über das Webinterface konfigurieren. Dort lassen sich die Backups auch verwalten und wieder einspielen. Scheint sehr komplett. Der Clou allerdings ist, das Du das ganze auch von Extern über einen Cron-Job anstossen kannst. Dieser müsste dann zum Beispiel in regelmässigen Abständen http://www.skipperguide.de/mysqldumper/msd_cron/crondump.pl?config=mysqldumper.conf (z.B. über wget) aufrufen und schon kommen die Backups regelmäßig per Mail oder FTP nach Hause. Ich werde das am WE mal für eine von mir betreute Seite ausprobieren. Falls Du keinen Rechner hast, der ununterbrochen läuft und auf dem Du einen Cron-Job einrichten kannst, dann kann ich ggf. aushelfen. --[[Benutzer:Erik|Erik]] 10:21, 17. Feb 2006 (CET)
:::Erstmal danke für die wertvollen Tipps. Ich hatte leider noch keine Zeit, den sqldumper hinreichend zu testen, aber soetwas in der Richtung schwebt mir auch vor. Die Idee mit Email ist nicht schlecht, allerdings besteht das Problem, das ein SQL-Dump derzeit um die 4MB (gepackt knapp 1MB) hat, und es wird nicht weniger. Letztendlich wird es auf ein Skript hinauslaufen, das bei Bedarf von einem zweiten Rechner aufgerufen wird und den Dump übergibt, damit die Datensicherung dezentral an anderer Stelle im Netz liegt. Ich hoffe, es nächstes Wochenende angehen zu können, bis dahin werde ich weiterhin fleißig von Hand sichern ;-) --[[Benutzer:Peter|Peter]] 09:16, 21. Feb 2006 (CET)
::::Mit Email wird man sicher nicht glücklich. Ist dieser SQL-Dump alles, was man braucht? Oder kommen die Pics nochmal dazu?
:::Wie bereits oben Beschreiben, bestehen mehrere möglichkeiten die Daten nach Hause zu holen. Email ist eine davon und mit Sicherheit die uneleganteste. Des weiteren kann das Script auch einen FTP-Upload auf einen anderen Rechner. Aussderdem werden die Daten lokal auf dem Server ebenfalls gesichert. Diese Datei kann man sich dann per http- oder ftp-download holen. Wie oben bereits angekündigt, habe ich das am Wochenende mal bei den von mir betreuten Homepages ausprobiert. Lief alles glatt. Ich mache das alles mit wget. Dazu habe ich mir ein Script geschrieben, das zu Hause regelmäßig cron-gesteuert aufgerufen wird. Zuerst wird kurz das perl-Script des MySQL-Dumpers aufgerufen. Danach hole ich mir das auf dem Server-Entstandene Sicherungs-File ebenfalls wget vom Server und danach noch die Bilder aus dem upload-Verzeichnis. Bisher klappt alles wunderbar. (Mal sehen, ob das so bleibt ;)-- [[Benutzer:Erik|Erik]] 14:47, 21. Feb 2006 (CET)
Zurück zur Seite „Hauptseite/Archiv“.