Diskussion:Hauptseite: Unterschied zwischen den Versionen
Peter (Diskussion | Beiträge) |
Erik (Diskussion | Beiträge) →Extension zum Anzeigen von Häfen in der Nähe: Ideen zur Performance des Skriptes und des GoogleEarthExports |
||
| Zeile 437: | Zeile 437: | ||
:BTW: ich komme leider frühstens am Sonntag dazu, das Skript zu installieren, da ich wiedermal die Woche in der Schweiz bin und auf meine Infrastruktur verzichten muss. | :BTW: ich komme leider frühstens am Sonntag dazu, das Skript zu installieren, da ich wiedermal die Woche in der Schweiz bin und auf meine Infrastruktur verzichten muss. | ||
:Viele Grüße, --[[Benutzer:Peter|Peter]] 12:19, 6. Mär 2007 (CET) | :Viele Grüße, --[[Benutzer:Peter|Peter]] 12:19, 6. Mär 2007 (CET) | ||
::Jupp. Das mit der Performance ist in der Tat kritisch. Momentan geht es noch recht schnell, da es noch nicht viele Häfen sind, aber hoffentlich schon bald werden es ja viel mehr sein. Ich habe mir dazu auch schon Gedanken gemacht. Folgende Ideen sind mit schon gekommen: | |||
::*1. Die Rechnerei in dem Skript kann an einer Stelle noch optimiert werden. | |||
::*2. Ich weiß ja nicht, wie der GoogleEarthExport derzeit realisiert ist, aber wenn die Daten in der Datenbank in einer eigenen Tabelle vermerkt wären, dann wäre die Abfrage deutlich schneller und effizienter. Man könnte das dann so realisieren, wie die Suche bei der Wikipedia. Es wird dort nicht in der Datenbank gesucht, sondern in einem speziellen Suchindex, der in regelmäßigen Abständen neu erzeugt wird. Dafür läuft ein Skript, welches 1.5 Tage braucht, um den Index aus dem Datenbankdump zu erzeugen. Es läuft einfach in einer Endlosschleife. Das GoogleEarthExport-Skript könnte so ähnlich arbeiten. Es könnte in regelmäßigen Abständen (abhängig von der Änderungsfrequenz 1/Tag, 1/Stunde oder) die Tabelle neu erzeugen.Ist das vielleicht jetzt schon so realisiert? Bei Aufruf der Daten müsste dann nur die Tabelle entsprechend formatiert an den Browser geschickt werden. Andere Skripte, die die Daten Nutzen wollen, können die dann auch von dort abrufen. Mein Skript zum Beispiel könnte dann einfach per SQL alle Daten abfagen, die innerhalb eines geographischen Bereichs liegen und würde somit erheblichen Aufwand für das Rechnen und Parsen, sowie das Erzeugen der kml-Datei mit Hilfe des GoogleEarthExport sparen. | |||
::*3. Man könnte die Tabellen über einen bot erzeugen lassen, den man in regelmäßigen Abständen startet und der die Tabellen statisch erzeugt und in die Seite einfügt. Mit so etwas habe ich mich allerdings noch nicht beschäftigt. Es gibt da aber in der Wikipedia einen ganzen Haufen Beispiele. Bots, die zum Beispiel typische Rechtschreibefehler automatisch korrigieren, oder aus dem Artikel automatisch das Geschlecht ermitteln und den Artikel dann der Kategorie Mann oder Frau zuordnen. Es gibt auch fertige Routinen, die einem den Text eines Artikels liefern und nach der Modifikation über Bearbeiten in die Seite einfügen. | |||
::--[[Benutzer:Erik|Erik]] 13:06, 6. Mär 2007 (CET) | |||