Hi zusammen,
angenommen man hat eine Fachseite zum Thema "Tierheime" und möchte dazu im Rahmen von einem Ortsverzeichnis die passenden Ansprechparter deutschlandweit auflisten. Darin enthalten sollte der Names des Tierheims sein, die Adresse, Telefonnummer, Öffnungszeiten und eine Google Map für die Anfahrt. Für die manuelle Pflege ist sowas dann natürlich nichts.
Frage: Wie kann ich ein Ortsvrzeichnis so umsetzen, dass es sich die aktuellen Daten "automatisch" einmal am Tag von der einzelnen Tierheimseite zieht? Mein projekt wäre auf Wordpressbasis - wobei ich davon ausgehe, dass hier was extra programmiert werden müsste. Oder gibt es sogar bereits kostenpflichte Lösungen dafür?
bei wordpress ist mir da kein plugin etc. bekannt. du kannst dich aber einmal in die apiloesungen von googlemaps etc. einarbeiten, ggf. kannst du hierueber an die gewuenschten daten kommen.
Okay - klingt spannend. Also könnte man sich "im Prinzip" die Daten aus Googlemaps ziehen und bei sich veröffentlichen. Kennst Du einen Dienstleister der das für einen umsetzen würde? Mit Einarbeiten ist das immer so eine Sache.
leider nein, schreib doch ein entsprechendes projekt hier aus.
die daten aus gmaps muessten auslesbar sein, ich habe mal so etwas aehnliches geloest - allerdings als offlineanwendung ohne taeglichen abgleich. gruß
Da sollte man sich die Frage stellen, warum man Daten von einer anderen Quelle abzieht wenn es ein solches Projekt ja schon gibt. Bzw: Warum das Rad neu erfinden?
Man könnte ja in den einzelnen Lokation-Seiten ne Google Maps einbetten. Dafür ist die Funktion ja auch da. Aus SEO-Sicht natürlich ein Alptraum .
Ansonsten solltest du die Daten aber auch wie folgt von Google bekommen:
Dann setzt du für jede Stadt für die du ein Verzeichnis haben möchtest als location deren Zentrum und bekommst alle Tierärzte die im Radius von 5 km existieren.
Alle hier bisher vorgeschlagenen loesungen sind voellig praxisuntauglich. "Von der (tierheim-) webseite auslesen" geht nicht. Erstens musst du rausfinden auf welcher seite die adresse wirklich steht (im footer, auf "ueber_uns.html", auf "/impressum/" usw.), dann musst du sie auch noch so parsen dass du name, strasse, plz, telefon usw. korrekt ausliest - und zwar so dass du NUR die adresse ausliest, und nicht noch den ganzen text und markup drumrum.
Einige seiten verwenden tables, andere divs und spans und wieder andere haben die adresse nur als bild eingefuegt; selbst das adressenformat (name, starsse, plz, ort, land) wird nicht immer gleich sein. Soll heissen es gibt keinen weg die adresse automatisiert zu 100% zuverlaessig zu erkennen wenn sie nicht standardisiert angegeben ist (-> schema.org), was die allerwenigsten machen.
Von google maps auslesen ist auch alles andere als zuverlaessig. Da ist zwar wenigstens das format einheitlich und google ist schnell darin neue eintraege hinzuzufuegen die es irgendwo im netz findet, aber irgendwelche geschaefte die schon lange dichtgemacht haben sind teilweise noch jahre spaeter auf google maps eingetragen.
es gibt immer (!) muster in der adressdarstellung und mit etwas aufwand u. kreativitaet kann man immer (!) alles auslesen.
das groesste problem bei solchen spielchen ist natuerlich die adressverifikation, aber technisch betrachtet ist das "absaugen" eher das geringere problem.
"An der zweiten kreuzung nach dem ortsausgang links und dann das haus gegenueber vom gelben schild! [bild einer mit filzstift gemalten karte]" - Was machst du mit solchen addressangaben?