Beitragcap021 » 29.01.2016, 12:10 Monitoring Tool für mehrere Domains
Leider habe ich noch nicht das passende gefunden. Ich suche ein Monitoring Tool. Darf gern etwas kosten. Ich benötige es vor allem für Verfolgung der Positionen bei Google. Dabei muss die Abfrage nicht automatisiert sein, sollte aber mehrfach am Tag möglich sein und in Echtzeit anzeigen.
Im Überblick:
- Ranking Check
- Mehrere Domains erlauben
- Mehrere Abfragen täglich zulassen
Folgende habe ich bisher getestet:
- XOVI (eigentlich gut, mir aber zu umfangreich und unübersichtlich)
- Free Monitor (funktioniert nicht mehr, war gut für kostenlos, aber für mehrmaliges Abrufen mehrerer Domains nicht mehr zu gebrauchen)
- keywordmonitor.net (bisheriger Favorit, kann was es soll)
Beitragcap021 » 29.01.2016, 12:43 Monitoring Tool für mehrere Domains
Ja, eine eigene Entwicklung eines Ranking Check würde ich auch zu gern nutzen - es würde so vieles erleichtern.
Aber mit der Entwicklung hapert es, zeitlich wie auch in Teilen fachlich.
Dabei wäre es wirklich praktisch, da ich alle Analysen in mein System übertragen muss, wenn ich es über externe Tools mache...
Wie gesagt, XOVI finde ich schon sehr gut, aber viel zu umfangreich und nicht gerade übersichtlich wie ich finde.
Beitragcap021 » 29.01.2016, 13:29 Monitoring Tool für mehrere Domains
Gerne.
Mein System ist selbst entwickelt, alles auf Basis von PHP und Mysql.
In diesem System habe ich (als Selbstständiger) alles drin.
Meine Kunden, Rechnungen, Angebote, Umsätze, Aufgabenverwaltung, Newsletter... etc.
Ebenfalls in diesem System sind meine Kunden, deren Webseiten ich betreue.
Wenn ich nun einen Kunden (Betreuung) auswähle, öffnet sich eine Maske, wo ich die letzten Positionen einsehen und aktuelle Eintragen kann.
Diese können mit einer Aktion (zur Besseren Nachverfolgung) versehen werden.
Als Beispiel: Kunde X hat heute für 5 Keywords folgende Positionen:
Damit kann ich gut nachverfolgen, ob ausgeführte Aktionen etwas am Ranking ändern.
So weit so gut, damit bin ich auch schon wirklich glücklich. Nun möchte ich die Positionen allerdings ungern weiter manuell nacheinander abrufen, sondern durch eine Eigenentwicklung auch automatisieren können, (cronjob) so dass alle Domains einmal am Tag abgefragt- und automatisch eingetragen werden.
Wenn ich dann Aktionen hinzufügen möchte, kann ich das nach wie vor manuell machen.
Teile dieses Systems sind auch für den Kunden einsehbar. Es wäre also eine riesige Zeitersparnis, wenn ich ein eigenes Script nutzen würde, der Kunde würde auch alles direkt angezeigt bekommen.
Beitraghanneswobus » 29.01.2016, 13:52 Monitoring Tool für mehrere Domains
mh.
pruefe mal gegen, ob die apis von sistrix, xovi u. co dir da weiter helfen koennten. bei xovi habe ich mal das woechentliche abholen der positionen geloest. die umsetzung ist eigentlich soweit ganz "entspannt" u. du muesstest da ggf. "nur" eine gegenprobefunktion einbauen.
ad hoc faellt mir da ein:
- gegenprobe auf WMT => searchconsole
- gegenprobe auf eigenen g-ergebnisscraper (proxies?)
ich hatte das bei mir via borland delphi geloest u. du kannst dich gern priv. bei mir melden, wenn du da bei dir diskussionsbedarf siehst.
lg
Beitragcap021 » 29.01.2016, 14:04 Monitoring Tool für mehrere Domains
Vielen Dank für die Antwort. Also grundsätzlich vielleicht nicht so verkehrt über eine API.
Aber jetzt hast Du mich doch wieder motiviert es in kompletter Eigenentwicklung zu machen, weil es ja wirklich nur um den Ranking Check geht.
Alles andere kann ich im Detail in einer der genannten Software nachsehen.
Noch mal eine rein rechtliche(?) Frage zu Vorsicht:
Google erlaubt ja die automatisierte Abfrage nicht, was passiert wenn ich nun über ein Programm (eigenes) zu viele Abrufe mache?
Was kann im schlimmsten Fall passieren? Und, was sind zu viele Abfragen? Denn je nachdem muss ich ja die Cronjob-Funktion einstellen.
Beispiel: Ich habe 10 Domains à 5 Keywords, macht 50 Keywordabfragen.
Die werde ich wohl nicht in einem Schwung durchbekommen, oder?
Und spielt es eine Rolle, wie viele Seiten ich abfrage?
Weil mir die ersten 20 Ergebnisse also 2 Seiten reichen würden, da brauche ich ja nicht 100 Ergebnisse durchsuchen.
Was so Proxie Geschichten angeht, bin ich raus. Da habe ich keine Ahnung von...
Vielen Dank für das Angebot, bei Bedarf komme ich da gern drauf zurück.
Beitraghanneswobus » 29.01.2016, 14:30 Monitoring Tool für mehrere Domains
cap021,
das problem mit den automatisierten abfragen laesst sich so loesen, dass du schlichtweg ein "natuerliches abfragen" simulierst. ansatzpunkte hierfuer waeren proxies oder - so wie ich das gemacht habe - eine zufallsbasierte abfragefrequenz.
das "schlimmste", was mir passiert ist, ist das captcha v. google u. dein beispielvolumen duerfte problemlos sein.
lg