Das Ende der SEO-Tools

2013 wird ein schwarzes Jahr für die Anbieter von SEO-Tools. Im besten Fall werden Sistrix, SEOlytics, Searchmetrics & Co demnächst eine freundliche Aufforderung von Google erhalten, ihren Service mit sofortiger Wirkung einzustellen. Im schlechtesten Fall schwingt Google die juristische Keule und verklagt die Anbieter auf Schadensersatz.

Google geht gegen Anbieter von SEO-Tools vor

Hintergrund: Das Geschäftsmodell der genannten Anbieter besteht im Wesentlichen darin, massenhaft Daten ohne Genehmigung von Google abzugreifen und die so gewonnene Datensammlung zahlenden Kunden zur Auswertung zur Verfügung zu stellen. Dadurch fügen sie Google nicht nur einen Schaden in Millionenhöhe zu, sondern befeuern auch die von Google ungeliebte Branche der Suchmaschinenoptimierer. Im vergangenen Jahr hat Google mit seinen Panda- und Penguin-Updates alles daran gesetzt, Suchmaschinenoptimierern die Geschäftsgrundlage zu entziehen. Nun häufen sich die Anzeichen, dass als nächstes die Anbieter von SEO-Tools im Visier stehen.

Verstoß gegen Googles Nutzungsbedingungen

Bereits beim Start der Sistrix SEO-Toolbox vor vier Jahren war mein erster Gedanke: Mutig, sich so offen mit Google anzulegen. Denn Google versucht nicht nur, automatische Abfragen seiner Suchmaschine mit technischen Mitteln zu unterbinden, sondern verbietet diese auch klar in seinen Nutzungsbedingungen. Damals hieß es noch:

You specifically agree not to access (or attempt to access) any of the Services through any automated means (including use of scripts or web crawlers) and shall ensure that you comply with the instructions set out in any robots.txt file present on the Services.

Heute findet sich der etwas allgemeinere Hinweis:

Verwenden Sie unsere Dienste nicht in missbräuchlicher Art und Weise. Sie sind beispielsweise nicht berechtigt (…) in anderer Weise als über die von Google bereitgestellte Benutzeroberfläche und gemäß unseren Vorgaben auf die Dienste zuzugreifen.

Die automatische Abfrage wird also von Google ausdrücklich nicht gewünscht. Genau das tun jedoch Anbieter wie Sistrix, SEOlytics, Searchmetrics und alle anderen, die gerade auf den SEO-Tool-Hype aufspringen.

Millionenschaden für Google

Zwar ist durchaus strittig, ob Nutzungsbedingungen auf Webseiten im Allgemeinen rechtlich bindend sind. Allerdings fügen automatische Abfragen Google ohne Frage einen technischen und wirtschaftlichen Schaden zu:

  • Die regelmäßige automatische Abfrage mehrerer Millionen Suchergebnisseiten kostet Google enorme Ressourcen, ohne dass dem wie bei der Google-Nutzung durch menschliche Nutzer entsprechende Werbeeinnahmen gegenüberstehen.
  • Da die Toolanbieter die automatischen Abfragen wie menschliche Zugriffe aussehen lassen, manipulieren sie damit auch die Such-Statistiken, die Google zur Verbesserung seiner Algorithmen auswertet.
  • Aus demselben Grund erhalten auch Googles Werbekunden verfälschte Daten, z. B. für die Anzahl der Impressions und die Click-Through-Rate.

Allein die Kosten für die Ressourcen (Strom, Server), die Google durch die automatisierten Abfragen entstehen, dürften in die Millionen gehen. Rechenbeispiel: Microsoft verlangt für die automatisierte Abfrage seiner Suchmaschine in der günstigsten Variante 0,0015306 Euro pro Suchanfrage. Sistrix wertet nach eigenen Angaben wöchentlich 1 Mio „Shorthead“-Keywords und monatlich 10 Mio „Longtail“-Keywords aus. Dabei werden jeweils die ersten 10 Ergebnisseiten ausgewertet, d. h. es entstehen 10 Abfragen pro Keyword.

(1.000.000 * 10 * 52 + 10.000.000 * 10 * 12) * 0,0015306 € = 2.632.632 €

Würde Sistrix für die Google-Abfragen bezahlen, würde das zu Kosten in Millionenhöhe führen. Tatsächlich dürfte die Zahl der Suchanfragen sogar noch höher sein, da Sistrix mittlerweile in 8 Sprachen verfügbar ist. Searchmetrics wirbt übrigens mit „mehr als 100 Mio. Keywords“, was der Rechnung noch eine Null mehr beschert.

Rechtliche Handhabe seitens Google

In der Folge hat Google zumindest in Deutschland und den meisten anderen westlichen Ländern ohne Frage eine rechtliche Handhabe gegen Anbieter, die ihr Geld mit Daten verdienen, die sie ohne Googles Einverständnis und unter Inkaufnahme eines erheblichen Schadens von Googles Suchmaschine abgreifen.

In der kommerziellen Vermarktung der Daten besteht auch der wesentliche Unterschied zu Tools wie AdvancedWebRanking, bei denen der Anbieter lediglich die Software verkauft, mit der die Anwender dann die Ranking-Daten selbst von Google abrufen. Diese Tools gibt es, seit es Suchmaschinen gibt und Google dürfte kaum ein Interesse daran haben, sich mit den Anwendern der Tools anzulegen (von denen ein großer Teil vermutlich gleichzeitig Kunde von Google AdWords ist).

Google geht zum Angriff über

Bei den Toolanbietern, die den Zugriff auf die von Google gescrapten Ranking-Daten gegen eine monatliche Gebühr vermieten, dürfte das anders aussehen. Während Google in den letzten Jahren hier scheinbar untätig zugesehen hat, wie einzelne Anbieter ein gutes Geschäft mit Googles Daten machen, häufen sich nun die Anzeichen, dass Google dem ein Ende bereiten wird:

Anfang des Jahres hat Google unter dem Vorwand des Datenschutzes für alle Nutzer der SSL-gesicherten Suche (https) das Keyword aus dem Referrer entfernt. Webseitenbetreiber erhalten damit keine Informationen mehr darüber, über welche Suchbegriffe ihre Seite gefunden wurde. Die Intention dahinter dürfte es sein, alle Seitenbetreiber zur Nutzung der Google Webmaster Tools zu zwingen, wo sie zwar ähnliche, aber weniger exakte Keyword-Daten einsehen können.

Bereits vorher hat Google den API-Zugriff auf das Google Keyword-Tool für einen Großteil der Nutzer gesperrt. In einer knappen E-Mail teilte das Unternehmen seinen (zahlenden) Kunden damals mit: „we are disapproving tokens used primarily used for Keyword Research“. Im Klartext heißt das: Keine Keyword-Daten für Suchmaschinenoptimierer.

Gleichzeitig stellt Google immer mehr kostenlose Dienste ein oder macht sie kostenpflichtig, wie zuletzt Maps und Apps. Google spart dadurch Kosten und erhöht die Einnahmen.

Nicht zuletzt hat Google das Jahr 2012 mit seinen Panda- und Penguin-Updates und hunderttausenden Warn-E-Mails an Webmaster dem Kampf gegen die SEO-Branche gewidmet.

Letzte Woche stellte Google schließlich die Toolanbieter Raven und SEOmoz vor die Wahl, entweder auf das Google Scraping (= die automatisierten Google-Abfragen) oder die offiziellen Google Keyword-Daten zu verzichten. (Interessanterweise hat sich Raven für erstere und SEOmoz für letztere Option entschieden.)

Update: Der Toolanbieter Ahrefs ist ebenfalls betroffen. (Danke an Markus!)

Rand Fishkin, der mit SEOmoz mittlerweile das Google-Scraping als Dienstleistung anbietet, hat übrigens 2006 noch geschrieben:

I’m seriously concerned about charging for data that’s obtained outside TOS (Übersetzung: Ich habe ernsthafte Bedenken, für Daten Geld zu verlangen, die unter Missachtung von [Googles] Nutzungsbedingungen abgerufen werden.)

Das Problem ist also bekannt, wird aber von der gesamten SEO-Tool-Branche hartnäckig ignoriert. Das dürfte nicht mehr lange gutgehen. Patrick E. Keeble, Gründer von Raven, der letzte Woche von Google aufgefordert wurde, das Scraping zu unterlassen, schreibt:

Google seems to be universally enforcing its terms of service regarding scraped Google data (Übersetzung: Google scheint seine Nutzungsbedingungen bezüglich automatisierter Google-Abfragen überall durchzusetzen.)

Das Ende einer ganzen Branche

2013 wird ein schwarzes Jahr für die Anbieter von SEO-Tools (und deren Nutzer): Im besten Fall werden Sistrix, SEOlytics, Searchmetrics & Co demnächst eine freundliche Aufforderung von Google erhalten, ihren Service mit sofortiger Wirkung einzustellen. Im schlechtesten Fall schwingt Google die juristische Keule und verklagt die Anbieter auf Schadensersatz. Der Schaden, der Google durch jahrelanges automatisiertes Abfragen mehrerer Millionen Keywords pro Woche entstanden ist, dürfte die damit erzielten Gewinne der Toolanbieter aufzehren und eine ganze Branche in die Insolvenz treiben.

Update: Wie Stefan Köhn berichtet, haben Sistrix und SEOlytics aktuell Probleme mit ihren Tools. (Update: Bzgl. Sistrix nimmt Stefan die Angaben zurück. Die Information über verzögerte Auslieferung der Daten bei Sistrix stammt offenbar nicht aus gesicherter Quelle und wird von Sistrix dementiert.)

Update des Updates: Johannes Beus (Sistrix) hat mich gerade per Mail kontaktiert. Seinen Angaben zufolge gab und gibt es bei Sistrix keine Probleme.

Update: Auch Marcus Tober von Searchmetrics sieht laut Golem.de keine Probleme für sein Unternehmen.

Update: Maik Benske von XOVI hat mir ebenfalls per Mail ein kurzes Statement zukommen lassen. Er sieht für XOVI ebenfalls keine Probleme und beweist in einem Blogbeitrag Humor.

Bildquelle: Bild basiert auf Vorlage von ensiferum / bigstockphoto.com

Categories
Blog

192 thoughts on “Das Ende der SEO-Tools

  1. Wenn Deine Spekulationen tatsächlich eintreffen, wäre das eine Bombe für die ganze SEO Branche. Die pseudo SEO-Agenturen mir ihrer SI versessenen Sichtweise, wären endlich Geschichte und ein wenig ehr Hirnschmalz wäre gefragt.

    Bravo Google

    1. @Baynado: Allerdings! Für die Toolanbieter wäre das eine Katastrophe, da der Ranking-Check/Sichtbarkeitsindex die meistgenutzte Funktion sein dürfte.

    2. Ich glaube nicht, dass man die Gehirn-Hobbits damit davon abhalten könnte, SEO anzubieten. Nur weil sie keinen SI mehr bekommen, wird sie sicherlich nicht zum Wechsel auf andere Tätigkeiten bringen. Gerade ein Teil der Branche verwendet doch die Tools gar nicht richtig – Hirnschmalz ist also nicht vorhanden oder man setzt es nicht ein, um sich das Leben einfach zu machen. Solange es Unternehmen gibt, die auf halbgare Agenturleistungen reinfallen (und das dürfte leider ein Großteil sein), wird man die auch mit anderen Kennzahlen beeindrucken können. Diese Kunden wissen doch gar nicht, was sich WIRKLICH hinter den Zahlen verbirgt und wie diese berechnet werden. Das wissen auch die meisten Agenturen nicht. Insofern wird sich an dieser Stelle wohl nichts ändern. Schwerer werden ess all diejenigen SEOs haben, welche die Tools wirklich intensiv nutzen. DENEN werden wichtige Daten fehlen. Alle anderen werden ihr Geschäftsmodell „Make shit – a hit!“ unbenommen weiter betreiben. Ich befürchte sogar, dass einige von denen gar nicht merken werden, dass sich hier was tut bzw. dann irgendwann mal getan hat…

  2. Eine schöne Geschichte. Tatsächlich ist die SEO-Landschaft sehr unübersichtlich geworden. Die Unternehmen haben hoffentlich einen Vertrag mit Google, ansonsten ist das Geschäftsmodell unhaltbar. Aber auch Webseitenbetreiber wehren sich zunehmend: Die Süddeutsche sprerrt bereits diverse SEO-Crawler aus (siehe robots.txt). Weitere Beispiele könnten folgen. Dann werden insbesondere Backlinkdaten deutlich schlechter.

    1. @Philip: Dass die Unternehmen einen Vertrag mit Google haben, kann ich mir nicht vorstellen. Google setzt alles daran, die automatisierte Abfrage der Suchergebnisse technisch zu verhindern und bietet ganz bewusst keine funktionierende API (mehr) an. Dass viele Seiten die SEO-Crawler mittlerweile aussperren, ist mir auch schon aufgefallen. Das dürfte aber nur einen begrenzten Effekt haben, bspw. muss Sistrix die Seiten selbst ja nicht crawlen, um den Sichtbarkeitsindex zu berechnen.

  3. Schön, dass du mich in den Hubschrauber gesetzt hast. Das Thema wird noch spannend. Doch ganz so unvorbereitet sind die „großen“ Toolanbieter dann auch nicht ;-). Es ist eine Herausforderung. Da unterscheidet sich aber das Business nicht von anderen. Warum habe ich subjektiv das Gefühl, dass dir eine negative Entwicklung gefallen würde ?

    1. @Marco: Gerne 🙂 Hast Du Details über die Vorbereitungen der großen Toolanbieter? Geht das eher in die Richtung, das Scraping einfach auszulagern, oder siehst Du da noch andere Möglichkeiten? Der Artikel ist natürlich absichtlich etwas herausfordernd formuliert. Gefallen würde mir eine negative Entwicklung aber nicht, schließlich nutze ich einige der Tools selbst.

  4. Schön provokant UND augenöffnend geschrieben.

    So lange sich Scraping von Inhalten noch schön kaschieren lässt, werden viele Werkzeuganbieter noch lange über Wasser halten. 2013 ist also sicherlich noch nicht Schluss, zumindest nicht für intelligente Werkzeug-Anbieter.

    Doch was macht man, wenn Google diese Spielregel ändert und unzuverlässige Daten ausgibt? (Dann schneiden sich die Jungs ins eigene Bein, da mittel- und langfristig sicherlich der eine oder andere einen eigenen Index aufbauen wird … oder bereits aufgebaut hat … )

    Danke für den guten Artikel! 🙂

    1. @Karl: Danke für den guten Kommentar 😉 Die Frage ist nicht, ob Google das Scraping technisch erkennen kann. Die Toolanbieter verkaufen Rankingdaten, und die können nur von Google stammen. Wenn ich mir eine Schadensersatzklage vor einem deutschen Gericht vorstelle, sprechen alle Fakten für Google.

    2. @Vincent: Also wenn Google vor einem Deutschen Gericht Schadenersatz fordert, so sollte Google zunächst mal anfangen seine Gewinne hier auch zu versteuern. Und weiterhin: Zunächst müsste Google Belegen, dass die extrahierten Rankingdaten tatsächlich von automatisiert erhoben wurden, weiterhin kann man die Gesellschaft, welche die Daten bereitstellt ins Ausland verlagern usw.
      Allgemein verstehe ich diese wenig Google-kritische Tendenz in dieser Diskussion nicht ganz. Google ist ein Unternehmen, welches seine Marktmacht in miesester Form missbraucht und über Transparenz quasselt aber keine bereitstellt.
      Wenn es eine Google Api gäbe, welche zuverlässige Platzierungsdaten lieferte, würden Toolanbieter hierfür auch Geld bezahlen.
      Google selbst sammelt jedoch massiv Daten, aus jeder nur erdenklichen Quelle, möchte selbst jedoch keine Daten herausgeben. So funktioniert das einfach nicht. Wenn man mit den Daten anderer Geld verdient, so muss man es auch hinnehmen, dass andere mit aufgewerteten Daten, welche Google bereitstellt Geld verdient. Das ist im Prinzip ein ähnliches Geschäftsmodell.

    3. @mgamadeus
      Na das ist doch mal echtes Vorwärtsdenken ’nur wer in Deutschland Steuern bezahlt darf auch Deutsches Recht einfordern‘
      Man glaubt sich wieder inder Zeit der Zünfte.
      Es gibt viele Gruendevweshalb Unternehmen einen Teil Ihrer Einkommen dort Versteuern sollten wo diese erwirtschaftet wurden, jedich ist es nahezu unmoeglich eine Kostentrennung so aufzugliedern dass auch alle daraus anfallenden Kosten korrekt gedeckt werden koennen. Der entsprechende Aufwand solch einer Aufstellung wuerde jedem SEO tool anbieter auch gleich mal das Genick brechen und wenn das zur absoluten Förderung von Grossunternehmen nicht reicht, reicht es dann sogar einer Klage von Web.de nur gegenüber zu stehen um zu kippen.
      Ganz ohne Google’s zutun- nicht schlecht.

  5. Das was mich stören würde wäre in der Tat die täglichen Rankings nicht mehr einsehen zu können. Der Rest ist natürlich eine super Hilfe und ohne die Tools würden Arbeiten länger dauern und kostenintensiver werden, aber sie wären machbar.

    Einen Vorteil hätte das ganze dann auch noch, nicht jeder mit Halbwissen kommt dann an und sagt aha aber Sichtbarkeitsindex xyz sagt doch aus…

    1. @Michael: Dem (ersten Teil) kann ich nur zustimmen, ich verbringe selbst viel Zeit mit der Sistrix-Toolbox 🙂 Das schöne ist, dass der Sistrix-Index mittlerweile auch außerhalb der Branche akzeptiert ist (Sistrix wurde ja sogar bereits von SPON mit einem Zitat geadelt).

    1. @Alexander: Nachdem ich die Zahlen in den Rechner getippt habe, war ich selbst überrascht, welche Summe dabei am Ende rauskommt. Obwohl die Preise natürlich von Bing stammen und nicht von Google, könnten sie bspw. in einem Schadensersatzprozess durchaus als Anhaltspunkt dienen.

  6. Das „Problem“ werden unsere innovativen und kreativen SEO-Tool-Anbieter sicher lösen. Daß Google diese verklagt kann ich mir nicht vorstellen: a) hat Google gerade genug Klage-Probleme – warum hier noch ein Faß aufmachen und b) dann tobt aber der Bär – nicht nur in Deutschland.
    Einerseits will Google die „SEOs“ an die Kandarre nehmen mit allen Mitteln, auf der anderen Seite macht G seine Produkte immer komplexer und „treibt“ die Unternehmen damit geradezu zu den Agenturen. Mit ein paar Stunden Aufwand pro Woche kann man heute kein AdWords-Konto mehr verwalten…
    Aber so kleine Kunden mit 500 Euro Budget im Monat „will“ Google ja auch gar nicht haben: da gibts keinen Support etc. Und sollen die dann alle „hinten runterfallen“ in den SERPs? Soll die Google-Suche nur noch eine Spielwiese für die großen Unternehmen und Bezahler werden? Die kleinen Firmen können sich dann die Nischen außerhalb der Money-Keys suchen wenn sie überleben wollen? Hallo, dahinter stehen schließlich Arbeitsplätze… Danke Google, das war schon mal besser.
    2013 wird Google wohl versuchen alle Benutzer so lange wie möglich auf seinen Seiten zu halten und – wo es geht – zu monetarisieren. Für eine „gute Suche“ kann das kein gutes Konzept sein. Mal abwarten bis das bei den deutschen Besuchern ankommt, es gibt ja noch BING und viele andere Anbieter…
    2013 wird so spannend weiterlaufen wie 2012 endet.

    1. @Alex: Dass Google jemand anderen als Apple/MS/Facebook verklagt, kann ich mir auch nicht wirklich vorstellen. Aber die Möglichkeit einer Klage, ist allein schon ein gewichtiges Druckmittel. Google verschärft aber gerade definitiv den Kurs.

    2. @Alex
      „Aber so kleine Kunden mit 500 Euro Budget im Monat “will” Google ja auch gar nicht haben (…) Soll die Google-Suche nur noch eine Spielwiese für die großen Unternehmen und Bezahler werden? Die kleinen Firmen können sich dann die Nischen außerhalb der Money-Keys suchen wenn sie überleben wollen?“

      Das ist doch bei anderen „Dienstleistern“ nicht anders. Man denke nur an die Deutsche Telekom, (private) Krankenversicherungen, und Banken. Leider fallen in unserer Weltkapitalwirtschaft viele hinten runter, die es eigentlich nicht verdient hätten. Das muss und kann man auch eigentlich nicht gut finden, aber so ist es nunmal.

      Objektiv betrachtet ist Google auch nur ein Dienstleister. Ich denke, dass es letztlich darauf ankommen wird, inwieweit Google als quasi Monopolist von Gerichten eine „öffentliche Verantwortung“ zugesprochen bekommt. Wie schon in den diversen Fällen zum Thema Google Suggest, in denen europäische Gerichte durchaus unterschiedlich entschieden haben, ist die Frage, inwieweit man Google „vorwerfen“ kann, diverse Domains hinten runter fallen zu lassen und Serps nach ihren Anforderungen/Wünschen zu verändern, zumal Google auch ganz groß darin ist Änderungen in der Serp auf Algorithmusupdates zu schieben, die man ja schließlich nicht manuell beeinflusst. So trifft es ja auch nacheinander Anbieter in Branchen, die Google durch eigene Produkte selbst besetzt bzw. bald besetzten wird.
      Philipp Klöckner hat sich mit diesem Thema auch schon eingehender beschäftigt.

  7. Sehr schöner Artikel. Hat Laune gemacht zu lesen. Allerdings habe ich mir eine Frage gestellt: Wenn das für Google ein echter Verlust ist und sie Millionen sparen würden, wenn sie rechtlich gegen die Toolanbieter vorgehen würden, warum hat Google das dann noch lange nicht gemacht? Entweder ist der Verlust also nicht so groß (was ich nicht glaube, ich denke sie verlieren dadurch viel Geld) oder sie sind einfach technisch dazu nicht in der Lage.

    Und jetzt meine Frage an dich: Was macht dich sicher, dass Google inzwischen die technischen Voraussetzungen erfüllt, gegen die Toolanbieter vorzugehen?

    Ansonsten ist das ein echt guter Artikel! Ich hab weiter getwittert 🙂

    Grüße
    Micha

    1. @Micha: Danke für das Lob 🙂 Warum Google bisher nichts unternommen hat, ist fraglich. Entweder wollten Sie bisher das negative Feedback vermeiden, oder Google bzw. deren Rechtsabteilung war einfach zu beschäftigt. Technisch braucht Google m. E. gar nichts weiter zu unternehmen. Allein die Androhung einer Schadensersatzklage gegen einen Anbieter dürfte Eindruck machen.

  8. Hallo Vincent,

    wir haben gestern auf Linkwissenschaft auch darüber berichtet: http://www.linkwissenschaft.de/tool-time-google-droht-toolanbietern-mit-api-entzug/1802/

    Es bleibt spannend zu beobachten, wie sich das Thema entwickelt. Persönlich hoffe ich natürlich für das komplette SEO Umfeld und natürlich auch für die Toolanbieter, dass uns die Rankingdaten erhalten bleiben. Ohne diese sehen wir ganz schön alt aus denke ich.

    Gruß Stefan

    1. @Stefan: Danke für Deinen Kommentar. Die aktuellen Probleme von Sistrix und SEOlytics hatte ich noch gar nicht auf dem Schirm. Das macht die Sache nochmal interessanter!

  9. Wirklich gut geschrieben, tatsächlich ist dies eine gutes Thema.

    1.) Finde ich es nicht schlecht, denn es stecken wirklich ein paar Faktoren mit drinnen die es mir einfach schön reden lässt.
    1.2) Die Rankings werden Missbraucht
    1.3) Such-Statistiken werden Manipuliert
    1.4) Größtenteils werden die Daten sowieso nur missbraucht.

    2.) Vielleicht ja ein kleiner Aufruf wieder zum sogenannten „back to the roots“.

    3.) Leute wie Karl Kratz werden damit nie ein Problem haben, daher soll die Bombe ruhig explodieren. Wer sich seine Vorträge etc. anhört versteht SEO, wie es wirklich funktionieren sollte.

    Super Artikel!

    1. @Martin: Danke! Tatsächlich wurde mir die Brisanz der Angelegenheit selbst erst beim Schreiben so richtig klar. P.S.: Die Schleichwerbung für Karl Kratz ignoriere ich mal 😉

  10. Krasse Sch***… aber eigentlich nur eine konsequente Fortsetzung der Google-Strategie die Weltherrschaft an sich zu reißen. Dabei spielen z.B. auch die Verticals wie Hotelfinder eine wichtige Rolle.

    1. @Andreas: Sehe ich ähnlich. Auch wenn es zur Weltherrschaft noch ein Stück ist, halte ich die von Google eingeschlagene Richtung für bedenklich.

  11. Die Frage ist doch: Kann es sich Google wirklich leisten, gegen die SEO-Tools vorzugehen oder schießt sich Google damit selbst ins Knie?

    Letztlich ist es für Google doch viel effizienter, wenn eine Hand voll Tools die Daten sammeln und an tausende SEOs weiterverteilen als wenn alle SEOs und deren Kunden selbst die Daten erheben.

    1. @Ansgar: Das ist ein interessanter Gedanke. Möglicherweise wird Google tatsächlich aus diesem Grund erst jetzt aktiv. Die Zahl der Toolanbieter hat in den letzten Monaten/Jahren stark zugenommen. Gleichzeitig gibt es die Tools in immer mehr Ländern und mit immer mehr Keywords, so dass sich das Verhältnis hier langsam verschiebt.

    2. SEOs sind doch eigentlich die Feinde von Adwords. Seiten die gut gefunden werden, benötigen keine oder kaum Adwords. Also schaden SEOs indirekt Googles Geschäftsmodell.

      Google schießt sich also gar nicht ins Knie, wenn es die SEOs rausboxt, sondern fördert dadurch indirekt ihr Adwords Programm.

      Dass Google dennoch Tipps zur Verbesserung der Seiten gibt, ist aus diesem Gesichtspunkt gesehen sogar noch fair. Das würden andere Big Player sicher nicht tun.

  12. @Vincent, nur noch ein kurzer Kommentar an der Stelle. Eine zirkuläre Fragestellung, die auch bei einer gerichtlichen Auseinandersetzung sicher eine Rolle spielen kann:

    „Die Toolanbieter verkaufen Rankingdaten, und die können nur von Google stammen. Wenn ich mir eine Schadensersatzklage vor einem deutschen Gericht vorstelle, sprechen alle Fakten für Google.“

    Google „scraped“ selbst Teile des WWW und verdient sein Geld damit. Man kann das natürlich via robots.txt verbieten – Google macht es dennoch. Will also ein Unternehmen, welches selbst Inhalte ungeachtet der Erlaubnis von Website-Betreibern einholt, andere Webteilnehmer von derselben Logik ausschließen? 😉

    1. @Karl Naja. Wie in dem Artikel auf pip.net so schön zu lesen ist, arbeitet Google ja schon länger mit einem zweischneidigen Schwert. Das was Google selbst von Webmaster erwartet, setzt es selbst gar nicht um. Beispiel: Ads above the fold. Von daher würde es mich nicht wundern wenn Google das einfach mal so durchsetzt.

      Auf der anderen Seite: Es könnte auch sein, dass Google einfach mal die Toolanbieter „abschaltet“ und dann selbst ein Tool vorstellt, was die Daten sauber liefert. Vielleicht der nächste Vertical in der Liste? 🙂 „verschwörungstheorie“

    2. @Karl: Zumindest offiziell hält sich Google allerdings an die robots.txt. Über die Frage, ob die robots.txt rechtlich bindend ist, hat bisher meines Wissens aber noch kein Gericht entschieden. Deine Argumentation kann ich aber nachvollziehen. Dass Google aber gerne mit zweierlei Maß misst, ist ja bekannt.

    3. @Vincent: Ob eine robots.txt rechtlich bindend ist ist doch egal… reicht ja auch, wenn ich in meinen AGB reinschreib… automatisiertes auslesen meiner Inhalte bzw. auszugsweises verwenden dieser ist verboten.. und kaum kommt der Googlebot vorbei.. zack .. Klage… haben sich nicht an meine AGB gehalten. Defakto genauso erwartet sich sich ja Google selbst auch… steht ja auch in den Nutzungsbedingungen drinnen. 🙂

      Technisch glaub ich persönlich nicht dran, dass sie es so einfach haben die Scrapper auszuschließen, ohne dabei Kolateralschäden in kauf zu nehmen. Ziehen sie die Zügel nämlich zu stark an, dann haben Sie den Unmut von fälschlicherweise im Filter gelandeten Usern auf sich gezogen und mittelfristig würde das zu einer Abnahme der Marktanteile führen (Usabilityverlust führt zu Userverlust 🙂 ). Und spätestens mit der Umstellung auf IPv6 sind auf einmal so viele Netze verfügbar, dass die Scrapper nicht mehr wissen wohin mit den ganzen IP-Adressen zum Verschleiern Ihrer Anfragen…

      Insofern würd ich mal abwarten und Tee trinken 🙂

    4. >>> Man kann das natürlich via robots.txt verbieten
      >>> – Google macht es dennoch.

      Nöö, natürlich machen sie es NICHT (wer weiss wo diese Idee her kommt). Täten sie es, wären sie nämlich in einer noch übleren Lage, in der die Toolanbieter sich befinden – sie könnten morgen vormittag Millionen von Klagen wegen Copyright gegenüber stehen und MÜSSTEN alle verlieren – einfach weil auf ihren SERPs fremde Inhalte stehen. Die können NUR dort stehen, weil es das Opt-Out Schlupfloch Robots Exclusion Standard gibt.

  13. Ich denke, dass Karl Kratz hier absolut recht hat. 2013 wird noch nicht Schluss sein! Allerdings vielleicht zwischen 2015-2020.
    Aber hier könnten gleichzeitig Tools entstehen, die weiterhin illegal Suchabfragen abfragen. Die IP der Crawler lässt sich ja einfach verschleiern.
    Allerdings gibt es auch berechtigt Kritik an Google. Sie sollten auf jeden Fall transparenter mit Ihren Daten umgehen. Es ist doch für jeden Webseitenbetreiber interessant, unter welchen Keywords er gefunden wurde.

    Klasse Artikel! 🙂

    1. @Paul: Danke! Wenn Google sich entscheidet, dann meistens sehr schnell. Da wird schon mal von heute auf morgen der ein oder andere Dienst geschlossen, Beispiele dafür gibt es ja genug.

  14. Notfalls heißt es dann eben wieder, die Rankings von Hand abzufragen. Also Suchbegriff eingeben und Google durchklicken. Das habe ich schon gemacht, bevor es die Tools gab. Ist natürlich back to the Steinzeit, aber hilft ja nichts. Ich glaube auch nicht recht an eine Klagewelle seitens Google, vermute aber allgemein ein agressiveres Vorgehen gegen SEO allgemein in 2013.

    1. @Marcell: Eine tatsächliche Klagewelle halte ich auch für eher unwahrscheinlich. Aber wie schon geschrieben, dürfte allein die Androhung eines juristischen Vorgehens durch Google Eindruck machen.

  15. Also ich finde das ganze in Ordnung, da ich die Tools bisher nie wirklich genutzt habe. Allerdings wundendere ich mich auch, dass Google bisher noch nichts dagegen unternommen hat, wobei zum Beispiel auch der Linkverkauf ja erst nach einer ganzen Weile „verboten“ wurde. Vielleicht wurden es jetzt einfach zu viele Toolanbieter und -nutzer?!

    1. @Max: Ich denke auch, dass bei Google das Thema absichtlich nicht aufgebauscht wurde, solange es nur ein oder zwei Anbieter gab. In letzter Zeit sind eine ganze Reihe neuer Anbieter hinzugekommen.

  16. Als erstes ein ganz großes Lob für den super geschrieben und wirklich Augen öffnenden Artikel. Gefällt mir sehr gut Vincent!!!

    Ich bin wirklich geteilter Meinung denn wer möchte auf seine Ranking News verzichten und beobachtet nicht gerne den Verlauf seiner Seite oder benötigt dies, um seine Arbeit gut zu machen. Selbst habe ich auch schon Veränderung in Abfragen am Google gespürt, was auf Veränderungen hindeutet.

    Auf der anderen Seite ist es wirklich ein Unding, dass Toolanbieter etwas teuer verkaufen, auf Daten-Grundlagen anderer Unternehmen. Im Prinzip klauen sie Daten, denn Sie geben sich nicht als Tool aus, sondern als User. Anders geht es ja schon gar nicht mehr. Sie sind nicht die einzigen die das machen, jedoch verlangen sie teilweise unmengen Geld dafür. Sicherlich auch für ihre Technologie, aber ohne die Daten wäre die selbige nichts wert.

    Ich kann wirklich nicht sagen ob ich das gut oder schlecht finden würde, eine Reaktion seitens Google könnte ich aber nachvollziehen.

    1. @Martin: Danke! Die eigenen Rankings und die der wichtigsten Mitbewerber kann man ja mit den bekannten Desktop-Tools weiterhin selbst prüfen. Wegfallen würde die jederzeit verfügbare Auswertung von Keywords und Domains aller Branchen und v. a. die historischen Daten. Besonders erwähnenswert finde ich das Zitat von Rand Fishkin, der ja vor ein paar Jahren selbst noch Bedenken wegen des Geschäftsmodells hatte, das er nun anbietet.

  17. Ich glaube auch, dass es sich um einen weiteren Versuch handelt, die Weltherrschaft an sich zu reißen. Vielleicht sind die auch einfach nur am Ende mit ihren Updates (Panda & Co.). Alle Versuche die Aussagen solcher Tools durch Google Updates abzuschwächen – sind evtl. nicht so verlaufen, wie man sich das erwünscht hat?

  18. SEO funktioniert tatsächlich auch ohne diese Tools. Allerdings tut man sich dann schwerer, an Daten zu kommen und besonders den Kunden Daten zu liefern, denen diese trauen. Denn menschlich ist es, einem (kommerziellen) Programm mehr zu vertrauen als den Fähigkeiten des SEOs.

    Google sagte ja vor einigen Monaten, „macht Seiten für Menschen und nicht für Maschinen“ und wer das beherzigt hat, steht heute immer noch gut da. Tatsächlich prüft seit einigen Monaten Google ständig mit Captchas ab, ob Anfragen von Menschen kommen oder von Tools. Die Information, dass ein Trojaner vermutet wird, ist Augenwischerei, es geht um diese automatischen Abfragen der Tools.
    Google kann damit eine nette Statistik aufbauen, von wo vermutlich solche Tools abfragen und von wo es Menschen sind.
    Die Schlinge zieht sich langsam zu.

    1. @Frank: Dem kann ich nur zustimmen. Ein eindeutiger Zahlenwert mit Verlaufskurve hat eben oft mehr Überzeugungskraft, als eine detaillierte Erklärung des Sachverhalts.

    2. Also bei mir kommen nicht „ständig Captchas“.
      Aber ich find das ganze Thema auch spannend und sehe es zwiegespalten. Mich wundert jedoch, dass es jetzt erst so langsam in Fahrt kommt, ist Google die Existenz solcher Tools (auch wenn es damals natürlich noch nicht so viele waren) doch schon seit mehreren Jahren bekannt.

    3. @stefan: Ein Grund dürfte sein, dass die Zahl der angebotenen SEO-Tools in letzter Zeit stark angestiegen ist. Mittlerweile gibt es in dem Bereich einige Startups, manche davon mit viel Risikokapital im Rücken.

  19. Endlich mal wieder ein wirklich spannender und fesselnder Artikel, der auch noch viel Zündstoff mitbringt.

    Ich frage mich sowieso schon seit langer Zeit, wie genau die Toolanbieter an die großen Datenmengen kommen, ohne dass es Google auffällt. Mir scheint, das ist wie mit dem geheimrezept von Coca Cola – naja, vielleicht nicht ganz so, denn es gibt ja immerhin mehrere Anbieter, die das recht erfolgreich praktizieren.

    Es wird wohl auf ein Katz- und Maus-Spiel hinauslaufen. Google schließt Schlupflöcher, die Tool-Anbieter ziehen nach. Da Googles Daten immer öffentlich sein müssen (sonst könnte schließlich niemand suchen), wird es auch immer Möglichkeiten geben, Daten zu sammeln und zu aggregieren.

    Andere Möglichkeit kann immer noch sein, dass es Vereinbarungen zwischen Google und den Tool-Anbietern geben wird, durch welche diese ein bestimmtes Kontingent an Anfragen durchführen dürfen. Schließlich gibt es ähnliche Vereinbarungen bereits mit Drittverwertern der Google-Suche wie etwa T-Online oder AOL.

    1. @Oneck: Danke! Das Katz- und Maus-Spiel gibt es ja schon lange. Ich denke, dass es hier aktuell eine neue Entwicklung gibt, bei der Google eine härtere Gangart einlegt. Eine Einigung mit Google wäre ein echtes Novum. Ich würde es begrüßen.

  20. Ich fände es -abgesehen von den betroffenen Agenturen- großartig.

    Stellt sich mir aber gleich die Frage, was macht Google eigentlich anderes? Es greift auch Inhalte von Anderen ab und nutzt sie zu seinem Vorteil. Und verdient da ja auch ordentlich mit.

    Also sich gegen eine komplette Front von Webseitenbetreibern zu stellen, ist auch mutig.

    1. @Oliver: Siehe auch den Kommentar von Karl Kratz. Google hat mit seinen Panda- und Penguin-Updates gezeigt, wo die Richtung hingeht. Dass als nächstes nun die SEO-Dienstleister an der Reihe sind, überrascht mich nicht.

  21. Die Gefahr besteht, wegen der mangelnden Transparenz, das SEO dann wieder zu den „Dunklen Künsten“ gehört – die Erfloge könnten dann ja nur noch inderekt nachgewiesen werden. Interessant ist auch die Abhängigkeit zu Analytics und Co, die so entsteht und sicherlich für Google später gut zu monetarisieren ist. Wüsste ja sehr gerne, wie sich die Kunden verhalten wenn solche Grafiken plötzlich wegfallen. Der Gedanke allerdings, endlich wieder dank Optik und Inhalt eine Seite zu bewerten, statt durch SI und DP, gefällt mir richtig gut!

    1. @Nicole: Die Abhängigkeit von Googles eigenen Diensten (Analytics & Webmaster Tools) ist meines Erachtens das vorrangige Ziel. Ob und wie Google die Dienste monetarisiert, ist eine spannende Frage.

  22. Danke für den Artikel.
    Ich vermute, das die Wahrheit in der Mitte liegen wird, wie so oft.

    Die Existenz der Tools ist ja für Google nicht nur schädlich. Natürlich kostet das automatisierte Abfragen der SERPs was, und bietet keine _unmittelbare_ Gegenleistung durch plazierte Ads. Dafür aber später. Denn diese Tools werden nahezu ausschliesslich von potentiellen Ad-Kunden verwendet. Diese bekommen durch das Tool eine größere Sicherheit bei der Auswahl der Keywords usw. Ich spekuliere, das diese größere Zuversicht zu höheren und gezielteren Werbeetats führt, als wenn der Werbetreibende im Dunkeln stochert.

    Von daher könnte ich mir vorstellen, das man sich zwischen den Tool-Anbietern und Google einigen wird. Vielleicht indem man Ergebnisse in Bulk-Form und einer Art verkauft, die die G-Infrastruktur nicht so belastet?

    Eine andere Möglichkeit wäre natürlich, das Google das Geschäft mit solchen Tools selbst übernimmt… Das würde mir allerdings nicht so gefallen.

    Gruß,
    Ekki

    1. “ Eine andere Möglichkeit wäre natürlich, das Google das Geschäft mit solchen Tools selbst übernimmt…“

      Das tut doch Google bereits seit einiger Zeit. Analytics wird immer mehr auf die Adwords-Kunden ausgerichtet. Wer das nicht gemerkt hat, wohin dieser Zug führt?
      Aus der Sicht von Google stören die SEOs und SEO-Tools einfach ihr Geschäftsmodell. Google kann alleine den Adword-Kunden die Daten liefern und schlecht rankende Seiten sind vielleicht gute Adwords-Kunden.

    2. @Ekki: Ich denke eher, dass Google die Toolanbieter in zwei Kategorien einteilt, wie ja auch in den drei aktuellen Fällen geschehen. Die Anbieter, die nach Googles Regeln spielen, bekommen die wenigen Daten, die Google bereitwillig abgibt. Die anderen bekommen Ärger.

  23. Wenn man wirklich effizient gegen die Tool-Anbieter vorgehen möchte, gibt es nur die Möglichkeit, ein eigenes Produkt auf den Markt zu bringen. Dafür kann man nun entweder ein bestehendes Produkt übernehmen, oder es in die Webmaster-Tools integrieren.

    1. @Constantin: Google hat mit Analytics und den Webmaster Tools ja bereits zwei eigene Produkte. Ich denke allerdings nicht, dass diese jemals die Rankingdaten liefern werden, die wir aktuell von Sistrix & Co bekommen.

  24. Sehr guter Artikel!

    Ein möglicher Workaround, falls Google die SEO-Tools ausspert: Browser-Plugin anbieten und die Nutzer die Daten sammeln lassen. Das Nutzervolumen (Nutzer > Google > Nutzer) entsteht eh, nur das dann die gesammelten Infos aus den SERP’s in die SEO-Tool-Datenbanken (Nutzer > SEO-Tool-DB’s) wandern könnten und ständig aktuell wären. Oder macht das vielleicht sogar jemand schon so!?

    Mein Wunsch, falls wir die Maja-Vorhersage überleben: Google entwickelt eine Strategie mit Win-Win-Situation für beide Seiten (und auf der Nicht-Google-Seite für die Großen und Kleinen…)

    Micha, Grüße aus L.E.

    1. Ja – hab ich auch grad überlegt. Verteiltes Datensammeln wäre eine mögliche Lösung. Doof nur bei statischer Anbindung. Vieleicht aber lösbar wenn das Stück Software gleich VPN oder Proxy Verbindungen aufbauen kann… irgendwas in der Art.
      Naja, die Jungs sind ja clever und so wird sich da wohl wirklich ein Katz- und Maus Spiel ergeben.

    2. @Micha: Danke! An eine Art Browser-Plugin habe ich auch als erstes gedacht. Das wäre meiner Ansicht nach tatsächlich eine Möglichkeit, das Problem zu umgehen. Ob die Nutzer dann noch bereit sind zu zahlen, wenn sie die Daten ja quasi selbst liefern, ist allerdings eine andere Frage. Eine Win-Win-Situation wäre eine echtes Novum, bisher heißt Googles Strategie ja eher „The winner takes it all.“.

  25. Sehr guter Artikel. Ich bin gespannt, wie Google weiter reagieren wird.

    Im Artikel steckt leider ein kleiner technischer Fehler: nicht Google nimmt die Suchbegriffe aus dem Referer heraus, wenn über die Google-SSL-Suche gesucht wurde, sondern die Browser. Das ist so auch in RFC2616 festgelegt. http://tools.ietf.org/html/rfc2616#section-15.1.3

    Das beim Übergang von einer HTTPS- zu einer HTTP-Seite keine Queryparameter mitgeschickt werden ist mehr ein Problem für die Auswerungssoftware auf der Zielseite. Webseitenbetreiber können jedoch in den Google-Webmaster-Tools die Keywords, mit denen die Besucher auf die eigene Seite gelangt sind, in Erfahrung bringen.

    1. @Shogun: Danke! Bzgl. Referrer siehe Dominiks Antwort. Google leitet alle Klicks auf die Suchergebnisse über eine nicht-gesicherte (http) Umleitung. Technisch könnte der Referrer hier problemlos übergeben werden. Selbst ohne die nicht gesicherte Umleitung könnten zumindest diejenigen Webseiten den Referrer bekommen, die ihrerseits auf https setzen. Google unterdrückt den Referrer hier ganz bewusst und verweist dabei auf den Datenschutz.

  26. Probleme haben all jene, die einerseits Google scrapen und andererseits auch offiziell die APIs von Google nutzen wollen. An der Stelle kann Google sehr gut blocken. Für die Nutzung der APIs muss man schließlich auch die Nutzungsbedingungen von Google akzeptieren. Inwieweit man allerdings den Anbietern da aktuell wirklich die Pistole auf die Brust gesetzt hat, ist schwer zu beurteilen.

    Reine SEO-Toolanbieter müssen sich meiner Meinung nach keine Sorgen machen. Es wird schon schwer zu beantworten sein, ob ihr Tun wirklich nicht in das Erlaubte fällt. Wenn es darum geht anderen das automatische Abfragen von Webangeboten zu verbieten, dürfte Google auch recht vorsichtig sein. Basiert ja schließlich auch das eigene Geschäftskonzept drauf. Google hielt es zum Beispiel auch schon für eine gute Idee, Formulare auf Internetseiten auszufüllen. Könnten ja sinnvolle Informationen dahinterstecken. Finde ich jetzt auch nicht wirklich okay …

    1. @Jojo: Für SEOmoz, Raven und Ahrefs war die Sache klar. Entweder sie behalten den API-Zugriff oder sie hören auf, die Google-Suchergebnisse zu scrapen. Den juristischen Ansatzpunkt seitens Google sehe ich vor allem darin, dass Google tatsächlich ein Schaden durch die automatisierten Abfragen entsteht. Auch wenn der angesichts Googles Milliardengewinnen vergleichsweise klein ausfällt, geht es (nach meiner Rechnung) immerhin um mehrere Millionen Euro.

  27. So schwarz würde ich es nicht sehen. Es gibt genügend Möglichkeiten ohne Adwords-API interessante Daten zu erzeugen. Bei z.B. Sistrix wüsste ich nicht wo man hier zwingend API-Daten mit einfließen lassen müsste. Es könnte natürlich künftig noch weitere Maßnahmen abgesehen von API-Einschränkungen geben, aber da wird’s dann deutlich schwieriger für Google die Interessen durchzusetzen.

    Bei der Suchmaschinenoptimierung gibt’s schon ewig Whitehats und Blackhats, wurde höchste Zeit das auch bei den SEO-Tools einzuführen ;-).

    1. @andreas.k: Dass ein SEO-Tool auch ohne AdWords-API auskommt, ist klar. Ich halte es aber für möglich, dass Googles Vorgehen gegen die Tools, die die API nutzen, erst der Anfang war und Google im zweiten Schritt auch gegen Toolanbieter vorgeht, die die API nicht nutzen.

  28. Hey Vincent,

    sehr schön geschrieben, der Artikel! Ich glaube allerdings nicht, dass google die Anbieter alle einfach so absägt. Eine Kooperation für die Daten könnte ich mir eher vorstellen. Warum den Tools nicht einfach die Daten verkaufen, die Sie brauchen. Wenn es um Kohle geht, dann macht Big G+ doch so ziemlich alles 😉

    Und notfalls, wie Marcell schon meinte, muss man halt selbst ran.

    Gruß
    André

    1. @André: Danke! Es überrascht mich, dass so viele Kommentatoren eine einvernehmliche Einigung für wahrscheinlich halten. Google hat sich bisher ja nicht gerade durch Gesprächsbereitschaft hervorgetan. Auch bei den drei aktuell betroffenen Tools gab es keine langen Verhandlungen, sondern nur eine knappe Mail mit der Aufforderung: „please cease offering any product or product feature that collects scraped data or uses scraped data“ (http://raventools.com/blog/scraped-data-serp-tracker/). Ein Angebot für eine Kooperation sieht anders aus.

  29. Angenommen Google würde tatsächlich die ganzen Tool-Anbieter verklagen und in die Knie zwingen, so ist es noch lange nicht wild. Google Webmaster Tools werden immer besser. Bing Webmaster Tools ebenfalls. Was will man mehr? Da kriegt man sogar Feedback, welche Inhalt tatsächlich aufgerufen wurden, als Informationen über bloße Platzierungen.

    Außerdem wären endlich alle (mehr oder weniger seriöse) SEOs gezwungen „gute“ Arbeit zu leisten.

    Es geht dann nicht mehr nur um den SEO Funnel sondern um alle Online Marketing Funnels. Dann wären nicht mehr allein die Rankings und Links entscheidend sein, sondern der tatsächliche Traffic und vor allem der Umsatz 🙂

    Ich würde mich freuen, wenn Google so hart durchgreifen würde. Viele SEOs die Tag für Tag nur „schlechte“ Links Tag aufbauen können (ich nenne mal keinen Namen…) und sich Null Gedanken darüber machen, was in den nächsten 1-5 Jahren sein könnte, wären damit rat- und machtlos 😀 Yeah!

    1. vermischt du grad Tool-Anbieter mit schlechtem SEO?
      Gegen schlechte Links hätte Google sicherlich bessere Möglichkeiten als Tool Anbietern den Hahn zuzudrehen. Und WMT in allen Ehren, aber manchmal muss man auch mal den Blick über den Tellerrand schweifen lassen können und schauen was die Konkurrenz so macht. Wird wohl eher schwer nen Login zu den WMTs der Konkurrenz zu bekommen, oder? 😀

    2. @Igor: Das Problem mit Googles eigenen Tools ist, dass man hier nur die Daten erhält, die Google einem bereit ist zu geben und nicht die, die man für seine Auswertungen gerne hätte. Wie Chris geschrieben hat, ist man bei Analytics und den Webmaster Tools zudem auf die Auswertung der eigenen Seite beschränkt.

    3. Hi Chris,

      ja, ich vermische es 😛 Die Tool-Anbieter machen gute Arbeit, was die Verbraucher daraus machen ist ja was völlig anderes. Es wird hauptsächlich auf den Sichtbarkeitsindex geschaut und wie viele Links man oder die Konkurrenz hat.

      Es gibt wesentlich wichtigere KPIs als die Sichtbarkeit und Anzahl der Links. Viel wichtigere Metriken haben die Toolanbieter noch gar nicht (vielleicht haben die Hersteller diese, vielleicht nur nicht öffentlich).

      An die wirklich wichtigen Daten würde man auch ohne Google kommen 😉

      Gruß,
      Igor

    1. @Igor: Da muss ich bei Gelegenheit noch die passenden Plugins nachinstallieren. Mit so vielen Kommentaren habe ich nicht gerechnet, mein Blog existiert ja erst seit ein paar Stunden 😉

  30. Schöner Artikel, aber ich glaube am Ende will Google nur seine Geschäftspartner stärker erziehen und ein bisschen Druck aufbauen. Beim Rest werden sie nicht viel machen können, denn solche Tools wird es immer geben, sie werden dann vielleicht nicht mehr so offensiv verkauft, aber sie bleiben bestehen. Ich denke, wenn sie auch zu stark dagegen vorgehen, gibt das auch den Transparanz/Monopol“Freunden“ weiter Nahrung für ihre Klagen etc. Interessant bleibt der Gedanke mit einem eigenen Tool.

    1. @Max: Danke! Kannst Du Deinen Gedanken bzgl. Transparenz/Monopol näher erläutern? Dass die Tools einfach weniger offensiv verkauft werden, dürfte das Problem nicht lösen und ist darüber hinaus eher unwahrscheinlich, da die Konkurrenz hier in letzter Zeit sprunghaft angewachsen ist. Hinzu kommt, dass einige der Anbieter Risikokapital-finanziert sind, wodurch sie grundsätzlich unter Wachstumsdruck stehen.

    2. Naja, es geht halt weiter Transparenz verloren, wer wo steht und auch wo Google eigenen Produkte stehen, wo ja gerade einige Untersuchungen anrollen gegen Google.

      Wachstumsdruck sicherlich, aber bevor mich jemand in Grund und Boden klagt, würde ich mir das nochmal in Ruhe überlegen und einfach schauen, was am Ende teurer wird. 😉

    3. @Max: So habe ich es noch gar nicht gesehen. Die angebotenen SEO-Tools tragen tatsächlich in gewisser Weise zur Transparenz der Google-Suche bei.

  31. hallo Vincent, toller Artikel. Natürlich, Verhandlungsbereitschaft sieht anders aus, da gebe ich dir recht. Die Aufforderungen sind sicher auch erst einmal als Testballon zu verstehen die die Rechtsabteilung von Google gestartet hat.

    Es bleibt abzuwarten wie viele, den drei bereits betroffenen Tools folgen werden und welche Strategie von Google wirklich dahinter steckt und ich bin mir fast sicher das Google bereits eine hat. Ich bin gespannt ob Google den Toolanbietern etwas verbieten kann was die Grundlage ihres eigenen Geschäftsmodells ist.

    Ich wünsche Euch allen ein schönes Weihnachtsfest und gesundes Jahr 2013

  32. Googles Haupteinnahme Quelle ist doch Adwords.
    Ich denke das Ziel wird sein, die potz. Kunden mehr zu Adwords zu treiben und die Clickpreise und dann schließlich den Umsatz in die Höhe zu treiben. Dazu muss man sich ja nur mal die Börsennachrichten ansehen und worauf die Analysten achten (z.B. der Durschnittliche CPC Preis über den gesamten Adwords Bereich).

    Bei den angeschriebenen SEO Tools konnte man wunderbare MashUP’s erstellen SEO Adwords . Wer gute Rankings hat, der investiert weniger in Adwords. Was ja nicht in Google Interesse liegt. Also mache ich es doch so schwer wie möglich und unterbinde solch einfache Analyse-Möglichkeiten.

    Eins muss man doch mal festhalten. SEO ist gewollt von Google und unterstützt Google in ihrem Interesse „qualitativ hochwertige Ranking“ zu liefern. Ja es gibt auch Black Hats, aber das ist ein Anderes Thema.

    Thema Klage:
    Vor deutschen Gerichten denke ich nicht das Sie eine Chance haben auf Schadensersatz. Die Richtlinien sind nicht bindend. Sie können sich einzig auf das „Hausrecht“ berufen, aber dann sind Sie auch Monopolist und haben Verantwortung und Pflichten(Chancengleichheit, Fairness, Transparenz,usw.). Auf Umgehung einer technischen Sperre kann Google sich berufen, aber so wie Google selber mit Robots,txt und Canonical umgeht, ist das schnell zu entkräften mit einem wissenschaftlichen Test.
    Vor deutschen / europäischen Gerichten sehe ich da kaum Chance auf Schadensersatz nur einen grossen Imageschaden.
    Vor US Gerichten kann ich das nicht beurteilen.

    Ich glaube nicht das Google das Ganze Thema weiter forcieren wird. Wie in vielen Fällen, ist das ne Flagship Aktion und dann ist wieder Ruhe.

    1. @Benjamin: So direkt sehe ich den Zusammenhang zwischen den SEO-Tools und dem Interesse an AdWords nicht. Grundsätzlich ist aber klar, dass Googles Aktionäre von Quartal zu Quartal steigende Gewinne erwarten und Google immer feinere Anpassungen vornimmt, um diese zu liefern.

  33. Interessant dass die SEO-Toolanbieter bei jedem Mucks rund um SEO Tools sofort reagieren und kommentieren. Wenn es möglicherweise um ihre Existenz geht – kein Kommentar loslassen. Entweder sie wissen mehr oder sie halten sich bewusst raus. Wäre mal interessant zu wissen was Searchmetrics, Sistrix, Xovi, Seolytics usw. zu der ganzen Geschichte sagen und keine Wasserschäden oder ähnliches melden.

    Ich persönlich kann es nicht wirklich einschätzen. Google macht so viele Milliarden, da würden mich die paar Kröten nicht wirklich interessieren die durch die maschinell erstellten Besucher entstehen.
    Ob Google mehr davon hat wenn es keine Toolanbieter mehr gibt? Ich weiß es nicht.

    Wenn Google das Thema Tools wirklich mehr interessieren würde, würden sie doch selber Analytics ausbauen, bessere Backlinkdaten liefern usw. – in der Richtung bietet Google ja noch nicht so wirklich viel, gerade was die Backlinks angeht.
    Wenn es doch aber majestic und wie sie alle heißen mittlerweile echt gute Daten liefern, dann könnte Google das doch 10 x so gut!

    Oder ein eigenes Online Tool starten dass die Werte der aktuellen Toolanbieter liefert. Wäre doch viel einfacher für Google. Warum sie das bis heute nicht machen? Weil sie vielleicht eben genau diese ganzen Daten nicht zeigen möchten damit man dem Algo nicht zu nahe kommt. Whatever… spannend bleibt es allemal.

    Mein Tipp: SEO Tools wird es auch in den nächsten Jahren geben, genau wie Backlinks (egal welcher Art, Form usw.) immer noch der wichtigste Rankingfaktor neben der Onpage ist, trotz zig neuer, veränderter, innovativer usw. Rankingfaktoren, Pandas usw. – und auch hier zerbrechen sich immer tausende Leute den Kopf 🙂

    1. @Andreas: Dass die Anbieter der Tools sich zu diesem Thema bisher nie geäußert haben, liegt möglicherweise daran, dass das Thema tatsächlich einigen Sprengstoff birgt. In letzter Zeit rechnet Google übrigens immer mehr mit spitzer Feder. Google hat bereits zahlreiche nicht-rentable Dienste eingestellt und manche ehemals kostenlosen Dienste kostenpflichtig gemacht.

  34. Ich denke, dass Google, die Abfragen der Tool Anbieter in der Vergangenheit nicht zu 100% negativ bewertet hat. Wird doch bei den AdWords Kunden damit geworben, dass es noch soviel Potential aufgrund der Abfragen gibt. Und wenn die Türe doch zugehen sollte – dann langsam. Zuerst einmal werden wohl API Gebühren verlangt werden. Wenn sich das finanziell nicht mehr ausgeht werden sich die Toolanbieter wohl mehr auf das Finden von Onsite Fehlern spezialisieren wie das beispielsweise Marcus Tandler mit http://www.OnPage.org macht, der vielleicht schon in die Kristallkugel für 2013 geschaut hat. Ausserdem werden wir 2013 mit Facebook SEO Optimierung weitermachen und dafür gibt es noch kein Tool 😉

    1. @Michael: Ich denke, so kurzfristig kalkuliert Google nicht. Außerdem bezahlen die AdWords-Kunden ja per Klick und nicht für das Potential. Für die Rankingabfrage nutzen die Toolanbieter übrigens keine API. Google nutzt bei den drei bisher betroffenen Tools lediglich den Zugang zur AdWords API als Druckmittel, um das Scraping zu unterbinden. Die AdWords API ist meines Wissens ohnehin kostenpflichtig.

  35. Kann mich nicht vorstellen, dass diese ganzen SEO Tools ins offene Messer von google laufen werden. Der einfachste Weg wird es dann sein, die Tools einfach in eine Bananenrepublik umzuziehen, wo es mit der rechtlichen Durchsetzung von Googles Ansprüchen so eine Sache sein wird.

    Wirklich sinnvoll kann Google dies nur dann verhindern, wenn jeglicher automatisierter Zugriff von Außerhalb verhindert werden kann. Ob das technisch möglich sein wird, wird sich zeigen.

  36. Hallo,

    für Suchmaschinen dürfte es eigentlich besser sein, wenn ein paar große Toolanbieter Google abfragen, als wenn es die ganzen Tool-Kunden selbst tun würden. Bin mal gespannt, wie die Geschichte weitergeht. Womöglich bringt Google ja auch selbst ein Tool heraus…

    Grüße

    Gretus

    1. Hallo Gretus, ja, das ist ein Argument. Allerdings sind in letzter Zeit derart viele neue Tools auf den Markt gekommen, dass das Verhältnis offenbar langsam kippt. Nicht zuletzt auch deshalb, weil einige Anbieter sich einen Wettbewerb zu liefern scheinen, wer die meisten und aktuellsten Daten liefert (= von Google abruft). Ein wirklich brauchbares Tool zur Rankingabfrage von Google selbst wäre eine überraschende Wendung.

  37. Es gäbe schon ein paar Alternativen, z. B. Daten von verteilten Quellen zu ziehen und eben nicht so großvolumig. Das wäre für Google dann nicht mehr so einfach erkennbar. Dass das mal irgendwann passiert, dass Google sich gegen solche maschinellen Abfragen wehrt, war ja aber abzusehen. Es ist erstaunlich, dass einige Anbieter diesen Fall nicht vorgesehen haben bzw. ein Plan B offenbar fehlt. Google macht seit vielen Jahren schon dicht, wenn maschinell zu viele Abfragen von einer IP kommen und man bekommt einen schönen Warnbildschirm und ein Captcha. Ignoriert man das, wir die IP auch schon mal gerne ein paar Tage gesperrt. Wenn man täglich Mio. von Datensätzen zieht, hätte man sich eigentlich hier schon länger Gedanken machen müssen, wie lange das noch gut geht…

    Das Ende der SEO-Tools würde ich nicht gleich einläuten. Womöglich müssen wir alle aber zukünftig mit eingeschränkten Funktionalitäten leben. Vielleicht werden die Anbieter zukünftig auch nicht mehr präventiv (!) für jede Domain so exzessiv Daten erheben können. Es wird auf jeden Fall spannend, was da nächstes Jahr im Detail passiert!

    1. @Mario: Den Warnbildschirm kennen wir wohl alle 😉 Ob die Anbieter einen Plan B haben, wäre interessant zu wissen. Im Moment geben sich alle scheinbar sehr gelassen. Die Idee mit verteilten Abfragen wurde in den Kommentaren weiter oben schon aufgegriffen. (Browserplugin, mit dem die Nutzer der Tools die Daten quasi selbst liefern.) Grundsätzlich sehe ich das Problem eher nicht auf technischer Seite. Solange Google für menschliche Nutzer offen ist, werden es die Anbieter immer schaffen, die Daten auch automatisiert abzurufen. Die Frage ist eher, ob Google hier eine juristische Handhabe hat.

  38. interessanter artikel. was mich allerdings stoert ist diese elendige panikmache. natuerlich bricht mit der aktuellen google-strategie das transparentmachen der seo-aktivitaeten weg. aber … hier wird sicherlich schon aufgrund des seo-marktes einiges kompensiert werden.

    wir nutzen uebrigens ausschliesslich eigene monitoringapps. das macht mich unabhaengig von den großen anbietern und ich besitze die quellcodes fuer die auswertung der erwirtschafteten positionen.

    1. @hannes: Mit eigenen Tools die Funktionalität und den Datenumfang von Sistrix, Searchmetrics etc. zu erreichen, dürfte allerdings schwer werden.

  39. Es gibt noch andere Möglichkeiten an diese Daten zu kommen. Sicherlich ist die Aufbereitung der Daten dann viel aufwändiger, aber Möglichkeiten wird es ganz bestimmt immer geben. Dies ist genau wie bei „SEO“: Änderungen wird es immer wieder geben, aber das ist kein Grund zur Panik.

    1. @Jan: Ich auch! Bisher wurde der Artikel immerhin über 3.000 Mal gelesen, und das, obwohl mein Blog erst vor ein paar Stunden das Licht der Welt erblickt hat 🙂

  40. Wow… Verdammt Interessanter Artikel, echt. Ein klein wenig beängstigend für die kostenpflichtigen SEO Tool Anbieter aber nicht der Insolvenz nahe. Glaube dies ist eher eine Herausforderung für ein umdenken o. sich mit Onkel Google(Germany) mal an einem Tisch zu setzten. Leider kann ich in meiner momentalen Situation nur free Tools bzw. trail vers. nutzen, jedoch hab ich durchgehend seit dem Ende vom YSE gemerkt wie schwer es geworden ist an die gewünschten Daten zu kommen. In den letzten 2 Wochen wieder einige Tools zur hälfte weggebrochen. Also echt das stresst & nervt unheimlich! Irgendwann reicht es doch. Ganze Welt weiss ja schon, dass Onkel Google die Macht ist aber langsam wird es zur Diktatur! Da denk ich direkt an das 1. Gesetzt der Hacker Bibel! „Alle Daten sollen jedem frei zur Verfügung stehen … etc.“. komm ja schon zum Ende… hehe 😛 (wie gesagt:Is echt n super Thema). Glaube aber das 2013 erst stark Diskutiert wird und hoffe, dass eine Positive Lösung zwischen uns seo’s und dem dicken Onkel angestrebt wird. Und noch eine kl. Anspielung mit den Worten: Herausselektieren der Top Tools / Anbieter. Doch dann Anstieg der Dienstleistungspreise!!!
    Grüße an alle & an Verfasser.

  41. Google könnte mal den ganzen Kunden erklären, die immer noch auf Rankings schauen, dass das kein umfassendes Qualtätsmerkmal für SEO Dienstleistungen ist.

    Und die anderen Tools vom Markt werfen könnte Google auch ohne Klage: einfach die Zahlen in den Webmastertools qualitativer machen, fertig. Quasi Microsoft Taktik: den SEO Tools den Mehrwert entziehen, in dem man selber die Leistung für umsonst anbietet.

    1. @Markus: Einen Überblick über die eigenen Rankings erhält man mit den Google Webmaster Tools ja bereits. Ich denke allerdings nicht, dass Google die Auswertung der Rankings beliebiger (fremder) Domains anbieten wird.

  42. Ich aus meiner Sicht empfinde dieses ganze SEO-Bashing unter den SEOs zwar als selbstzerstörerisch, aber das ist ja nur meine Meinung.

    Finde es eben ziemlich vermessen, wenn sich der „“elitere“ Kreis der deutchen SEO-Szene darüber auslässt, dass nur sie die ultimativen Lösungen finden – das ist so lächerlich…denn wie sagte meine Oma schon immer: „Die kochen auch nur mit Wasser…“ da hilft auch keine Prof. oder Dr. vorm Namen…was letztendlich zählt sind Resultate und nichts anderes…natürlich kann ich mich durch Branding super positionieren und zum SUPER-SEO aufsteigen, wenn ich hier und da auf ne Messe gehe, erzähle was die meisten schon wissen und dann noh n bissl Werbung für mich und meine ach so tolle Agentur mache…denn ganz ehrlich..wenn die GROßEN wüssten, viel viele Unternehmen im nachhinein die Betreuung durch eine kleinere Agentur bevorzugen, da sie bei großen namen nur abgespeist und vertöstet wurden, da ihr Budget nicht mal ausreicht, den exklusiven Kaffee der Agentur zu finanzieren…aber da stehe ich sicherlich allein auf weiter Flur, was die aktuelle SEO Wahlen von SEo United beweisen sollten…aber so lange es läuft

  43. Naja das so eine Nutzung dauerhaft nicht gut gehen kann war zu erwarten. Doch halte ich die SEO-Branche für entsprechend kreativ auch solche Hürden zu umgehen. Hinternisse führen auf die Dauer zu neuen Innovationen.
    Tja und Google spart durch solche Sperrungen mächtig Kosten und entwickelt sich so immer mehr zu einer „One Man Show“.
    Bendeklich finde ich die Monopolstellung von Google generell und würde es begrüßen, wenn es langfristig im Suchmaschinenbereich mal wieder zu echten Mitbewerbern kommen würde.

    1. @tobias: Technisch sind die Tools sogar sehr innovativ. Falls es aber tatsächlich zu einer juristischen Auseinandersetzung kommen sollte, spielen Kreativität und Innovation wohl keine Rolle.

  44. Ich denke, dass die Aktion von Google total überinterpretiert wird.

    Ich weiß von einem deutschen SEO-Tool-Anbieter dass schon vor einem 3/4 Jahr der API-Zugang aus diesem Grunde deaktiviert wurde, mit der Begründung, dass man gegen Nummer 2, 3a der Richtlinien verstößt:

    „Übertragung von AdWords-API-Berichtsdaten. Sie dürfen die AdWords API-Berichtsdaten weder ganz noch teilweise verkaufen, verteilen, sublizenzieren oder anderweitig an Dritte weitergeben oder übertragen (mit der Ausnahme, dass Sie berechtigt sind, die AdWords-API-Berichtsdaten eines bestimmten Kontos an den Inhaber dieses Kontos weiterzugeben).“

    https://developers.google.com/adwords/api/docs/terms?hl=de

    Ebenfalls weiß ich, dass Google mit dem API- Zugang schon ungefährt seit dieser Zeit sehr restriktiv umgeht und Tokens wirklich nur noch für Agenturen oder Werbetreibende mit ordentlichen Umsätzen bei genauer Vorstellung der API-Nutzung vergibt.

    Dieser Tool-Anbieter nutzt daher (heimlich) die API von jemand anderen und ich bin eher überrascht dass andere Anbieter tatsächlich die API direkt so noch nutzen konnten.

    Bin mir sicher, dass die Tools die jetzt argumentieren „Wir nutzen die API gar nicht“ das genauso machen 😎

    Ich vermute bei dieser Maßnahme keinen tieferen Sinn von Google, sondern dass einfach bei einem regelmäßigen Check der API-Zugänge festgestellt wurde, dass die Konten wohl kaum Adwords Umsätze haben und ausschließlich Keyword Statistics gezogen wurde -> oben genannter Verstoß.

  45. Ein sehr guter Artikel! Und anscheinend stichst du hier in ein Wespennest, sonst gäbe es nicht so viele Kommentare und Reaktionen.
    Ich denke, dass Google in Zukunft alles dagegegen unternehmen will, dass automatisierte Abfragen von Crawlern oder anderen Tools in dieser hohen Anzahl auf die Suchmaschine zugreifen. Google will, dass reale Personen Abfragen stellen, nur mit diesen lässt sich Geld mit Werbung verdienen, da diese dann aus eigenem Interesse auf die Werbeanzeigen klicken. Oder sich für die weiteren Google Dienste wie z.B. Google plus anmelden. Das ist das zentrale Geschäft von Google – automatische Abfragen kosten nur Geld, bringen aber (fast) nichts ein.

  46. Als nicht SEO würde ich, sollten die Tools tatsächlich nicht mehr funktionieren, damit rechnen, dass die Branche auf die Vor Tool Zeit zurück fällt.
    Ich denke das SEO war vor dem Tool, einfach weil es Sinn macht.
    Für Webseiten Betreiber wird SEO dann vermutlich teurer und die Ergebnisse werden schwerer nachzuvollziehen.

    Google ist evil 🙂 Die schalten alles ab was sie kontrolliert und agieren schlimmer als MS zu seinen finstersten Zeiten. Alles vor dem Vorwand der „Reinheit der Suchergebnisse“ dabei geht es doch nur um Gewinnmaximierung. Wenn weniger Geld in SEO fließt, dann geht es halt in SEA.

    1. @Sascha: Ähnlich wie bei MS damals findet bei Google ja gerade eine Kartellrechtsuntersuchung statt. Bleibt zu hoffen, dass Google hier zumindest in einigen Punkten eine Einschränkung erfährt.

  47. Tja, die Frage ist doch ob Google selbst etwas anderes macht-
    deren Bot’s scannen ja auch alle Seiten und verursachen enormen Traffic.

    Wenn es denn so kommt, wird das ein herber Schlag fuer die grossen SEO Agenturen. Aber der findige Geist wird eine Loesung finden.

    1. @Kosmopolit: Ein Unterschied besteht allerdings darin, dass man den Google-Crawler durch eine Einstellung in der robots.txt-Datei von der eigenen Webseite fernhalten kann (wenn man das denn möchte). Google hat für seine Suchmaschine selbst diese Einstellung vorgenommen, um andere Crawler von den Google-Rankings fernzuhalten (www.google.com/robots.txt). Die Crawler der Toolanbieter halten sich aber natürlich nicht an diese Vorgabe.

  48. @Kosmopolit
    „Aber der findige Geist wird eine Loesung finden…“

    Kommt es nicht gerade darauf bei der SEO auch an?
    Solange Webseiten nicht nur für den Betreiber selbiger, sondern auch für ein Publikum gestaltet werden, wird auch der Bedarf existieren, von anderen gefunden zu werden.

    Von daher wird es SEO, die entsprechenden Tools und SEO-Anbieter genauso lange geben, wie den Bedarf gefunden zu werden…

    1. @bianca: SEO-Tools wird es natürlich weiterhin geben. Die Frage ist, ob diese auch in Zukunft auf gescrapte Google-Daten zugreifen können und eine Rankinganalyse im selben Umfang ermöglichen, wie es aktuell der Fall ist.

  49. toller artikel und diskussion. obwohl wir mit serpos ein kleiner anbieter sind werden wir zum start der neuen version auch keine rankingdaten mehr crawlen. der kunde kann dann ueber api bzw direkt seine positionen einspielen
    es ist fuer google sehr einfach uns auszusperren. hier muss nur die ausgabe auf javascript umgestellt werden und schon sind unsere crawler erstmal blind…

    viele gruesse von der verschneiten ostseekueste
    carsten

  50. Der Tenor hier ist ein bisschen: SEOs sind böse. Fakt ist doch: Google beherrscht das Web, nicht nur die Suche. Die meisten Onlinesitzungen von Kosumenten und B2B-Kunden beginnen mit einer Suche bei Google. Kaum ein Internet-Geschäftsmodell ist ohne Traffic aus der Suche (bezahlt oder organisch) vorstellbar. Google verteilt den Traffic und bestimmt das Schicksal der Webseitenbetreiber.

    Bei einer so großen Abhängigkeit ist es doch nur naheliegend, dass die Marktakteure alles, was an Informationen verfügbar ist nutzen, um aus den Daten Ableitungen für die eigene Strategie (für das langfristige Überleben) zu gewinnen. Genauso wie man in der Offlinewelt klassische MaFo betreibt.

    Eine parallele Funktion erfüllen im Web die SEO-Tools, die nicht nur die Google’s Webmaster Tools die Impressions und Klicks bezogen zur eigenen Domain zeigen, sondern auch die der anderen Marktteilnehmer.

    Man könnte einwenden: Schaffe hohen Nutzerwert für User, generiere „großartigen Content“ und „exzellente Nutzererfahrung“, dann sind keine Massnahmen zur Sicherstellung der Sichtbarkeit in der Google-Suche nötig.

    Wahrscheinlich stimmt das nicht. Wahrscheinlich kann man den besten Content und die beste Nutzererfahrung anbieten, landet jedoch mit seiner Seite nicht auf Platz 1 bis 10 der Google Suchergebnisseite, auch wenn die Keywords relevant sind.

  51. Normalerweise bin ich eher gegen staatliche Regulierungen im Netz, aber wenn google so weiter macht (wie in der SEO Szene ja angenommen wird), dann müsste der Staat einschreiten.

    Das quasi Monopol von google ist ja unumstritten. Die Bahn als (ehemaliger) Monopolist muss ihr Schienennetz anderen Anbietern zur Verfügung stellen. Bei den
    Netzbetreiber sieht es ähnlich aus.

    Wenn die Toolanbieter die Daten haben wollen, dann kann man natürlich auch argumentieren, dass sie dafür einen angemessenen Preis zahlen müssen, da google durch die Tools Mehrkosten entstehen.

    Man sieht ja, dass aufgrund der vermutlich geringen Kosten/hohen Gewinnmargen der Toolanbieter in den letzten Jahren zahlreiche weitere Anbieter auf den lukrativen Markt gekommen sind und sich die Daten weiterhin kostenlos beschaffen.-

    Wenn es google aber tatsächlich nur um das „Aussperren“ der Tools geht, um auch hier die eigenen Angebote zu pushen, dann ist es spätestens hier um die einstige Firmenphilosophie geschehen.

    1. @Raphael: Ein Kartellverfahren der EU gegen Google läuft ja bereits bzw. wird zumindest geprüft. Die ursprüngliche Firmenphilosophie hat Google m. E. längst dem shareholder value geopfert.

  52. Das ist der größte Schwachsinn den ich in den letzten Tagen gelesen habe.
    1) seomoz hat die Sperre der Adwords API akzeptiert und stellt weiterhin Ranking-Daten zur Verfügung.
    2) Das Geschäftsmodell von Raven ist möglichst viele API´s auf einer Plattform zu vereinen. Deshalb auch die Entscheidung lieber die Adwords-API drin zu lassen.
    3) ahrefs liefert hauptsächlich Backlink-Daten. Die hatten nie eine Adwords-API und sind ganz einfach auf den Zug aufgesprungen um den Werbeeffekt mitzunehmen. Die Rankings waren für ahrefs wahrscheinlich schon immer Balast und die sind wahrscheinlich froh den Part nun loszuwerden.
    4) Google entsteht kein Millionenschaden. Du kannst nicht einfach API-Kosten von Bing mit den Kosten die Google entstehen miteinander vergleichen. Die Abfragen der Tools frühstücken die Server von Google so ab.
    5) Warum sollte Google den SEO-Tools etwas verbieten was die selbst tun? Die Tool-Anbieter speichern auch nur die Positionen einer Domain zu einem Keywords. Was soll an so einer Analyse verboten sein?

    1. @Dennis: Bei den Punkten 1-3 sehe ich keinen Widerspruch zu dem, was ich geschrieben habe.

      Zu 4: Die Tatsache, dass Google die Abfragen problemlos abfertigt, heißt nicht, dass dadurch keine Kosten entstehen. Google investiert hunderte von Millionen in seine Datencenter und könnte (z. B. in einer Schadensersatzklage) sicher problemlos darlegen, wie viele der Server rechnerisch mit der Beantwortung von automatisierten Abfragen ausgelastet sind. Im Beitrag gehe ich davon aus, dass Google im Falle eines juristischen Vorgehens den entstandenen Schaden anhand eines „marktüblichen“ Preises errechnen würde. Insofern sind die Bing-API-Preise ein guter Anhaltspunkt.

      Zu 5: Das Argument ist naiv. Google bestraft bspw. auch Webseitenbetreiber, die above-the-fold zu viel Werbung einbinden. Gleichzeitig bestehen die Google-Suchergebnsise above-the-fold teilweise zu fast 100% aus Werbung. Meiner Einschätzung nach ist Google zu allem bereit, was den shareholder value erhöht. Die Frage ist eher, ob bzw. wann der Schaden für Google groß genug ist, dass sich ein Vorgehen gegen die Toolanbieter lohnt. Die aktuelle Aktion lässt vermuten, dass es bald soweit sein könnte.

  53. Ich denke nicht, dass Google hier eine rechtliche Handhabe hat. Solange eine Abfrage die Technik insgesamt nicht stört (Stichwort DoS), liegt es bei Google, wem sie Ergebnisse ausliefern und wem nicht. Zudem ist Google selbst ein Crawler, der so gesehen Abfragen auf fremden Seiten macht und auch eine gewisse Rechenleistung einfordert.

    Letztlich dürfte es auch schwierig sein, einer gut durchgeführten automatisierten Abfrage auf die Schliche zu kommen. Mittels Proxies, User-Agent-Spoofing und kleineren Wartezeiten sieht man einer Anfrage nicht mehr an, ob sie von einem Menschen oder einer Maschine kommt.

  54. @Dennis: Denke auch nicht dass Google dagegen vorgehen kann / wird. Es ist schlicht unmöglich SEO Toolanbieter rechtlich anzugehen. Wenn man bedenkt wie wenige Toolanbieter es gibt und wie viele Klicks diese verursachen, ist das ein Klacks im Gegensatz zu den hunderten Millionen Nutzer die täglich auf Google nach Ergebnissen suchen. Daher bin ich mir sicher dass die Toolanbieter weiter problemlos ihre Kreise ziehen werden…

  55. Searchmetrics hat sich nun von alleine ins aus katapultiert, google musste da nicht einmal was machen. Wie man so hört steht es bei denen nicht so gut und selbst im letzten Geschäftsbericht auf Bundesanzeiger.de ist offiziell zu lesen, das Ende 2013 eine Überschuldung erwartet wird. Die Zahlen selbst sprechen Bände….

  56. Sehr interessantes Thema. Und tatsächlich hat ja schon Raven Tools in den USA klein beigeben müssen. AdWords API-Zugriff nur noch wenn das Scrapen beendet wird. Raven hat allerdings jetzt die Daten aus den Webmaster Tools integriert, die bekannterweise relativ unbrauchbar sind (http://goo.gl/m5rCKk).
    Dies bedeutet aber auch, dass Google die Möglichkeiten hat, das Scrapen zu unterbinden.
    Vielleicht ein Vergleich: ebay möchte das auch nicht, aber es gibt eine Menge Bid-Tools, die automatisch mitbieten. Das ist laut ebay ABG untersagt.
    Biet-o-Matic hat bereits 2002 sich mit evay auseinandergesetzt. Es gab sogar eine EV gegen die Anbieter. Letztlich verlor der Anbieter sogar vor Gericht und die Software ist heute Open Source. Eine Klage gegen einen andere Software hingegen wurde abgewiesen. Die Story von Biet-O-Matic gibt es hier:
    http://www.bid-o-matic.org/hp/story.php
    Das bedeutet: Es ist rechtlich nicht ganz eindeutig, aber eine Klage ist nicht ausgeschlossen. Zwar ging es in der Klage nicht primär um das Scrapen sondern um den verschafften Vorteil, dennoch gibt es Biet-O-Matic noch und viele andere Tools.
    Ich denke, Google wird eher technisch versuchen, das in den Griff zu kriegen. Wir haben mal hochgerechnet, dass alle Tools zusammen weltweit ca. 10% des gesamten Suchvolumens ausmachen. Sobald die Zahlen bei den Anbietern nicht mehr stimmen, werden die Kunden abspringen. Eine Klage könnte zuviel Wirbel verursachen. Vielleicht versucht Google wie bei Raven Tools durch Gespräche was zu bewirken. Aber ich denke auch, dass Google hier aktivier wird.
    Wir haben zur dmexco ein neues Tool gestartet, Forecheck (www.forecheck.de, und bevor einer Schleichwerbung schreit: Wer es testen will bekommt von mir eine kostenlose Lizenz, einfach Mail an kaiser at cyberpromote.com), und da gehen wir einen anderen Weg.
    Der Nutzer nutzt seine eigene Internetverbindung um Platzierungen zu ermitteln. Dieses Feature ist in der aktuellen Version noch nicht drin, aber es ist eine Variante, die Google nur schwer unterbinden kann.
    Das ist nicht neu, es gab früher schon Tools die das konnten, bis webbasierte Dienste populär wurden. Diese sind aber leichter angreifbar. Es gibt eine Menge Tricks, um ein Blocken zu verhindern. Ich weiss auch nicht wie Searchmetrics seine Daten sammelt. Unsere eigene webbasierte Lösung wurde schon 1999 von Yahoo geblockt. Damals allerdings kamen alle Daten von einem Server von einer festen IP, also leicht zu ermitteln und zu blocken.
    Neben den Tool Anbietern treffen die Algorithmus Änderungen auch einige SEO Agenturen. Das BVDW Zertifikat beinhaltet bis heute kein Wort über gekaufte Links. Wir haben es auch, aber es ist immer noch ein Blendwerk. Die Änderungen durch Google haben einige Agenturen getroffen. Ich denke, es wird hier noch einiges passieren. Auf der dmexco haben ein paar SEO Agenturen gefehlt, die letztes Jahr noch dabei waren. Es bleibt sicher spannend, in vielerlei Hinsicht.

  57. Da Google nun auch (not provided) auf breiter Front durchsetzt, zeigt sich klar, was Google will. Wenn die wollen, machen die.
    Ich denke auch nicht, dass Google rechtlich dagegen vorgehen wird. Möglicherweise werden die die Anbieter vor die Wahl stellen:
    Ihr zahlt ein bisschen was und wir lassen Euch in Ruhe.
    Und darüber gibt es eine Verschwiegenheitserklärung. So könnte man das Problem auch lösen. Ich denke auch, wenn die wollen, können die den Hahn abdrehen.
    Das wird übrigens auch mit vielen Linknetzwerken passieren, auch den geschlossenen. Es wird noch etwas dauern, aber nach und nach macht Google Ernst.
    In dem Zusammenhang sollte jeder mal prüfen, wa für Verträge er hat. Jahresabos bei searchmetrics scheinen gerade nicht sinnvoll zu sein.

Schreibe einen Kommentar zu Dennis Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert