Das Putzlowitsch Test- und SEO-Blog

Hurra, hurra, Rivva ist wieder da! :-)

Rivva hatte in den letzen Tagen auf Grund von Serverausfällen mit einigen Problemen zu kämpfen, war tagelang nicht erreichbar. Dann war auch noch Rivva-Mastermind Frank Westphal krank geworden.

Wenn Rivva down ist, fehlt der schnelle Überblick über die angesagten Themen der deutschen Blog- und Twitterlandschaft. Zum anderen ist Rivva ein wichtiger Faktor in der zusammengerechneten Blog-Top-Liste.

Nun ist Rivva wieder da, die Leitmedien zwar noch auf dem Stand vom 26. März, aber zumindest kann man schauen, was so los ist. Da will ich mal hoffen, daß das nun etwas länger so bleibt. Ich bin auch gern dazu bereit, etwas dafür zu tun, einen Beitrag zu leisten, aber wie und was könnte helfen?

Keine Kommentare »

Aktuelle Brötchen-News vom 27.03.2010

Brötchen-News vom 27.03.2010Nach den positiven Meldungen vom12. und vom 17. Februar kann ich dieses mal nur wenig erfreuliches berichten.

Die gute Nachricht zuerst: Ritter Gerald steht mit seinem SEO-Brötchen tapfer wie eine Eins direkt auf Platz 2 unmittelbar hinter der dunklen Brötchen-Macht. Er hat sich von den Kämpfen auf dem Brötchfeld bisher nicht beeindrucken lassen.

Und nun die schlechte Nachricht: Ritter Ingo mußte mit seinem Brötchen ein paar Federn lassen und ist auf den 5. Platz zurückgefallen. Wie man beim Brötchen-Beobachter sehen kann, ging es in zwei Tagen um zwei Plätze nach unten. Das kann man schon fast als erdrutschartige Verluste bezeichnen, zumal es sich diesmal nicht nur um Filtereffekte von Google SafeSearch handelt.

Sollte etwa meine Linkaufbau-Strategie nach hinten losgegangen sein? Oder hängt das einfach nur mit den derzeitigen Schwankungen bei der Bildersuche zusammen?

Das muß man einfach abwarten. Allerdings habe ich das unbestimmte Gefühl, daß sich in den nächsten Tagen noch einiges mehr in der Google-Bildersuche bewegen wird. In welche Richtung kann ich nicht sagen, aber es wird nichts mehr sein wie früher. :-)

Weitere Artikel mit Bezug zu diesem:
Keine Kommentare »

Google-Bildersuche instabil

Im Moment, oder genau genommen schon länger, sind die Ergebnisse der Google-Bildersuche äußerst instabil. Das betrifft einerseits das Ranking, aber andererseits besonders auch die Anzahl der Bilder. Bei Banane schwanken die Zahlen z.B. zwischen 225000 und 773000 hin und her, bei Katze zwischen 260000 und 832000 und bei Bildersuche zwischen 136000 und 226000.

Besonders gut kann man das sehen, wenn man für den gleichen Suchbegriff einmal images.google.de und dann www.google.de befragt. Es klappt nicht immer, aber nach ein paar Versuchen ergeben sich die Unterschiede. Die Frage ist nun, welche Werte stimmen bzw. die neuen sind und welche noch nicht aktualisiert wurden. Naja, muß man halt alles weiter beobachten…

4 Kommentare »

Referertrick – Referer-Spam mit System

Referer-Spam ist ja nichts Neues, dazu habe ich schon vor einiger Zeit etwas geschrieben.

Gefälschter Referer -> Spam

Der Referer wird normalerweise beim Aufruf einer Seite vom Web-Browser des Benutzers an den Webserver im sogenannten HTTP-Request mitgeschickt, kann aber ebenso fehlen oder sonst irgendwie verändert sein. Da diese Information beliebig gesetzt werden kann, ist nicht gewährleistet, das sie auch stimmt. Genau solche „gefälschten“ Referer machen sich Spammer zu Nutze und setzen den Refefer auf eine Seite, von der gar kein Link auf die aufgerufene Seite zeigt.

Spamziel -> Neugierige Webmaster und öffentliche Statistik

Was hat ein Spammer nun von so einem auf eine „beworbene“ Seite zeigenden, falschen Referer? Zwei Aspekte spielen dafür eine wichtige Rolle.

Zum einen die Neugier des Webmasters, der gerne wissen möchte, wer denn da und warum auf die eigene Seite verlinkt. Damit hat die bespammte Seite schonmal einen Besucher mehr. Ich gebe zu, ich gucke da auch manchmal nach, woher die Links kommen :-)

Zum anderen gibt es Webseiten, die ihre Zugriffsstatistik öffentlich einsehbar auf einer Seite bereitstellen. Meist gibt es da auch einen Bereich mit der Herkunft der Besucher, als der referenzierenden Webseite, die dann oft sagar als Link ausgegeben werden. Über die Bedeutung von Links im allgemeinen und für das Suchmaschinen-Ranking im besonderen brauche ich wohl keine großen Worte verlieren.

Referer-Spam mit System

Seit ein paar Tagen, konkret seit dem 18. März, befinden sich in meinen Log-Dateien Referer von der Seite referertrick.com (seit kurzem auch mit .de).
Die Zugriffe kommen bisher von den drei IP-Adressen 87.118.82.66, 87.118.82.104 und 87.118.116.23. Ich habe noch etwas „zurückgeblättert“ und festgestellt, daß es bereits im Dezember 2009 ein paar Zugriffe von einem Bot namens „SourceSpider/2.1“ über die IP 87.118.82.66 gab. Im Januar wurde vermutlich eine Testlauf gestartet, da tauchte dieser Server mit „Kunden-Referer“ auf.

Auf der referertrick-Webseite heißt es ganz unverblümt:

Wir senden HTTP-Pakete an alle Webseiten des Internets. Dabei wird Ihre Webseite als Referer aufgelistet.
Die Inhaber dieser vielen (teilweise Millionen) anderen Webseiten glauben daher, dass Sie auf diese Webseite verlinken würden, und besuchen Ihre Webseite aus Neugierde.
Jeder Besucher ist ein potentieller Kunde, ganz zu schweigen von der Suchmaschinen-Optimierung durch die vielen Statistik-Links!

Geld verdienen im Internet

Das Ganze klingt natürlich erstmal nach einer cleveren Geschäftsidee. Ich halte es allerdings für eine weitere Art von Spam, die irgendwann nur nervig ist.

Irgendwie paßt das auch ganz gut zum aktuellen Thema des Webmasterfridays „Was ist die richtige Linkbuilding-Strategie?“ :-)
Allerdings denke ich, daß dieser Art gekauftes „Linkbuilding“ über gefakte Referer auf Statistikseiten keine gut Strategie ist.

Google-Analytics und externe Statistik nicht betroffen

Wenn sich nun jemand wundert, daß bei ihm noch keine Referertricks angekommen sind, liegt es vielleicht daran, das die Statistik nicht über die Serverlogdatei funktioniert oder direkt auf dem Server läuft. Technisch bedingt sind keine Statistik-Tools betroffen, die extern per Javascript oder „Zählerpixel“ eingebunden werden. Der Referertrick-Bot führt, davon gehe ich einfach mal aus, schließlich kein Javascript aus oder lädt per IMG-Tag eingebundene Grafiken nach. Somit sehen Statistik-Tools wie Google-Analytics, WordPress.com Stats oder auch Piwick diese falschen Referer erst gar nicht.

8 Kommentare »

SEO für Bildersuche – gefährliches Halbwissen?

Ich habe mich bei Google auf die Suche nach bildersuche seo begeben um zu sehen, wer sonst noch Bilder für Suchmaschinen optimiert. Neben einigen bekannten Größen wie TagSEOBlog, Abakus-Forum oder Andre Alpar (z.B. mit der Bilder-SEO-Linkliste im Text-Format :-) ) gab es auch Terffer auf mir bis dahin unbekannte Bilder-SEO-Experten.

Gut beobachtet

Auf Platz 1 liegt zur Zeit ein Artikel vom Januar 2008. Dort heißt es unter anderem:

Das größte Problem bei der Suchmaschinenoptimierung für die Google Bildersuche ist sicher, dass der Bilder-Index nur sehr selten aktualisiert wird: Etwa alle 6 Monate kommen weitere Bilder hinzu, wobei generell nur 10% aller Bilder in der dort erscheinen.

Das mit den 10% kann ich nicht beurteilen, aber tatsächlich war damals die Bildersuche noch sehr träge. Der Bilderbot kam nicht täglich, sondern nur alle paar Wochen vorbei und die Bilder landeten erst nach Monaten in den Suchergebnissen.

Schlecht abgeschrieben

Auf der zweiten Trefferseite wurde ich dann auf diesen Artikel vom Dezember 2009 aufmerksam. Hier heißt es unter anderem:

…Einfach ist das nicht: der Bilder-Index wird nur selten (circa alle sechs Monate) aktualisiert. Außerdem erscheinen nur etwa 10 Prozent aller Bilder in der speziellen Bildersuche.

Die Aussage deckt sich mit dem ersten Zitat, sie ist Ende 2009 aber bezüglich der Bilder-Index-Aktualität schlicht und ergreifend falsch.

Seit Anfang 2009 hat die Bildersuche erheblich an Geschwindigkeit zugelegt. So kommt zur Zeit der Googlebot/Image praktisch täglich vorbei und nimmt neue Bilder meist schon innerhalb von 24 Stunden mit. So ging mein „Black Hat – Der Schwarze Hut„-Artikel am 16.03.2010 um 18 Uhr 45 online, bereits am 17.03.2010 gegen 6 Uhr war der Bilderbot da. Zu besten Zeiten, eben in der zweiten Jahreshälfte 2009, waren neue Bilder teilweise bereits nach zwei Wochen im Bilderindex zu finden. Gut, derzeit klemmt es wieder etwas, es dauert aber bestimmt keine 6 Monate mehr, sondern eher 6 Wochen.

Halbwissen und Halbwahrheiten

Bei den Tipps zur Optimierung geht es dann wie folgt (nach hinten) los:

Doppelte Inhalte sind bei Bildsuchmaschinen genauso unbeliebt wie bei Textsuchmaschinen. Verwenden Sie deshalb eigene Bilder. Wenn Sie ein Bild mehrmals auf Ihrer Seite verwenden, z.B. als Vorschau und als großformatige Version, sollten Sie mittels robots.txt verhindern, dass diese alle indexiert werden.

Eigene Bilder zu verwenden ist sicherlich keine schlechte Empfehlung, aber was soll das mit der Indexierungs-Sperre für mehrfach verwendete Bilder? Vielleicht verstehe ich es ja auch nur falsch, aber nach meinem persönlichen „Halbwissen“ über die Bildersuche ist es sogar empfehlenswert, Bilder mehrfach zu verwenden, was praktische eine starke, interne Verlinkung darstellt. Ein Bild, welches nicht nur einmal sondern mehrfach verwendet wird, wird durch Google meiner Meinung nach als wichtig angesehen und hat dadurch einen Rankingvorteil.

Zudem ist mir nicht klar, wie diese Sperre technisch mit der robots.txt realisiert werden könnte. Sollen etwa die Seiten mit der Zweit- oder Drittverwendung komplett für die Suchmaschine gesperrt werden oder etwa das Bild? Ich weiß nicht, was ich davon halten soll.

Mehrfache Bilderverwendung stärkt

Ich sag mal so, SEO-Wissen ist oft nur Halbwissen, denn es fehlt leider die Möglichkeit, gemachte Beobachtungen in nebenwirkungsfreien Testumgebungen verfizieren zu können. Ich würde allerdings davon abraten, mehrfach verwendete Bilder in irgendeiner Weise per robots.txt zu sperren. Aber das ist nur meine Meinung und kein gesichertes Wissen :-)

Was meinen denn die Bilder-SEO-Experten dazu?

7 Kommentare »