Das Putzlowitsch Test- und SEO-Blog

Google Bildersuche Update – Wikipedia legt erneut zu

Wikipedia bei Google ganz vorn

Daß die Wikipedia bei vielen Google-Suchanfragen auf Platz 1 oder 2 zu finden ist, dürfte nichts Neues sein. Bei den Bildern in der Google-Bildersuche zeigte sich mir dieser Trend aber erstmalig Anfang/Mitte Juni dieses Jahres. Nach den Bildern von damals sind in den letzten Tagen weitere Bilder von meiner Beobachtungsliste hinzu gekommen. Hier ein paar Beispiele.

Katze

Zuerst war es mir beim Suchbegriff Katze aufgefallen. Da tauchte am 12. Oktober quasi aus dem Nichts ein Katzenbild direkt auf Position 1 auf (Diagramm rote Linie, wikimedia.org). Im Moment ist sich Google noch nicht ganz schlüssig, ob das Bild da bleiben soll, mal ist es da, mal nicht. Aber ich denke, es wird sich demnächst dort festsetzen.

Äpfel

Am 13. Oktober war ganz neu auf Platz 2 der Bildersuche ein Wikipedia-Apfel zu sehen (violette Linie, wikimedia.org). Später ist dann noch ein zweites Bild dazu gekommen (rote Punkte). Derzeit mischen also zwei Wikipedia-Äpfel-Bilder ganz vorn mit, einer auf dem ersten und einer auf dem dritten Platz.

Hut

Seit dem 16. Oktober belegt auch ein Wikipedia-Bild zum Suchbegriff Hut den ersten Platz in der Bildersuche (rote Linie, wikimedia.org). Das Bild zeigt keinen einzelnen Hut, sondern gleich viele bunte Hüte.

Mona Lisa

Google-Bildersuche: Mona Lisa WikipediaDie Mona Lisa habe ich erst seit kurzem auf dem Monitor in der Beobachtungsliste, deshalb gib es dafür auch noch kein wirklich aussagekräftiges Rankingdiagramm.

Allerding werfe ich hin und wieder schon mal einen Blick auf die Mona Lisa Bildersuchergebnisse.

Das passiert spätestens immer dann, wenn der Künstler Martin Mißfeldt sein Lieblingsbeispiel Mona Lisa in einem seiner Artikel beim TagSEOBlog ins Spiel bringt. :-)

Das jetzt auf Platz 1 liegende Bild habe ich dort auf einem Screenshot oder bei der eigenen Suche noch nie gesehen. Es wäre mir allein schon deshalb aufgefallen, weil es gar nicht Leonardo da Vincis berühmte Mona Lisa oder eine Abwandlung davon zeigt. Das Wikipedia-Bild ist Camille Corots „Frau mit einer Perle“, welches vorübergehend den Platz der Mona Lisa im Louvre einnahm, als das Original gestohlen worden war.

Google wertet Wikipedia in der Bildersuche auf

Wenn Bilder plötzlich wie aus dem Nichts (von Plätzen jenseits der 100) auf dem ersten oder zweiten Platz der Bildersuche landen, sind das aus meiner Sicht keine „normalen“ Rankingverschiebungen.

Es kann natürlich sein, das die Wikipedia gerade besonders auf Bilder optimiert. Ich denke aber, Google hat mal wieder an den Rankingschrauben gedreht und irgendwelche Gewichtungen verändert. Vielleicht gib es ja sowas wie Panda auch für die Bildersuche, wer weiß…

2 Kommentare »

Das Ende der Logfile-Auswertung – Google stellt auf https um

Wo kommen die Besucher her

Ich bin ja ein großer Anhänger der Logdatei-Auswertung für meine Statistik und habe bisher auf andere Tools wie Google-Analytics verzichtet. Alle Informationen konnte ich aus den Server-Logfiles extrahieren, die aufgerufenen Seiten und normalerweise auch, woher der Besucher kam. Dazu überträgt der Webbrowser die entsprechende Information im sogenannten Referrer.

Für Besucher von Google konnte ich auch ermitteln, nach welchen Wörtern sie gesucht hatten. Das zeigt einerseits, was wirklich gesucht wird und wofür meine Seiten gefunden werden. Andererseits gibt es auch immer wieder recht eigenartige Suchanfragen, die Stoff für ein paar lustige Blogartikle liefern.

Google macht dicht

Gestern gab es von Google eine Ankündigung, daß die Suche verstärkt über SSL-Verbindungen (https) abgewickelt werden soll. Bei Twitter und auf Blogs wurde das entsprechend reflektiert, so z.B. bei Prometeo und bei Cashys Blog und natürlich beim GoogleWatchBlog.

Kein Referrer mehr

Im RFC 2616 (HTTP 1.1) findet man unter Punkt 15.1.3 folgendes:

Clients SHOULD NOT include a Referer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol.

Mit Clients sind hier die Webbrowser gemeint. Diese sollen also keinen Referer mit schicken, wenn von einer sicheren, verschlüsselten Seite zu einer unsicheren, unverschlüsselten Seite navigiert wird.

Genau das passiert, wenn man auf der verschlüsslten Google-Ergebnisseite auf ein Suchergebnis klickt und z.B. bei mir landet. Meine Seiten sind unverschlüsselt.

Kein Informationen mehr

Was bedeutet das nun für meine Statistik?
Ich weiß bei Besuchern, die von Google kommen, nicht mehr, was sie eigentlich gesucht haben. Ich weiß noch nicht mal, daß sie überhaupt von Google kamen, denn der Referer ist ja leer.

Aber das Problem habe nicht nur ich, sondern auch alle anderen Webstatistik-Tools, selbst Google-Analytics.

Ein Ausweg wäre, man stellt die eigenen Seiten auf https um. Damit bekommen natürlich die Zertifikatsanbieter enormen Zulauf. Bietet Google selbst eigentlich SSL-Zertifikate für Geld an? :-)

Nachtrag:
Was genau im Logfile ankommt oder nicht, hängt auch davon ab, wie der Link zur Zielseite auf der Google-Suchergebnisseite kodiert ist.

Entweder ist das Ziel direkt als URL eingetragen. Dann bleibt der der Referer beim Übergang von der verschlüsselten Suchergebnisseite auf eine unverschlüsselte Zielseite auf der Strecke.

Oder der Klick wird über den Google-URL-Redirector geleitet. Da dieser unverschlüsselt arbeitet, werden nun die Werte im Referer an die Zielseite übertragen, die Google dem Redirector mit auf den Weg gibt. Dabei bleibt z.B. das Abfragefeld q= einfach leer, weil Google das so will und nicht etwa, weil es technisch nicht anders geht.

Das hat also primär nichts mit der Verschlüssselung zu tun. Auch ohne Verschlüsselung der Suchseiten wäre es kein Problem. So etwas Ähnliches gab es übrigens bei der Bildersuche schon mal im Dezember 2007, als Google die Suchparameter im Frameset weggelassen hatte.

3 Kommentare »

OMCap 2011 Berlin – ein kurzer Rückblick

OMCap 2011 BerlinAm 13. Oktober machte ich mich um 5.45 Uhr auf den Weg zur OMCap nach Berlin. Mein Zug (ICE Hamburg-Berlin) wurde ab Wittenberge über Stendal umgeleitet, so daß ich mit einer Stunde Verspätung kurz nach 9 Uhr beim Kosmos ankam.

Dadurch hatte ich zwar Begrüßung und Keynote verpaßt, war aber rechtzeitig zum ersten Vortrag im Track bing bei „Black Hat: Marketing & Traffic jenseits von Gut & Artig“ mit Fabian Rossbacher und Fabian Brüssel.
Es war interessant zu sehen, was abseits des Pfades der SEO-Tugend so möglich ist, für mich kommen diese Dinge aber nicht in Frage.

Weiter ging es für mich im Track searchmetrics bei „KMUs: Chancen und Risiken bei SEO und SEM für KMUs“ mit Marco Janck und Daniel Wette. Ich war zwar nur als Privatperson auf der OMCap, arbeite ansonsten aber in einer mit einem mittleren Unternehmen vergleichbaren Einrichtung. Insofern war ich dort gut aufgehoben. :-)

OMCap Berlin 2011Zum nächsten Programmpunkt bin ich gleich sitzen geblieben. Es folgte im selben Raum „Universal Search: Was kommt noch alles in die SERPs und wie kann man partizipieren?“ mit Niels Dörje und Martin Mißfeldt.

Klar, bei Universal Search geht es zwar nicht nur, aber auch um Bilder. Genau da fühle ich mich zu Hause.

Nach der Mittagspause ging es für mich bei „SEO: Planung, Umsetzung und Steuerung interner Linkstrukturen“ mit Jens Fauldrath, Jonas Weber und Astrid Staats weiter. Hier habe ich einige Anregungen zur internen Verlinkung mitgenommen.

Nach der Kaffeepause war ich wieder im Track bing, jetzt bei „Kostenlose vs. kostenpflichtige Tools: Was leisten Tools und wo sind die Grenzen?“ mit Christian Sauer und Sören Bendig. Für mich als Hobby-SEO müssen kostenlose Tools reichen. Ich sollte aber mal meinen kürzlich gewonnen SEOLytics 12 Monate Starter-Account einlösen. Nicht das der ungenutzt Code verfällt.

Zum Schluß war ich bei „Linkaufbau: Blackhat vs. Whitehat“ mit Dominik Wojcik und Maik Metzen. So schließt sich der Kreis, mit Blackhat begonnen und geendet, auch wenn ich damit nix am Hut habe. :-)

Nach Drinks, Networking & Dinner mußte ich bereits gegen 19.30 Uhr wieder los und habe so die OMCap-Party verpaßt. Das kommt davon, wenn man nicht in einer Großstadt wohnt. Der letzte Zug fuhr um 20:30 Uhr.

Lobenswert fand ich auch, daß es zum Mittag- und Abendessen ein vegetarisches Gericht gab, sehr gut! Insgesamt war die OMCap eine sehr gelungen Veranstaltung, vielen Dank an Andre Alpar und das OMCap-Team.

Ein Kommentar »

OnkelSeosErbe – endlich wieder ein SEO-Wettbewerb

OnkelSeosErbeHatten wir ja lange nicht mehr, gab es dieses Jahr überhaupt schon einen SEO-Wettbewerb? :-)

Nun gibt es also den OnkelSeosErbe-Wettbwerb.

Wichtig ist übrigens die Trennung durch Großschreibung, sonst könnten bei Suchbegriff onkelseoserbe Mißverständnisse bezüglich der Bedeutung aufkommen.

So wäre auch ein Onkel SEO Serbe (der Onkel aus Serbien) oder Onkels EOS Erbe (die Canon-Kamera des Onkels) denkbar. :-)

Ich werde hier im Wesentlichen nur die OnkelSeosErbe Top-100 beisteuern, aber ansonsten nicht viel mehr tun.

Die üblichen Verdächtigen werden wieder ihre Pressemitteilung-Freeblog-Textspinning-Blogkommentar-Foren-Link-Spam-Maschinerie anwerfen, da wird nicht viel mehr als bei den letzen SEO-Wettbewerben herauskommen.

Daß Blackhat-SEO immer noch relativ gut funktioniert, wurde erst gestern auf der OMCap 2011 eindrucksvoll aufgezeigt. Gerade für kurzfristige Aktionen geht so etwas ab, wie Schmidts Katze. Hmmmm, wie schreibt man eigentlich Schmidts Katze? Schmitz‘ Katze? Schmitts Katze? Schmidt’s Katze? Oder wie?

Wie auch immer, ein schwarzer Hut paßt recht gut zu OnkelSeosErbe, denn normalerweise tritt ja der Erbfall beim Ableben des Onkels auf. Bei solchen traurigen Anlässen wird üblicherweise Schwarz getragen, eben auch ein schwarzer Hut.

Was mir noch aufgefallen ist, der OnkelSeosErbe-Contest endet an einem 15. Dezember, genau wie damals der ct-SEO-Wettbewerb zur Hommingberger Gepardenforelle am 15.12.2005. Allerdings lief der Wettbewerb satte 8 Monate und es gab damals nichts zu gewinnen, außer Ruhm und Ehre.

So, ich haue jetzt hier mal einen OnkelSeosErbe-Test rein (27.11.2011 12:45): gerech.net/onkelseoserbe-test/

Weitere Artikel mit Bezug zu diesem:
12 Kommentare »

Warum folgt Google URLs, die gar keine Links sind?

404 Not found

Google Webmastertools - Crawl Error 404

In den Google-Webmastertools sehe ich mir hin und wieder unter „Diagnostics – Crawl Errors“ an, welche Probleme und Fehler der Googlebot beim Crawlen meiner Seiten gefunden hat. In letzter Zeit sind da für putzlowitsch.de einige „404 Not found“-Fehler dazu gekommen.

Nun wollte ich wissen, wer denn da mit falschen URLs auf meine Seiten verlinkt. Ganz neu ist das für mich nicht. So etwas passiert z.B., wenn jemand nur die verkürzte Darstellung eines Links und nicht die URL selbst von einer anderen Webseite kopiert und dann als Link verwendet.

Unter „Linked from“ habe ich mir also ein paar dieser „Bösewichte“ angesehen und war überrascht, das ich die von Google beanstandeten URLs dort gar nicht finden konnte. Zumindest sind sie auf den Seiten nicht als Link vorhanden, wohl aber als einfacher Text. Hier ein paar Beispiele als Screenshot:

Google auf Abwegen

Bei allen diesen Seiten ist der Linktext korrekt verlink (1) oder es ist gar kein Link vorhanden (2, 3 und 4). Die Sichbare URL ist für die Darstellung verkürzt. Genau diesen nur als Text vorhandenen, verkürzten URLs geht Google wie einem normalen Link nach und produziert somit selbst die 404er Fehler.

Ein weiteres Beispiel kommt von schnurpsel.de, die letzten beiden URLs in obigen Screenshot. In einem Artikel hatte ich etwas zum Google-URL-Redirector geschrieben und prompt versucht Google meinen symbolischen Beispielen zu folgen. Die dort auch nur als Text vorhandenen „URLs“ sind und waren nie verlinkt.

Link oder nicht Link

Meiner Meinung nach geht Google hier zu weit. Ich kann ja verstehen, daß Google möglichst alle Informationen erfassen will und allen Links folgt, aber ein Text ist nun mal kein Link, auch wenn er wie eine URL aussieht. Google tut sich damit selbst keinen Gefallen, denn es werden Ressourcen verschwendet und zudem wird die Anzeige in den Webmastertools mit wertlosen Informationen zugemüllt.

Ich finde diesen Diagnostic-Bereich in den Google-WMT ja wirklich gut und nützlich, hilft er mir doch dabei, mögliche Fehlerquellen auf meiner Website aufzuspüren. Wenn nun aber jede Menge Pseudo-Fehler angezeigt werden, geht die Übersicht verloren und ich übersehe vielleicht die echten Fehler.

Einfluß auf das Ranking?

Da es nicht nur fehlerhafte, weil verkürzte Text-URLs gibt, sondern vermutlich auf viele korrekte Links, stellt sich natürlich die Frage, ob sich das rankingtechnisch auswirkt. Kann über eine nur als Text notierte URL PageRank weitergegeben werden? Verwendet Google diese Texte nur als Link-Quelle für den Crawler? Wie wirken sich die vielen Fehler durch die Pseudo-Links auf die „verlinkte“ Seite aus?

Viele Fragen, auf die ich keine Antwort weiß.

7 Kommentare »