Das Putzlowitsch Test- und SEO-Blog

Google Suchparameter kgmid ändert Suchanfrage

Google Doodle zu Ehren von Prof. Dr. Dilhan Eryurt

Google-Doodle zu Eheren von Dilhan Eryurt

Es hätte endlich mal wieder etwas mit Top-Positionen bei Google mit einem Doodle-Video oder -Beitrag werden können. Die Voraussetzungen waren günstig, den die Suchanfrage war bei google.de nicht nur der Name der berühmten Persönlichkeit, sondern der Name mit Prof. Dr. davor.

Auf der Doodle-Seite von Google war als Suche „Prof. Dr. Dilhan Eryurt“ angegeben und auch als das Doodle in DE kurz nach Mitternacht freigeschaltet war, zeigte der Link auf dem Doodle zu einer Google-Suche mit dem Parameter

q=Prof. Dr. Dilhan Eryurt

Ensprechend hat meine Doodle Top-100 auch diese Suche als Suchanfrage erkannt, denn ich werte hier den q-Parameter des Links von der Google-Startseite aus.

Eigentlich ist alles bestens, nur Google macht mir da einen Strich durch die Rechnung.

Prof. Dr. Dilhan Eryurt ohne Prof. Dr.

Google-Doodle: veränderte Suchanfrage

Selbst in der URL der Suchergebnisseite ist der q-Parameter unverändert Prof. Dr. Dilhan Eryurt, nur die eigentliche Suche wird für Dilhan Eryurt ausgeführt. Das sieht man dann im Eingebefeld, dem sogenannten Suchschlitz.

Nun gibt es in der URL noch mehrere, andere Parameter, so z.B.:

oi=ddle

Das sieht verdächtig nach doodle aus, hat aber keinen Einfluß auf das Ergebnis.

Der Parameter, der das Suchergebnis beeinflußt ist die kgmid:

kgmid=/g/120ktfyb

Google Knowledge Graph und Entitäten – die KGMID

Zum ersten Mal bei einem Google-Doodle habe ich den Parameter kmgid Anfang 2018 gesehen, doch es gibt ihn in der Googlesuche schon länger. KGMID steht für Knowledge Graph Machine-generated Identification und ist eine eindeutige ID für eine Entität im Knowledge Graph.

Taucht diese ID in der Such-URL als Parameter auf, wird die entsprechende Knowledge Graph Box angezeigt. Bis Anfang 2019 konnte man so das Suchergebnis manipulieren und zu jeder beliebigen Suchanfrage irgend einen anderen Knowledge-Graph Eintrag ausgeben. Das ist nun nicht mehr möglich und bedeutet, daß die Entität die Suchanfrage überstimmt.

Oder anders gesagt, der Name der Entität wird für die Suche verwendet, egal was im Parameter q= der Suchanfrage steht. Für Prof. Dr. Dilhan Eryurt ist die Entität eben nur Dilhan Eryurt ohne Prof. Dr. und deshalb wird entsprechend danach gesucht.

Eigentlich ganz logisch und einfach, wenn man weiß wie, was und warum. :-)

Dilhan Eryurt - Google Doodle zu Ehren von Prof. Dr. Dilhan Eryurt
Prof. Dr. Dilhan Eryurt

(Dulhem Aryort)

Keine Kommentare »

Das Problem mit WordPress und den ungültigen URL-Parametern

WordPress hat ein Problem mit ungültigen URL-Parametern. Wenn jemand an die Blogadresse einfach einen Parameter mit einem Wert anhängt, wird das von WP klaglos akzeptiert, obwohl es völlig unsinnige Werte sein können.

Ein Beispiel:
http://vierzehnfuffzig.de/?url=http://www.heise.de
oder
http://vierzehnfuffzig.de/?blafasel=trallalla
oder was auch immer.

In allen Fällen gibt WordPress brav die Startseite meines Test- und Probierblogs aus. Das ist aus SEO-Sicht natürlich schlecht, denn es kann dadurch ganz viel DC enstehen.

Die Abhilfe ist recht simpel, die URL-Parameter müssen einfach gegen die in WordPress bekannten Parameter getestet werden. Das sind nur ein paar Zeilen PHP-Code.

Ich habe das mal in eine kleines Plugin verpackt, welches ich hier zum Download anbiete: 123 Check URL Para Version 0.11

Das war’s, mehr wird nicht benötigt. Probleme könnte es nur geben, falls Plugins oder Themes URL-Parameter verwenden, die nicht in WordPress registriert wurden. Das ist dann aber schlecht programmiert. E sgibt jetzt im Plugin-Quelltext weitere erlaubte Parameter einzutragen:

$para = array( 'p1', 'p2', 'p3' );  // zusätzlich erlaubte URL-Parameter

Einfach die erlaubten Parameter im array wie im Beispiel oben eintragen.

5 Kommentare »

Google und die Textlinks sind keine Freunde

Links die keine sind

Mittlerweile habe ich mich fast schon daran gewöhnt, daß Google alles was auch nur annähernd nach URL aussieht, wie einen Link behandelt und entsprechend den Crawler darauf losläßt. Selbst unsinnige URLs mit drei Punkten in der Mitte oder am Ende werden verfolgt. Alle diese erfundenen URLs werden dann natürlich als Fehler in den Webmastertools gemeldet, denn der Webserver liefert einen „404 Not found“ zurück.

Nun bin ich kürzlich mal wieder so einer von Google ausgedachten URL nachgegangen. Meist kann man in den Webmastertools auch die Quelle des „Links“ sehen.

Das ist wieder so eine abgeschnittene URL, normalerweise geht es um diesen Artikel. Allerdings fehlen da die drei kleinen Punkte am Ende, mal sehen, was dort auf der „verlinkenden“ Seite verzapft wurde.

Quelle des fehlerhaften "Links"

Einen richtigen Link zu meinem Artikel gibt es dort erwartungsgemäß nicht, aber zumindest ist die URL selbst textlich korrekt und unverkürzt dargestellt. Allerdings sind die Suchwörter, für die meine Artikel dort auf der Seite erscheint, hervorgehoben.

HTML als Stolperfalle

Im Quelltext der Seite sieht das dann so aus:

HTML-Text der URL

Zur Hervorhebung sind die Keywords mit dem HTML-Tag b als fett ausgezeichnet. Ich hätte ja nun irgendwie erwartet, daß Google mit HTML-Tags umgehen kann. Erstaunlicherweise hat nicht das erste HTML-Tag die URL-Raterunde beendet, sonder erst das zweite, schließenden Tag. Der Google-Link endet hinter …datenbank:
/sicher-ist-sicher-datenbank

Ich kann es gerne nochmal wiederholen. Wie auch die Erkennung der drei Punkte in den unsinnigen URLs würde das Entfernen der HTML-Tags wohl jeder mittelmäßige Programmierer hinbekommen. :-)
Ich hätte gedacht, daß Google bei der richtigen Interpretation von HTML etwas weiter ist.

Es ist ein Fehler

Selbst wenn ich die Verfolgung von mit drei Punkten verkürzten Textlinks für unsinnig und falsch halte, habe ich mich damit zumindest abgefunden. Aber nicht existierende URLs zu crawlen, die durch mangelhafte Interpretation von HTML entstehen, steht einem Weltkonzern wie Google schlecht zu Gesicht. Das sind aus meiner Sicht einfach nur Fehler.

Fehler sind ja auch dazu da, daß sie behoben werden können. Ich will mal hoffen, Google schafft das und kann sich dann wieder den echten Links und anderen Problemen zuwenden.

3 Kommentare »

Google crawlt andere Suchmaschinen?

Google crawlt Yahoo?

Fehlermeldung aus den Google Webmastertools:

„Der Googlebot konnte diese URL nicht crawlen, da keine zugehörige Seite existiert. Im Allgemeinen wirken sich 404-Codes nicht auf die Leistung Ihrer Website bei der Suche aus. Sie können sie jedoch zur Verbesserung der Nutzererfahrung verwenden.“

Zum einen ist das wieder mal kein Link, sondern nur eine verkürzte, textliche Darstellung. Ein Nutzer wird diesen „Link“ deshalb nie aufrufen, also muß ich auch nichts für die „Verbesserung der Nutzererfahrung“ tun. Der Link ist nur eine Google-Erfindung.

Viel interessanter ist meiner Meinung nach die angegebene Quelle des Links. Das sieht mir nach einer Suchergebnisseite der Yahoo-Bildersuche aus.

Ich dachte bisher immer, Google würde die Suchergebnisse der anderen großen Suchmaschinen nicht crawlen. Aber vielleicht ist es auch gar nicht so oder es war nur früher mal so oder ich bin einem Irrtum aufgesessen.

3 Kommentare »

Aprilscherz? Ich hätte Google für intelligenter gehalten.

Google auf Abwegen

Vor knapp einem halben Jahr hatte ich bereits berichtet, daß Google Links folgt, die gar keine sind. Irgendwer schrieb da auch in den Kommentaren, daß es vielleicht nur ein Test sein könnte. Gut möglich, Google probiert ja gerne mal Sachen aus. Ich erinnere mich noch an die ausgefüllten Suchformulare (/?s=suchbegriff) vor etwa vier Jahren. Das hatte sich dann irgendwann erledigt.

Die als URL interpretierten Texte landen aber weiterhin in den Google Webmastertools und natürlich auch in meinen Server-Logdateien. Das sind die neuen 404-Fehler vom 1. April:

Google-Webmastertools: Error-404 vom 1.April

Und so sehen die „verlinkenden“ Seiten aus:

• webstatsdomain.com zur Domain „schnurpsel.de“

Google: Das ist kein Link (1)

• pixitree.de mit „Installation Eigenen Domains WordPress“

Google: Das ist kein Link (2)

• news.blogtotal.de mit „Modrewrite Ohne WordPress“

Google: Das ist kein Link (3)

• link-fuchs.de mit „Aktuelle Ip Per Email Zu Verschicken Besonders“

Google: Das ist kein Link (4)

• alllaws.org mit „Mit Bing Finden“

Google: Das ist kein Link (5)

Mal davon abgesehen, daß die „verlinkenden“ Seiten fast allesamt als Suchmaschine getarnte Spam-Seiten sind, gibt es die von Google dort angeblichen gefundenen Links nicht. Das sind durchweg verkürzte, textliche Darstellungen von URLs, die mit drei Punkten enden.

So schwer ist das doch nicht

Nun weiß ich zwar nicht, wie Google diese Pseudolinks aus den Seiten extrahiert, aber jeder mittelmäßige Programmierer dürfte dazu in der Lage sein, die mit drei Punkten endenden, vermeintlichen Links im Algorithmus auszusortieren. Wenn das, was wie eine URL aussieht, mit endet, ist es niemals nicht eine existierende URL, sondern nur eine verkürzte Darstellung einer solchen. Dann muß auch nicht der Google-Bot losgeschickt werden, um sich doch nur einen Error 404 Not Found abzuholen. Letztendlich hat das dann auch nichts bei den Crawling-Fehlern in den Webmastertools verloren.

Google, bitte nachbessern!

Google search quality highlights

Google veröffentlicht seit einiger Zeit (Dezember 2011?) Neuigkeiten aus dem Bereich „Verbesserung der Suchqualität“. Vielleicht habe ich da was übersehen, aber zur Erkennung von nicht existierenden Links war mir bisher nichts aufgefallen. Zumindest besteht da Verbesserungsbedarf.

Die Lösung des Problems wäre mein nächstes, ganz persönliches „Search quality highlight“. :-)

5 Kommentare »