Das Putzlowitsch Test- und SEO-Blog

2 Jahre im 1&1-Forum und kein Grund zum feiern

2 Jahre im 1&1-ForumHeute habe ich mich nach längerer Zeit mal wieder im 1&1-Kundenforum eingeloggt und wie der Zufall es will, habe ich mich auf den Tag genau vor zwei Jahren dort registriert. So habe ich heute gewissermaßen mein 2jährigres Foren-Jubiläum, ein Grund zu feiern ist das für mich aber nicht.

Der Anlaß meines Besuches im Forum ist nämlich die Nichterreichbarkeit fast aller meiner Domains, die bei 1&1 liegen. Zudem kann ich über die 1&1-E-Mail-Adressen nichts versenden oder empfangen.

Grund ist ein Problem mit den DNS-Serveren, die für die Domains keine IP-Adressen zurückliefern, so als gäbe es die Domains nicht. Im 1&1-Control-Center gibt es einen DNS-Check, der im Moment so etwas anzeigt:

1& DNS-Check: leerer A-Record

Der Eintrag für den A-Record ist leer, der Domain ist also keine IP-Adresse zugeordnet. Auch einen MX-Record (für den E-Mail-Empfang) gibt es nicht. Die Domain schein also im Internet nicht mit irgendeinem Server verbunden zu sein, hängt gewissermaßen unerreichbar in der Luft.

Im Forum wurde mitgeteilt, daß an dem Problem gearbeitet wird und es auch schon eine Lösung geben soll. Das wird nach nunmehr fast 24 Stunden aber auch Zeit.

Gut, bei meinen paar Test-Seiten ist die Nichterreichbarkeit für einen Tag kein wirklicher Beinbruch. Wer allerdings seine geschäftliche Seite bei 1&1 hat und betroffen ist, wird da größere Problem haben. Nicht nur, daß die Webseite nicht erreichbar ist, nein, es ist auch keine E-Mail-Kommunikation mehr möglich.

Meine Idee von gestern Abend, einfach einen externen DNS-Server für eine 1&1-Domain einzutragen, hat lieder nichts genützt. Die veränderten Einstellungen werden mir im Control-Center zwar angezeigt, sind aber leider nicht wirksam.

Tja, da habe ich erst vor ein paar Tagen mein altes Hosting-Paket zu einem neuen Dual-Paket aufgestockt und dann sowas. Vielleicht sollte das Dualhosting nicht nur die doppelte Auslegung des Webservers umfassen, sondern auch die Absicherung der Nameserver.

Die Geo-Redundanz mit Spiegelug aller Daten und Prozesse meiner Website nahezu in Echtzeit in ein zweites Rechenzentrum nützt nichts, wenn die Seite dann doch wegen eines DNS-Problems nicht erreichbar ist.

Nachtrag: Als ich den Artikel hier fertiggestellt und veröffentlicht hatte, war das Problem gerade behoben worden.

Nachtrag 2: Bei ein paar Ausfällen schlagen die Google-Webmaster-Tools noch nicht Alarm, aber wenn eine Seite länger nicht erreichbar ist, gibt es dann doch eine Meldung:
Webmastertools: Meldung über keinen Zugriff auf die Website

3 Kommentare »

Abgewertet, ersetzt und rausgeschmissen

Nun gab es von Google die Quittung für den Ausfall der Putzlowitscher Zeitung am 5. Januar 2011. In den Webmastertools werden mir derzeit gut 1200 Fehler mit dem Statuscode 403 (Forbidden) angezeigt:

Googlebot Crawl-Errors: PZ am 9.1.2011

Ein Umzug mit Verzug

Am 5. Januar war der Google-Bot zuletzt gegen 1.30 Uhr bei putzlowitsch.de zu finden. Dann erfolgte seitens des Webhosters der Umzug auf einen neuen Server und somit bekamen alle dort gehosteten Seiten eine neue IP-Adresse. Für die dort registrierten Seiten war das auch kein Problem, nach kurzer Zeit waren die DNS-Server aktualisiert und Besucher und Suchmaschinenbots bekamen die Seiten wieder normal zu sehen.

Einige Seiten, die bei anderen Anbietern liegen, werden aber per DNS-A-Record auf den Webspace beim umgezogenen Server umgeleitet und da stimmte die IP-Adresse dann nicht mehr, weil diese Einträge nicht automatisch aktualisiert werden.

Gegen 7 Uhr hatte ich das bemerkt und zunächst den Eintrag für meine wichtigste Seite, die „Putzlowitscher Zeitung“, angepaßt. Im Laufe des Vormittags hatte sich dann auch fast alles wieder eingerenkt, die normalen Besucher und z.B. der Yahoo-Bot (gegen 8.30 Uhr) und der Bing-Bot (gegen 9.30 Uhr) kamen wieder auf die Seite.

Nur der Googlebot ließ sich nicht blicken. Erst am 6. Januar hat er gegen 2.30 Uhr wieder die Putzlowitsch-Seite besucht. Ungünstigerweise ist er außerdem noch in meine Bot-Falle getappt, denn auch die robots.txt war für ihn mehr als 24 Stunden nicht abrufbar. Somit gab es aus Sicht des Google-Bots keinerlei Zugriffsbeschränkungen.

Abgewertet, ersetzt und rausgeschmissen

Google-Bildersuche: KartoffelSeit gestern verabschieden sich so langsam auch einige meiner Seiten, besonders Bilder, aus den Google-Suchergebnissen.

Dabei kann man drei unterschiedliche Ergebnisse sehen. Im einfachsten Fall werden die Bilder zunächst nur um ein paar Plätze im Ranking abgewertet. Je nach Position hat das auch die Verschiebung auf eine hintere Trefferseite zur Folge. Vermutlich ist das aber nur ein Zwischenschritt zum zweiten und dritten Fall.

Falls es eine identische Kopie oder das Bild in einer weiteren Version auf einer anderen Webseite gibt, wird nun die Kopie angezeigt, aber an einer schlechteren Trefferposition. So ist das z.B. bei der Kartoffel der Fall (siehe Screenshot). Mein Kartoffelbild lag in den letzten Wochen recht konstant auf Platz vier, die Kopie wurde nun an Position 8 einsortiert. Interessanterweise wird bei der Suche nach „Ähnlichen Bilder“ aber weiterhin meine Kartoffel angezeigt.

Im schlimmsten Fall sind Bilder ganz aus den Suchergebnissen verschwunden. So ist es z.B. den Kartoffeln, der Karotte und der Möhre ergangen.

Positiv denken

Etwas Gutes hat die Sache natürlich. So kann man mal sehen was passiert, wenn plötzlich gut rankende Bilder gesperrt werden und wo es eventuell noch andere Kopien der Bilder gibt. Der Witz ist, daß ich genau so etwas gerade als kleines Experiment in Angriff nehmen wollte, allerdings nicht in dieser Breite mit so vielen Bildern. :-)

Leider ist auch mein Bilder-SERPs-Überwachungstool noch nicht ganz fertig, so daß ich nun ständig „manuell“ nachgucken muß, was mit den Bildern passiert. Ich bin auch mal gespannt, wann sich alles wieder normalisiert. Dann könnte ich ja nochmal mit meinem eigentlichen Experiment durchstarten.

Keine Kommentare »

Firefox DNS-Prefetching, vorausschauende DNS-Abfragen

IP-Adressen, DNS und DNS-Cache

Wenn jemand meine Schnurpsel-Seite besuchen will, gibt er einfach in der Adresszeile des Browers schnurpsel.de ein. Das Internet funktioniert aber mit IP-Adressen, so ist Schnurpsel z.B. unter der Adresse 81.169.145.149 zu erreichen. Damit der Name in eine IP-Adresse umgesetzt werden kann, gibt es das DNS (Domain Name System) und entsprechende Server, die die Auflösung der Namen übernehmen.

Damit nun der Server nicht jedesmal neu befragt werden muß, werden bereits aufgelöste Namen zwischengespeichert. Einerseits verfügen viele Beriebssysteme über so einen DNS-Cache, teilweise sogar die Browser selbst und auch mein nigelnagelneuer DSL-ISDN-WLAN-Router hat einen solchen DNS-Cache.

Ein Blick in den DNS-Cache

DNS-Cache

Normalerweise bin ich nicht ständig im DNS-Cache zugange, aber so einem neuen Router schaue ich anfangs gern mal auf die Finger. Im Systemprotokoll wird auch brav vermerkt, was der Router gerade so treibt. Etwas verwundert war ich über die zahlreichen Einträge „dnsd: cache add…“.

Da tauchten plötzlich Seiten wie Nerdcore, Stefan Niggemeier, BILDblog, netzwertig.com, CARTA und weitere auf, die ich in den letzten Minuten garantiert nicht besucht hatte. Aber irgendwie kam mir die Liste bekannt vor.

Und richtig, ich hatte kurz vorher bei zusammen.gerech.net einen Blick auf die aktuelle Blog-Top-100 geworfen. Da stehen sie alle in der Liste, nur hatte ich keinen der Links dort angeklickt. Sollte etwa der Firefox…

Der Firefox schaut voraus

Seit Firefox 3.5 gibt es ein sogenanntes DNS-Prefetching, der Firefox macht also für alle auf der Seite gefunden Links eine DNS-Abfrage für die verlinkten Seiten. Das soll etwas mehr Geschwindigkeit bringen. Falls der Nutzer einen der Links anklickt, ist die IP-Adresse schon bekannt und es kann sofort losgehen.

Wenn der Nutzer aber keinen der 100 Links anklickt, wurden 100 unnütze DNS-Abfragen getätigt und 100 Einträge im DNS-Cache belegt, die keiner braucht. Der DNS-Cache meines Routers faßt in der Standardeinstellung übrigens genau 100 Einträge. Alles einmal mit Quark gefüllt.

DNS-Prefetching abschalten

Netterweise kann man im Firefox das DNS-Prefetching abschalten, aber nicht etwa in den Konfigurations-Dialogen, sondern durch einen beherzten Systemeingriff mittels about:config. Wie es geht und viele weitere Einstellmöglichkeiten findet man z.B. bei mozillaZine.

Kreativ und originell bloggen

Beim aktuellen Webmaster-Friday geht es um „Kreativ und originell bloggen: was inspiriert Euch?„. Das kann ich für schnurpsel.de recht einfach beantworten. Dieses Blog wird von Beobachtungen, Betrachtungen und Problemen rund um die Themen Internet, Technik, Suchmaschinen, WordPress, Webhoster und ähnlichen getrieben. Das gab, gibt und wird es sicher noch lange geben (siehe oben :-)).

3 Kommentare »

410 Gone – der SEO-technische Supergau

Strato DNS - 410 GoneLange Zeit habe ich ja die Strato-Fahne hochgehalten. Als es früher noch viele Schwierigkeiten mit wenig PHP-Speicher und Safemode, nicht vorhandenem mod_rewrite, falscher Artikelreihenfolge oder ominösen Endlosweiterleitungen gab (zum Teil auch noch gibt), habe ich stets nach Lösungsmöglichkeiten gesucht, diese meist gefunden und auch anderen, leidgeplagten Strato-Nutzern zur Verfügung gestellt.

Selbst über das fehlerhafte Datenbank-Backup konnte ich noch hinwegsehen, hat mich zwar geärgert, aber letztendlich war ich an der Sache ja selbst nicht ganz unschuldig. Schon länger stört mich allerdings die schlechte Gesamtperformance von WordPress auf meinem Strato-Sharedwebhosting-Paket. Nun hab ich zwar herausgefunden, daß es wohl nicht an einer langsamen Datenbank liegt, wie meist angenommen wird, aber wirklich helfen tut diese Erkenntnis auch nicht.

Hier kommt zunächst ein kleiner Exkurs in die HTTP-Statuscodes. Jeder Aufruf einer Webseite (Request) wird vom Server mindestens mit einem Statuscode beantwortet (Respond), Wenn z.B. alles in Ordnung ist, kommt ein Status 200 OK zurück. Bei Fehlern gibt es mehrere Möglichkeiten, normale Fehler werden mit einem 4xx-Code beantwortet, zwei davon will ich kurz erläutern.

404 Not found

Der wohl am häufigsten auftretende Fehlercode dürfte 404 Not Found sein:

404 Not Found
The requested URL /blafasel was not found on this server.

Das dürfte wohl in der oder anderer Form jeder schon mal gesehen haben. Dieser 404 ist ein sehr allgemeiner Fehlercode. Der Server hat zwar einen technisch gesehen einwandfreien Request erhalten, kann aber das Gewünschte aus nicht näher bekannten Gründen nicht finden. Möglicherweise hat der Nutzer nur eine falsche URL in der Adresszeile der Browsers eingetippt oder der Webmaster der Seite versehentlich eine Datei gelöscht.
Der Aufrufende darf aber gern später noch mal probieren, ob der Fehler vielleicht nicht mehr auftritt.

410 Gone

Ganz ähnlich, aber von der Bedeutung her anders ist der Fehler 410:

410 Gone
The requested resource /blafasel is no longer available on this server and there is no forwarding address. Please remove all references to this resource.

Auch hier ist der Request technisch OK. Das Gewünschte gab es zwar mal, es ist aber absichtlich entfernt worden. Spätere Anfragen sind zwecklos, das Gesuchte wird es hier nicht mer geben.
Diesen Fehlercode 410 sendet der Webserver nicht einfach so, das muß vom Webmaster schon explizit und bewußt so konfiguriert sein.

Es kann durchaus sinnvoll sein, den Code 410 zu übermitteln, z.B. dann, wenn man nicht möchte, das eine Seite oder ein Bild weiterhin in den Suchergebnissen der Suchmaschinen erscheint. Und man teilt dem interaktiven Nutzer einfach mit, daß er sich keine Hoffnungen machen braucht, die Seite irgendwann mal wieder zu Gesicht zu bekommen.

DNS-Umleitung bei Strato

Weil die Seite hier nun immer so langsam ist, dachte ich mir, sie einfach per DNS auf einen schnelleren Webserver aufzuschalten. Das geht im Strato Kundenmenü auch ganz einfach mit Einstellungen->Domainverwaltung->DNS-Verwaltung. Eine andere IP-Adresse für den A-Record eintragen, fertig. Der folgende Hinweis wird angezeigt:

Hinweis: Bitte beachten Sie, dass Änderungen an diesen Einstellungen auf Grund der dezentralen Struktur von DNS, erst spätestens 24 h nach Aktivierung vollständig aktiv sein werden.

Gut denke ich, das ist auch kein Problem, schließlich liegen auf dem alten und neuen Server identische Kopien des Blogs. Dann wird halt erstmal noch die Seite bei Strato aufgerufen, ist auch kein Beinbruch.

Aber denkste! Als ich nach fünf Minuten probieren will, ob die DNS-Server vielleicht schon aktualisiert sind, das geht eigentlich meist recht schnell, sehe ich nur das:

410 Gone
The requested resource / is no longer available on this server and there is no forwarding address. Please remove all references to this resource.

Schock! Was soll das denn bitte? Warum wird nicht allen noch bei Strato eingehenden Requests für schnurpsel einfach alles wie bisher angezeigt, ich habe da doch nichts gelöscht.
Nö, stattdessen wird den Nutzern und Suchmaschinen-Bots mitgeteilt:

„Ja, hier bei Schnurpsel gab es mal was, das ist aber alles auf nimmer Wiedersehen verschwunden, hat sich aufgelöst, ist ins Web-Nirwana entfleucht. Kommt am Besten gar nicht mehr wieder, hier ist eh nichts mehr zu holen.“

Super, nicht auszudenken, wenn die DNS-Server tatsächlich erst nach 24 Stunden aktualisiert worden wären. Glücklicherweise hat es nur eine halbe Stunde gedauert, aber ein Ding ist es schon, was Strato da einfach macht. Bei meiner Testseite hier ist das kein Drama, wer aber eine richtige, wichtige Webseite bei Strato hostet, kann schon Probleme bekommen.

22 Kommentare »