Das Putzlowitsch Test- und SEO-Blog

Mehr Leistung zum selben Preis – All-Inkl wertet Webhosting-Pakete auf


Bildquelle: All-Inkl

Gute Leistung zu einem angemessenen Preis

Seit nunmehr gut 8 Jahren habe ich ein Hosting-Paket beim Webhoster All-Inkl. Ein Kollege hatte mich damals auf die günstigen Angebote aufmerksam gemacht. Wobei es eben nicht einfach billig ist, sondern gute Leistungen zu einem vernünftigen Preis angeboten werden.

Ich muß sagen, im Großen und Ganzen bin ich mit den Leistungen und dem Service sehr zufrieden. Gut, auch bei all-inkl gab es mal Probleme mit der Erreichbarkeit der Seiten, aber das ist in den acht Jahren vielleicht ein- oder zweimal passiert.

Guter Service

Was mir besonders gut gefällt, der Support ist telefonisch schnell erreichbar, kompetent und die Probleme wurden schnell gelöst. So z.B. als meine Datenbank, die ich durch eigene Schusseligkeit geleert hatte, unbürokratisch und kurzfristig wiederhergestellt wurde. Ein Anruf genügte und das Problem war aus der Welt.

Auch sehr angenehm, ich erhalte keine Werbe-E-Mails. Was an E-Mails so ankommt, sind nur die Rechnungen oder hin und wieder eine Kundeninformation z.B. über anstehende Wartungsarbeiten.

Noch mehr Leistung

Heute nun kam auch eine Kundeninformation an. Es sollte aber nichts gewartet werden, sondern ich wurde über die Verbesserung einiger Leistungen meines Webhosting-Paketes informiert. So hat sich der Webspace (Festplattenspeicher) mal eben verfünffacht und die Anzahl der Inklusiv-Domains verdoppelt. Das gute, ich muß als Bestandskunde nichts weiter machen, sondern bekomme die neuen Leistungen einfach so. Das kenne ich von anderen Webhostern anders, wo man immer selbst ein Paketupgrade durchführen muß.

Inklusiv-Domains satt

Besonders interessant finde ich die Erhöhung der Zahl der Inklusiv-Domains, also der Domains, die ich einfach so bestellen kann, ohne extra dafür zu bezahlen. Bei 1&1 ging die Entwicklung gerade in die andere Richtung. Dort gibt es selbst im teuersten Webhosting-Paket nur noch eine Domain dazu, vorher waren es immerhin 12. Fairerweise muß man aber auch sagen, daß der Paketpreis um 10 Euro gesenkt wurde. Das entspricht dann so in etwa den weggefallenen Domains.

Was ist gut und was ich mir wünsche

Die meisten Sachen beim All-Inkl-Webhosting finde ich prima, so z.B. die übersichtliche Konfigurations-Oberfläche KAS mit ihren weitreichenden Möglichkeiten. Ich kann praktisch alles einstellen, vom DNS bis zu Cron-Jobs, Unteraccounts mit zuweisbaren Ressourcen und und und. Seit einiger Zeit gibt es auch den Zugriff auf den Webspace per Netzwerkfreigabe und die Möglichkeit, Subdomains als Dynamische Domains (DynDNS) zu nutzen.

Was ich jetzt noch toll fände, wäre der Zugriff auf die Logdaten in Echtzeit, so wie das z.B. bei 1&1 möglich ist. Auch nicht schlecht wäre der direkte Zugriff auf Backups, wie bei Strato mit dem „BackupControl“.

Zufrieden

Aber gut, das sind eher Kleinigkeiten und im Großen und Ganzen bin ich, wie schon gesagt, sehr zufrieden. :-)

5 Kommentare »

Mein Blog Statistik-Tool: Logfile-Auswertung

Mir reicht die Logdatei

Ich habe es ja schon öfter mal kund getan, für meine Blog-Statistik reichen mir die Server-Logdateien. Diese werden ohnehin vom Server erzeugt und mir bereit gestellt. Alle wesentlichen Informationen finde ich (noch) dort. Wie oft wurden welche Seiten aufgerufen, wer kam mit welchen Suchbegeriffen von einer der Suchmaschinen auf mein Blog.

Fall Google mit der https-Geschichte flächendeckend ernst macht, fällt natürlich die Google-Suchwort-Auswertung weg, aber auch andere Webstatistik-Tools haben das gleiche Problem.

Logfile-Auswertung mit PHP-Skript

Logfile-Auswertung: Google-Besucher

Die Logfile-Auswertung habe ich mit PHP selbst programmiert. Angezeigt wird eine einfache Tabelle, wie oben abgebildet.

Ganz links steht der Suchbegriff, in der nächsten Spalte folgt die Anzahl der Besucher, die zu dem Suchbegriff von Google auf eine meiner Seiten gelangten. Danach folgt das Datum des letzten Zugriffs.

Sofern aus dem Referrer ermittelbar, gebe ich daneben die Position in den Suchergebnisseiten aus. Zahlen, die mit .. beginnen, sind nur die Ergebnis-Seite oder bei ..1 war die Position nicht zu ermitteln.

Am Ende folgt dann noch der Suchtyp. Das Fragezeichen ? steht für die Textsuche, der Kasten für die Bildersuche und ein U für Universal-Search.

Wie man sieht, ist OnkelSeosErbe in der normalen Textsuche am gefragtesten, bei der Bildersuche und Universal Search (Images) liegt das Brötchen ganz vorn.

Sachen wie Absprungrate, Verweildauer und Ähnliches interessieren mich nicht. Was soll ich auch mit diesen Werten anfangen?

Webmasterfriday

Webmasterfriday - WMF

Die Blogstatistik ist aktuelles Thema beim Webmasterfriday, was übrigens zum Ende eines Monats ganz passend ist, wie ich finde. Es bietet sich damit auch direkt an, mal wieder eine Monatsstatistik zu veröffentlichen.

2 Kommentare »

Das Ende der Logfile-Auswertung – Google stellt auf https um

Wo kommen die Besucher her

Ich bin ja ein großer Anhänger der Logdatei-Auswertung für meine Statistik und habe bisher auf andere Tools wie Google-Analytics verzichtet. Alle Informationen konnte ich aus den Server-Logfiles extrahieren, die aufgerufenen Seiten und normalerweise auch, woher der Besucher kam. Dazu überträgt der Webbrowser die entsprechende Information im sogenannten Referrer.

Für Besucher von Google konnte ich auch ermitteln, nach welchen Wörtern sie gesucht hatten. Das zeigt einerseits, was wirklich gesucht wird und wofür meine Seiten gefunden werden. Andererseits gibt es auch immer wieder recht eigenartige Suchanfragen, die Stoff für ein paar lustige Blogartikle liefern.

Google macht dicht

Gestern gab es von Google eine Ankündigung, daß die Suche verstärkt über SSL-Verbindungen (https) abgewickelt werden soll. Bei Twitter und auf Blogs wurde das entsprechend reflektiert, so z.B. bei Prometeo und bei Cashys Blog und natürlich beim GoogleWatchBlog.

Kein Referrer mehr

Im RFC 2616 (HTTP 1.1) findet man unter Punkt 15.1.3 folgendes:

Clients SHOULD NOT include a Referer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol.

Mit Clients sind hier die Webbrowser gemeint. Diese sollen also keinen Referer mit schicken, wenn von einer sicheren, verschlüsselten Seite zu einer unsicheren, unverschlüsselten Seite navigiert wird.

Genau das passiert, wenn man auf der verschlüsslten Google-Ergebnisseite auf ein Suchergebnis klickt und z.B. bei mir landet. Meine Seiten sind unverschlüsselt.

Kein Informationen mehr

Was bedeutet das nun für meine Statistik?
Ich weiß bei Besuchern, die von Google kommen, nicht mehr, was sie eigentlich gesucht haben. Ich weiß noch nicht mal, daß sie überhaupt von Google kamen, denn der Referer ist ja leer.

Aber das Problem habe nicht nur ich, sondern auch alle anderen Webstatistik-Tools, selbst Google-Analytics.

Ein Ausweg wäre, man stellt die eigenen Seiten auf https um. Damit bekommen natürlich die Zertifikatsanbieter enormen Zulauf. Bietet Google selbst eigentlich SSL-Zertifikate für Geld an? :-)

Nachtrag:
Was genau im Logfile ankommt oder nicht, hängt auch davon ab, wie der Link zur Zielseite auf der Google-Suchergebnisseite kodiert ist.

Entweder ist das Ziel direkt als URL eingetragen. Dann bleibt der der Referer beim Übergang von der verschlüsselten Suchergebnisseite auf eine unverschlüsselte Zielseite auf der Strecke.

Oder der Klick wird über den Google-URL-Redirector geleitet. Da dieser unverschlüsselt arbeitet, werden nun die Werte im Referer an die Zielseite übertragen, die Google dem Redirector mit auf den Weg gibt. Dabei bleibt z.B. das Abfragefeld q= einfach leer, weil Google das so will und nicht etwa, weil es technisch nicht anders geht.

Das hat also primär nichts mit der Verschlüssselung zu tun. Auch ohne Verschlüsselung der Suchseiten wäre es kein Problem. So etwas Ähnliches gab es übrigens bei der Bildersuche schon mal im Dezember 2007, als Google die Suchparameter im Frameset weggelassen hatte.

3 Kommentare »

Googlebot (Bilder) – geteilte Arbeit ist halbe Arbeit

Das Diagramm von Martin zum seinem Beitrag „Google indexiert neue Bilder rasant schnell“ zeigt stilisiert, wie sich „Googlebot-Image/1.0“ und „Googlebot/2.1“ die Arbeit beim Erfassen von Bildern teilen. Er schreibt dort:

„Die folgende Grafik zeigt keine konkreten Werte, sondern die Tendenz:“

Die Arbeitsteilung 2010

Nun hat mich natürlich interessiert, wie das Ganze mit echten Zahlen aussieht. Ich habe deshalb die Server-Logfiles der letzten 3 Jahre durchgeackert, ausgewertet und kann den vermuteten Trend auch bestätigen:

Googlebot - Erfassung von Bildern nach Wochen 2010

Die rote Linie zeigt das Maximum der Anzahl erfaßter Bilder pro Woche durch den Googlebot-Image und die blaue durch den normalen Googlebot. Zusätzlich sind alle Zugriffe (Bilder und alles andere) des normalen Googlebots als graue Linie dargestellt. Normalerweise lag der Image-Bot mehr oder weniger deutlich über dem Such-Bot, ab Mitte November fällt der Googlebot-Image teilweise deutlich zurück und liegt meist unter dem normalen Googlebot.

Mitte April 2010, konkret am 16., gab es allerdings eine kräftige Spitze des Googlebot/2.1, der nicht nur fast 400 Bilder erfaßt, sondern insgesamt knapp 2400 Zugriffe getätigt hatte. Er hat praktisch fast meine ganze Website komplett gescannt, warum auch immer. Und ja, es war der IP-Adresse nach tatsächlich der Google-Bot.

Die Daten beziehen sich auf die Putzlowitsch-Domain, meine Seite mit den meisten Bildern. Insofern zeigt das Diagramm auch nur einen Trend, bei anderen Seiten kann und wird das vermulich etwas anders aussehen.

Vielleicht kann ja mal jemand mit großen Bilderbeständen auch die Logfiles auswerten… :-)

Die Arbeitsteilung in den letzten drei Jahren

Googlebot - Erfassung von Bildern nach Monaten 2008- 2010

Noch bis Mitte 2008 hat sich der normale Google-Bot fast gar nicht um die Bilder gekümmert. Im August und September hat er dann dem Image-Bot hilfreich unter (bzw. über) die Arme gegriffen um sich dann mit nur kleineren Hilfeleistungen etwas bedeckt zu halten. Nur im April 2010 hatte er sich noch mal richtig ins Zeug gelegt.

Seit Juli 2010 hat der Googlebot/2.1 zumindest eine feste Aufgabe bei der Bildererfassung. Er ist für die Bilder aus Twitter-Meldungen zuständig, die seitdem bei den Statusupdates mit angezeigt werden. Die Bilder werden als kleines Vorschaubild oft bereits wenige Sekunden nach der Erfassung unter den Tweets bei Google-Echtzeit eingeblendet.

Geteilte Arbeit ist doppelte Freude

Das könnte für mich das Internet-Ding 2011 werden, wenn es denn so bleibt oder sogar noch besser wird:
Bilder in der Google-Bildersuche in fast Echtzeit.

Ein Kommentar »

Logfile-Kunst

Nach der Pixelkunst habe ich heute in meinem Server-Logfile folgendes entdeckt:

"GET /themen/wordpress/ HTTP/1.1" 301 5
"GET /themen/wordpress// HTTP/1.1" 301 5
"GET /themen/wordpress/// HTTP/1.1" 301 5
"GET /themen/wordpress//// HTTP/1.1" 301 5
"GET /themen/wordpress///// HTTP/1.1" 301 5
"GET /themen/wordpress////// HTTP/1.1" 301 5
"GET /themen/wordpress/////// HTTP/1.1" 301 5
"GET /themen/wordpress//////// HTTP/1.1" 301 5
"GET /themen/wordpress///////// HTTP/1.1" 301 5
"GET /themen/wordpress////////// HTTP/1.1" 301 5
"GET /themen/wordpress/////////// HTTP/1.1" 301 5
"GET /themen/wordpress//////////// HTTP/1.1" 301 5
"GET /themen/wordpress///////////// HTTP/1.1" 301 5
"GET /themen/wordpress////////////// HTTP/1.1" 301 5
"GET /themen/wordpress/////////////// HTTP/1.1" 301 5
"GET /themen/wordpress//////////////// HTTP/1.1" 301 5
"GET /themen/wordpress///////////////// HTTP/1.1" 301 5
"GET /themen/wordpress////////////////// HTTP/1.1" 301 5
"GET /themen/wordpress/////////////////// HTTP/1.1" 301 5
"GET /themen/wordpress//////////////////// HTTP/1.1" 301 5
"GET /themen/wordpress///////////////////// HTTP/1.1" 301 5

Gut, hinten und vorn habe ich einiges weggelassen aber auch so sieht das doch sehr nett aus. Zumal es dann öfter im Logfile stand, manchmal auch etwas kleiner.

Und wie der erfahrene Webmaster am Statuscode 301 sofort erkennt, handelt es sich um eine Redirect-Endlosschleife, also um theoretisch unendlich viele permanente Weiterleitungen. Das es nicht tatsächlich endlos so weitergeht liegt nur daran, daß der ordentlich programmierte Browser/Robot/Bot nach einer gewissen Anzahl Redirects das Spielchen nicht mehr mitmacht und mit einer Fehlermeldung dem Spuk ein Ende setzt. Bei Firefox und Opera sind es z.B. 20 Weiterleitungen, der Google-Bot gibt bereits nach 5 Versuchen auf. Am hartnäckigsten ist der MS-Internetexplorer 6, er läßt sich stolze 100 mal Umleiten.

Wie kommts? Ich hatte im Zuge der Abschaltung der Verbindestrichung und HTML-Terminierung beschlossen, die alten URLs per Redirect auf die aktuelle weiterzuleiten, hatte aber einen kleinen Fehler in meinem regulären Ausdruck bei den Kategorien, es fehlte ein Bindestrich. So wurden auch die gültigen Themenseiten mit einem angehängten Schrägstrich weitergeleitet, weitergeleitet und weitergeleitet. Wenn ein Browser oder Bot keinen Weiterleitungszähler verwendet, würde wohl irgendwann der Webserver mit einem ‚414 Request-URI Too Long‘ das Handtuch werfen.

Und die Moral von der Geschicht: „Verendlosschleife Redirects niemals nicht!“ :-)

Keine Kommentare »