Wieder einmal hat der Master of Google Suche, der Qualitäts-Häuptling Matt Cutts eine interessante Frage beantwortet. Es geht um das Thema Cloaking, also die Technik dem Google Bot eine andere Webseite zu präsentieren als dem surfenden Nutzer.
Schon eigenartig sowas überhaupt zu fragen, natürlich will Google die gleiche Seite sehen die auch der Nutzer serviert bekommt. Und auch wenn der Hintergrund der Frage angeblich auf die Ladegeschwindigkeit abzielt, so könnte der Google Bot eine Seite ohne Bilder und Javascript serviert bekommen, so ist doch eines eigentlich glasklar: Google will auf keinen Fall anderen Inhalt einlesen als die Seite eigentlich ausspuckt.
Should I serve Googlebot content-only pages optimized for load speed?
Auf jeden Fall eine sehr deutliche Reaktion von Matt Cutts..
Und natürlich spielt auch für Google die Ladezeit eine Rolle, dabei sollte aber die Seite ansich optimiert werden, nicht eine Version die speziell für die Robots erstellt wurde.
Und wir erinnern uns ja vielleicht noch an das Problem das BMW vor ein paar Jahren hatte, die sind genau aus diesem Grund aus dem Index geflogen, wurde doch dem User eine andere Seite präsentiert als den Such-Robots die für Google die Seiten einlesen..
Also: kein Cloaking für den Google Robot, denke die Antwort vom Quality-König ist eindeutig..