Hallo zusammen
Folgende Aufgabenstellung:
- Bestimmte Seiten sollen im Suchindex NICHT erscheinen
- LINKS auf diesen Seiten soll aber gefolgt und diese Seiten indexiert werden
Wir haben bspw. eine Übersichtsseite mit einer Liste von Links auf weitere Seiten.
In Google kann man nun einfach ein META-Tag setzen:
<meta name="robots" content="noindex,follow">
Der Such-Spider interessiert sich aber nicht für dieses Tag und nimmt die Seite fröhlich in seinen Index auf.
Die Seite mit einer "forbidden" Regel in fs-search.xml auszuschliessen bringt leider auch nichts, denn dann werden auch die darauf verlinkten Seiten nicht indexiert.
Muss ich nun wirklich hingehen, und für die Index-Seite eine Category definieren und bei jeder Suchanfrage im Web diese ausschliessen, weil sie zwar im Index ist, aber nicht gefunden werden soll? Oder hat jemand eine schlauere Lösung?
Hinweis: <!-- noindex --> bringt deswegen nichts, weil damit nicht die komplette Seite aus dem Index exkludiert werden kann.
Server-Version: 4.2.454.47473