2012-02-05 9 views

Odpowiedz

80

Tutaj to rozwiązania, jeśli chcesz zabronić ciągi zapytań:

Disallow: /*?* 

lub jeśli chcesz być bardziej precyzyjny na ciąg kwerendy:

Disallow: /*?dir=*&order=*&p=* 

Można również dodać do roboty. txt, który adres uRL, aby umożliwić

Allow: /new-printer$ 

$ zadba tylko /new-printer będzie dozwolone.

Więcej informacji:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/

+0

to uniemożliwi drukowanie nowych drukarek Chcę tylko nieuporządkować części zapytania o numer –

+0

, więc chcesz zezwolić na '/ new-printer', ale nie na'/new-printers? Dir = * & order = * & p = *? '? –

+0

yes ................ –

3

Zarejestruj swoją stronę z Google Webmaster Tools. Tam możesz poinformować Google, jak radzić sobie z parametrami.

Konfiguracja witryny -> URL Parametry

Trzeba stron, które zawierają te parametry wskazują, że powinny one zostać wyłączone z indeksowania przez roboty znaczników meta. na przykład

+1

Podczas gdy oryginalne pytanie w szczególności wspomina o Google, ważne jest, aby pamiętać, że Google WebMaster Tools blokowałoby tylko Google. Dodanie reguł Disallow w pliku robots.txt dotyczy również innych wyszukiwarek. –

+1

Prawda. Należy również wyjaśnić, że plik robots.txt nie zatrzymuje stron indeksujących Google, ale zatrzymuje czytanie ich treści. Najlepszym rozwiązaniem jest użycie metatagu robotów na samej stronie. Jest to obsługiwane przez wszystkie systemy. – Tiggerito

14

Możesz zablokować te konkretne parametry ciąg kwerendy z następującymi liniami

Disallow: /*?*dir= 
Disallow: /*?*order= 
Disallow: /*?*p= 

Więc jeśli URL zawiera dir=, order= lub p=nigdzie w ciągu zapytania, zostanie on zablokowany .

+0

Czy oznacza to, że cała strona nie zostanie zaindeksowana, dopóki spełniony jest powyższy warunek. –