De acuerdo con las definiciones de análisis de Backus-Naur Form (BNF) en Google's robots.txt documentation, el orden de las directivas Allow
y Disallow
no es relevante. Así que cambiar el orden realmente no te ayudará.
En su lugar, debe utilizar el operador $
para indicar el cierre de su ruta.
Pruebe este robots.txt. Estoy seguro de que debe trabajar para usted (También he comprobado en GWT):
user-agent: *
Allow: /$
Disallow:/
Esto permitirá http://www.example.com
y http://www.example.com/
se rastree pero todo lo demás bloqueado.
nota: que la directiva Allow
satisface su caso de uso particular, pero si usted tiene index.html
o default.php
, no será arrastrado estas URL.
nota al margen: Solo estoy muy familiarizado con el comportamiento de Googlebot y bingbot. Si hay otros motores a los que se dirige, pueden o no tener reglas específicas sobre cómo se enumeran las directivas. Entonces, si quiere estar "extra" seguro, siempre puede cambiar las posiciones de los bloques de directiva Allow
y Disallow
, solo los configuré para desacreditar algunos de los comentarios.
Intenta eliminar la línea 'Permitir' o colocarla después de' Disallow'. Se supone que los rastreadores se detienen en el primer partido. –
Brian tiene razón, primeras reglas de coincidencia, pero tenga en cuenta que si no permite todo de esta manera, la "vista rápida" de Google no podrá cargar ninguna imagen o script, por lo que la visualización podría verse alterada. Por lo tanto, quizás necesite crear al menos una sola carpeta pública para que su página de inicio se muestre bien en "vista rápida". –