Tengo dev.qrcodecity.com y www.qrcodecity.com. Quiero que Google suelte todos los registros del subdominio de desarrollo, pero mantenga el www. Estoy usando git para almacenar el código para ambos, así que, idealmente, me gustaría que ambos tengan el mismo archivo robots.txt. ¿Es posible tener un archivo robots.txt que excluya un subdominio?No permitir o Noindex en Subdominio con robots.txt
Respuesta
Disculpa, lo más probable es que esto no sea posible. La regla general es que cada subdominio se trata por separado y, por lo tanto, ambos necesitarían archivos robots.txt.
A menudo, los subdominios se implementan utilizando subcarpetas con reescritura de URL en su lugar que hace la asignación en la que desea compartir un único archivo robots.txt entre subdominios. Aquí hay una buena discusión sobre cómo hacer esto: http://www.webmasterworld.com/apache/4253501.htm.
Sin embargo, en su caso desea un comportamiento diferente para cada subdominio que requerirá archivos separados.
Se podría usar la lógica de reescritura de Apache para servir a una diferente robots.txt
en la esfera de desarrollo:
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{HTTP_HOST} ^dev\.qrcodecity\.com$
RewriteRule ^robots\.txt$ robots-dev.txt
</IfModule>
y luego crear una separada robots-dev.txt
:
User-agent: *
Disallow:/
Tenga en cuenta que si bloquea Google desde indexando las páginas bajo el subdominio, no (generalmente) desaparecerán inmediatamente del índice de Google. Simplemente impide que Google vuelva a indexar esas páginas.
Si el subdominio de desarrollo aún no se ha iniciado, asegúrese de que tiene su propio archivo robots.txt que no permite todo.
Sin embargo, si el subdominio de desarrollo ya tiene páginas indexadas, primero debe usar las metaetiquetas de robot noindex (que requieren que Google rastree las páginas inicialmente para leer esta solicitud), luego configure el archivo robots.txt para el subdominio de desarrollo una vez que las páginas se hayan retirado del índice de Google (configure una cuenta de Herramientas para webmasters de Google; esto ayuda a resolver esto).
Cada sub-dominio en el servicio está tratando como un dominio separado en sí mismo, si observa varios fabricantes web gratuita le permiten alojar su sitio web en sus saques con un nombre de dominio similar a yourname.websitemake.com. Y como resultado, cada sitio web se indexa por separado en los motores de búsqueda.
Entonces, lo que puede hacer para lograr esto es, puede agregar un nuevo "robots.txt" a la carpeta del subdominio y mencionar lo siguiente para prohibir a los rastreadores indexar su subdominio.
User-agent: *
Disallow:/
- 1. Robots.txt, no permitir URL en varios idiomas
- 2. Robots.txt No permitir ciertos nombres de carpeta
- 3. Robots.txt: No permitir subdirectorio pero permiten directorio
- 4. Robots.txt Permitir subcarpeta pero no la primaria
- 5. Robots.txt: permitir solo mayor SE
- 6. cómo no permitir todas las direcciones URL dinámicas robots.txt
- 7. Googlebot no respeta Robots.txt
- 8. ¿Cómo configurar Robots.txt o Apache para permitir rastreadores solo a ciertas horas?
- 9. ¿Cómo modifico robots.txt en Plone?
- 10. Robots.txt, ¿cómo permitir el acceso solo a la raíz del dominio y no más?
- 11. Sintaxis de Robots.txt no entendida
- 12. robots.txt dinámico
- 13. asterisco en robots.txt
- 14. subdominio alias del subdominio
- 15. Robots.txt: ¿Es válida esta regla de comodín?
- 16. La mejor manera de permitir las cookies de sesión de subdominio con Tomcat
- 17. Sirviendo sitemap.xml y robots.txt con Spring MVC
- 18. Multiple Sitemap: entradas en robots.txt?
- 19. Metaetiqueta frente a robots.txt
- 20. ¿Es mejor el subdominio o una subcarpeta?
- 21. Cómo obedezzco robots.txt
- 22. Googlebots ¿Ignoras el archivo robots.txt?
- 23. Anotaciones de datos - No permitir números, o solo permitir cadenas dadas
- 24. Robots.txt para múltiples dominios
- 25. robots.txt parser java
- 26. WordPress htaccess en la raíz anula htaccess en el subdominio. La aplicación Subdominio no funciona ahora
- 27. robots.txt: deshabilitar todos menos unos pocos, ¿por qué no?
- 28. Subdominio dinámico PHP
- 29. robots.txt múltiple para subdominios en rieles
- 30. Directorio o subdominio para la tienda en línea?
Se requiere un archivo robots.txt por subdominio (ver https://youtu.be/G29Zt-UH_Ko) – JVerstry