2010-06-21 7 views

Respuesta

2

Respuesta corta: Depende.

He aquí por qué, supongamos que tiene algún contenido que desea indexar, en ese caso cargarlo con ajax garantizará que no lo haga. Por lo tanto, ese contenido debe cargarse normalmente.

Por otro lado, supongamos que tiene algún contenido que desea indexar, pero por una razón u otra no desea mostrarlo (sé que esto no es recomendable y no es muy agradable para el usuario final de todos modos , pero hay casos de uso válidos), puede cargar este contenido normalmente y luego ocultarlo o incluso reemplazarlo mediante javascript.

En cuanto a su caso en el que tiene contenido de "carga constante", puede asegurarse de que esté indexado proporcionando enlaces a los agentes de usuario habilitados para motores de búsqueda/no-js. Por ejemplo, puede tener un contenido tipo twitter y al final un botón más que enlaza con el contenido a partir del último elemento que mostró. Puede ocultar el botón utilizando JavaScript para que los usuarios normales nunca sepan que está allí, pero los rastreadores indexarán ese contenido (haciendo clic en el enlace) de todos modos.

+0

¿El motor de búsqueda señalará a los usuarios a la otra página? hmm tal vez lo que puedo hacer es una paginación normal, luego ocultarlo usando JS mientras cargo más contenido –

+0

Yupp, la paginación normal que está oculta para el usuario con js y es reemplazada por la carga lenta, el contenido es exactamente lo que necesita. –

1

Los rastreadores no ejecutan JavaScript, entonces no, su contenido no será visible para ellos. Debe proporcionar un método alternativo para llegar a ese contenido si desea que se indexe.

Debe apegarse a lo que se llama "degradación elegante" y "mejora progresiva". Básicamente, esto significa que su sitio web debería funcionar y que el contenido debería poder alcanzarse cuando comience a desactivar algunas tecnologías.

Cree su sitio web con una navegación clásica, y luego "ajaxify". De esta manera, no solo es indexado correctamente por los motores de búsqueda, también es amigable para los usuarios que lo navegan con dispositivos móviles/con JS disabled/etc.

2

Si tiene algún contenido cargado por una solicitud de Ajax, entonces, es solo cargado por agentes de usuario que ejecutan código Javascript.

Los robots del motor de búsqueda generalmente no son compatibles con Javascript (o no son del todo buenos).

Por lo tanto, es probable que su contenido cargado por una solicitud Ajax no sea visto por los rastreadores de los motores de búsqueda, lo que significa que no será indexado; que no es muy bueno para su sitio web.

9

Un año más tarde ...

Hace un tiempo Google salió con las especificaciones de cómo crear contenido XHR que pueden ser indexados por los motores de búsqueda. Implica emparejar el contenido en sus solicitudes asincrónicas con solicitudes síncronas que puede seguir el rastreador.

http://code.google.com/web/ajaxcrawling/

Ni idea de si otros gigantes de búsqueda son compatibles con esta especificación, o si Google aún lo hace. Si alguien tiene algún conocimiento sobre la practicidad de este método, me encantaría escuchar su experiencia.

Edición: A partir de hoy, 14 de octubre de 2015, Google has deprecated their AJAX crawling scheme:

En 2009, se presentó una propuesta para que las páginas AJAX rastreable. En aquel entonces, nuestros sistemas no podían representar ni entender páginas que usan JavaScript para presentar contenido a los usuarios. ... Los tiempos han cambiado. Hoy, siempre y cuando no bloquee a Googlebot para que rastree sus archivos JavaScript o CSS, generalmente podemos representar y entender sus páginas web como los navegadores modernos.

H/T: @ marca-bembnowski

1

La respuesta aceptada sobre esta pregunta ya no es precisa. Como esta publicación aún se muestra en los resultados de búsqueda, resumiré los últimos hechos:

En algún momento de 2009, Google lanzó su propuesta AJAX crawling. Otros motores de búsqueda agregaron soporte para este esquema poco después. A partir de hoy, 14 de octubre de 2015, Google has deprecated their AJAX crawling scheme:

En 2009, hicimos una propuesta para hacer que las páginas de AJAX puedan rastrearse. En aquel entonces, nuestros sistemas no podían representar ni entender páginas que usan JavaScript para presentar contenido a los usuarios. ... Los tiempos han cambiado. Hoy, siempre y cuando no bloquee a Googlebot para que rastree sus archivos JavaScript o CSS, generalmente podemos representar y entender sus páginas web como los navegadores modernos.

Cuestiones relacionadas