Duplicar posible:
How can I speed up fetching pages with urllib2 in python?Recuperar varias direcciones URL a la vez/en paralelo
Tengo un script en Python que descargar la página web, analizarlo y devolver algún valor a partir de la página. Necesito raspar algunas de esas páginas para obtener el resultado final. Cada página de recuperación lleva mucho tiempo (5-10s) y preferiría hacer solicitudes en paralelo para disminuir el tiempo de espera.
La pregunta es: ¿qué mecanismo lo hará de forma rápida, correcta y con un gasto mínimo de CPU/memoria? Twisted, asyncore, threading, ¿algo más? ¿Podría proporcionar algún enlace con ejemplos?
Gracias
UPD: Hay algunas soluciones para el problema, estoy buscando el compromiso entre la velocidad y los recursos. Si pudieras contar algunos detalles de la experiencia (cómo se carga rápidamente desde tu punto de vista, etc.) sería muy útil.
Ver mi respuesta aquí http://stackoverflow.com/questions/3491455 –