Estoy construyendo un proyecto en python que necesita raspar enormes y enormes cantidades de datos de Twitter. Algo así como 1 millón de usuarios y todos sus tweets deben ser eliminados.Cómo raspar una gran cantidad de tweets
Anteriormente he usado Tweepy y Twython, pero llego al límite de Twitter muy rápido.
¿Cómo obtienen sus datos las empresas de análisis de sentimientos, etc.? ¿Cómo obtienen todos esos tweets? ¿Lo compras en alguna parte o construyes algo que itera a través de diferentes proxies o algo así?
¿Cómo obtienen las empresas como Infochimps con el rango de Trst, por ejemplo, todos sus datos? * http://www.infochimps.com/datasets/twitter-census-trst-rank
Si llega al límite demasiado rápido, debe distribuir su trabajo entre muchos días y construir su base de datos más lentamente. Creo que así es como las compañías hacen esto. – heltonbiker