En Ubuntu, estoy tratando de descargar un archivo (desde un script) usando wget. Crear un programa para descargar este archivo todos los días y cargarlo en un clúster hadoop.wget no funciona
sin embargo, falla el wget, con el siguiente mensaje.
wget http://www.nseindia.com/content/historical/EQUITIES/2012/JUN/cm15JUN2012bhav.csv.zip
--2012-06-16 03:37:30-- http://www.nseindia.com/content/historical/EQUITIES/2012/JUN/cm15JUN2012bhav.csv.zip
Resolving www.nseindia.com... 122.178.225.48, 122.178.225.18
Connecting to www.nseindia.com|122.178.225.48|:80... connected.
HTTP request sent, awaiting response... 403 Forbidden
2012-06-16 03:37:30 ERROR 403: Forbidden.
cuando pruebo la misma URL en firefox o equivalente, funciona bien. Y sí, no hay ningún acuerdo de licencia involucrado ...
¿Me falta algo básico con respecto a wget?
¿Cuánto tiempo atrás puedes recuperar esos datos con wget? Supongo que está construyendo las URL para cada día de negociación al concatenar las cadenas de URL. Curioso saber –
Bueno, creo que NSEIndia tiene datos que se remontan hasta 2000 o así ... bSEIndia tiene un servicio similar, y se remontan en el tiempo aún más ... – Gyan