Este sencillo Python 3 guión:¿Cómo puedo arreglar un ValueError: leer de la excepción de archivo cerrado?
import urllib.request
host = "scholar.google.com"
link = "/scholar.bib?q=info:K7uZdMSvdQ0J:scholar.google.com/&output=citation&hl=en&as_sdt=1,14&ct=citation&cd=0"
url = "http://" + host + link
filename = "cite0.bib"
print(url)
urllib.request.urlretrieve(url, filename)
plantea esta excepción:
Traceback (most recent call last):
File "C:\Users\ricardo\Desktop\Google-Scholar\BibTex\test2.py", line 8, in <module>
urllib.request.urlretrieve(url, filename)
File "C:\Python32\lib\urllib\request.py", line 150, in urlretrieve
return _urlopener.retrieve(url, filename, reporthook, data)
File "C:\Python32\lib\urllib\request.py", line 1597, in retrieve
block = fp.read(bs)
ValueError: read of closed file
pensé que esto podría ser un problema temporal, por lo que añade alguna excepción sencillo el manejo de este modo:
import random
import time
import urllib.request
host = "scholar.google.com"
link = "/scholar.bib?q=info:K7uZdMSvdQ0J:scholar.google.com/&output=citation&hl=en&as_sdt=1,14&ct=citation&cd=0"
url = "http://" + host + link
filename = "cite0.bib"
print(url)
while True:
try:
print("Downloading...")
time.sleep(random.randint(0, 5))
urllib.request.urlretrieve(url, filename)
break
except ValueError:
pass
pero esto solo imprime Downloading...
ad infinitum.
Si mira en 'http: // scholar.google.com/robots.txt', verá que Google prohíbe las descargas automáticas de esta página. Y si intentas usar 'wget', obtendrás el error' 403 Forbidden'. Sospecho que esto también le está sucediendo a tu script. –
@senderle No hay una API, entonces la estoy analizando manualmente. –
@senderle, lo más probable es que necesite enviar una cookie para obtener el contenido. –