Ten prosty Python 3 scenariusz:Jak naprawić błąd ValueError: odczyt wyjątku zamkniętego pliku?
import urllib.request
host = "scholar.google.com"
link = "/scholar.bib?q=info:K7uZdMSvdQ0J:scholar.google.com/&output=citation&hl=en&as_sdt=1,14&ct=citation&cd=0"
url = "http://" + host + link
filename = "cite0.bib"
print(url)
urllib.request.urlretrieve(url, filename)
podnosi ten wyjątek:
Traceback (most recent call last):
File "C:\Users\ricardo\Desktop\Google-Scholar\BibTex\test2.py", line 8, in <module>
urllib.request.urlretrieve(url, filename)
File "C:\Python32\lib\urllib\request.py", line 150, in urlretrieve
return _urlopener.retrieve(url, filename, reporthook, data)
File "C:\Python32\lib\urllib\request.py", line 1597, in retrieve
block = fp.read(bs)
ValueError: read of closed file
myślałem, że to może być tymczasowy problem, więc dodałem kilka prostych wyjątek obsługi tak:
import random
import time
import urllib.request
host = "scholar.google.com"
link = "/scholar.bib?q=info:K7uZdMSvdQ0J:scholar.google.com/&output=citation&hl=en&as_sdt=1,14&ct=citation&cd=0"
url = "http://" + host + link
filename = "cite0.bib"
print(url)
while True:
try:
print("Downloading...")
time.sleep(random.randint(0, 5))
urllib.request.urlretrieve(url, filename)
break
except ValueError:
pass
ale to po prostu drukuje Downloading...
ad infinitum.
Jeśli zajrzysz w "http: // scholar.google.com/robots.txt", zobaczysz, że Google zabrania automatycznego pobierania tej strony. A jeśli spróbujesz użyć 'wget' otrzymasz błąd' 403 Forbidden'. Podejrzewam, że dzieje się tak również z twoim scenariuszem. –
@senderle Nie ma interfejsu API, więc parsuję go ręcznie. –
@senderle, najprawdopodobniej musisz wysłać plik cookie, aby uzyskać zawartość. –