#beatutifulsoupでスクレイピングしてきたデータについて
python初心者です。ご教示ください。宜しくお願い致します。
URLリストに循環し値を取ってきたいのですがたまに値が入っていない場合があります。
href_output = link.attrs['src']
alt_output = link.attrs['alt']
この箇所がたまに抜け落ちている場合があるのですが、その際にプログラム自体が停止してしまいます。
個の場合、どのように条件分岐?をしていいかわからず・・・
色々と模索してみたのですがうまくいきませんでした。
手がかりだけでもいいのでヒントを頂けると幸いでございます。
お手数をおかけいたしますが宜しくお願い致します。
python
1 html = urllib.request.urlopen(url).read() 2 soup = BeautifulSoup(html, 'lxml') 3 p = soup.findAll('p' , class_='pr_image') 4 5 for f in p: 6 for link in f.findAll('img'): 7 8 href_output = link.attrs['src'] 9 alt_output = link.attrs['alt'] 10 11 12 with open('yeahhhh.csv' , 'a' , encoding='cp932' ,newline='') as f: 13 writer = csv.writer(f) 14 writer.writerow([href_output , alt_output]) 15
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/07/26 05:58