提示コードですがアルバムアートワークが欲しいのでproject im@s wiki というサイトからoriginal fileの画像をダウンロードしたいのですがこれするにはどうすればいいのでしょうか?画像のURLを見ると CINDERELLA MASTER
の部分がCM
という省略されておりこれではCD名を入力してアルバムアートワークをダウンロード
いう行為ができません。
おそらく行ること
このページ(https://project-imas.wiki/THE_IDOLM@STER_SHINY_COLORS_SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-)
のソースから<meta>タグで語尾が.jpgのURL(https://images.project-imas.wiki/e/ef/SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-.jpg)を探して
保存
困っていること
おそらく行うことの<meta>タグで語尾が.jpgのURL(https://images.project-imas.wiki/e/ef/SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-.jpg)を探して
を探す方法
やりたいこと
アルバム名を入力してそのアルバムのアートワークの高解像度のものをダウンロードしたい。
このページ(https://project-imas.wiki/THE_IDOLM@STER_SHINY_COLORS_SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-)
のアルバムアートワーク画像をクリックした(https://project-imas.wiki/File:SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-.jpg)
のoriginal file URLをクリックした(https://images.project-imas.wiki/e/ef/SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-.jpg)
ページの画像を保存したい
Error
Traceback (most recent call last): File "C:\Users\yw325\Desktop\Main.py", line 14, in <module> if d.startswith("http") and (d.endswith("jpg") or d.endswith("png")): AttributeError: 'NoneType' object has no attribute 'startswith'
参考サイト: http://arduinopid.web.fc2.com/R19.html
py
1from bs4 import BeautifulSoup 2import requests 3img_list = [] 4url = 'https://project-imas.wiki/THE_IDOLM@STER_SHINY_COLORS_SOLO_COLLECTION_-1stLIVE_FLY_TO_THE_SHINY_SKY-' # 任意のurlを指定 5url_cont = BeautifulSoup(requests.get(url).content,'lxml') # url解析 6#img_all = url_cont.find("meta") 7img_all = url_cont.find_all("meta") 8 9 10 11 12for d in img_all: # imgタグ情報を一つずつ抽出 13 d = d.get("content") 14 if d.startswith("http") and (d.endswith("jpg") or d.endswith("png")): 15 print(d); 16 img_list.append(d) # srcの末尾が.jpgか.pngの場合リストに追加 17 18 19 20 21 22for img_data in img_list: # 画像データをファイルに保存 23 with open(img_data.split('/')[-1], 'wb') as f: 24 f.write(requests.get(img_data).content) # ファイル保存 25 26 print(img_data.split('/')[-1]) # 保存ファイル名出力 27 28 29 30 31""" 32url_image = BeautifulSoup(requests.get(img_list[0]).content,'lxml') # url解析 33 34 35for img_data in img_list: # 画像データをファイルに保存 36 with open(img_data.split('/')[-1], 'wb') as f: 37 f.write(requests.get(url_image).content) # ファイル保存 38 39 print(img_data.split('/')[-1]) # 保存ファイル名出力 40""" 41