質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.50%

  • Python 3.x

    9760questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

netkeiba.com様から希望する情報がスクレイピング出来ず、苦慮しております

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 1,359

akakage13

score 80

スクレイピング初心者でございます。

netkeiba.com様から希望する情報がスクレイピング出来ず、苦慮しております。

# -*- coding:utf-8 -*-

import urllib2
import codecs
import time
from bs4 import BeautifulSoup

f1 = codecs.open('tokyo_race_1.csv', 'w', 'utf-8')
f1.write('other_race_name'+u"\n")

url_1='http://race.netkeiba.com/?pid=race_old&id=p201805010301'

soup_1 = BeautifulSoup(urllib2.urlopen(url_1).read(),"lxml")

other_race_name_tag_1 = soup_1.find('div',{'class':'race_otherdata'}).find('p')
other_race_name_1 = "".join([x for x in other_race_name_tag_1.text if not x == u'\xa0' and not x == u'\n'])
cols = [other_race_name_1.strip()]
f1.write(",".join(cols) + "\n")
print other_race_name_1

f1.close()

上記のスクリプトでは、一行目の 1回 東京3日目 3歳 は 取れるのですが、

目的とする、二行めの、 16頭 が 取ることが出来ず、苦慮しております。

試したこと

二行目を取る方法として、当該ソースコードを 見てみましたところ以下のような構造でした。

1R
</dt>
<dd>
<h1>3歳未勝利</h1>
<p><span>1300m&nbsp;/&nbsp;天気:晴&nbsp;/&nbsp;馬場:不良&nbsp;/&nbsp;発走:11:00</span></p>
</dd>
</dl>
<div class="race_otherdata">
<p>1回東京3日目&nbsp;3歳&nbsp;</p>
<p>牝[指定]&nbsp;16</p>
<p>本賞金:5002001307550万円</p>
</div>
<ul class="btn_link_list fc">

上記の 1回 東京3日目 3歳はとれるので、<p>  </p>で囲まれている全てを取ろうと考えて、上記のスクリプトのfindの箇所を

other_race_name_tag_1 = soup_1.find('div',{'class':'race_otherdata'}).findall('p')
other_race_name_1 = "".join([x for x in other_race_name_tag_1.text if not x == u'\xa0' and not x == u'\n'])

findall に改変して試しましたが、

    other_race_name_tag_1 = soup_1.find('div',{'class':'race_otherdata'}).findall('p')
TypeError: 'NoneType' object is not callable

と、エラーが出てきました。Typeerrorについて調べましたが、うまく動きませんでした。

二行めの16 を取る方法を 御教示 よろしくお願いいたします。

umyu様、丁寧な御教示ありがとうございます。

うまく動きました。ただ、

ご助言にもございましたが、小生、python3.5に移行中でございます。

そのため、今回のスクリプトをpython3.5に改変しましたところ、

以下のようなスクリプトになりました。

# -*- coding:utf-8 -*-

import urllib.request
import codecs
import time
from bs4 import BeautifulSoup

f1 = codecs.open('tokyo1.csv', 'w', 'utf-8')
f1.write('other_race_name'+u"\n")

url_1='http://race.netkeiba.com/?pid=race_old&id=c201805010801'

soup_1 = BeautifulSoup(urllib.request.urlopen(url_1), "html.parser")

#race1
tr_arr_1 = soup_1.select("table.race_table_old > tr ")
for tr_1 in tr_arr_1:
    #time.sleep(0.25)    
    tds_1 = tr_1.findAll("td")
    if len( tds_1 ) > 1:

        other_race_name_tag_1 = soup_1.find('div',{'class':'race_otherdata'}).find('p')
        other_race_name_1 = "".join([x for x in other_race_name_tag_1.text if not x == u'\xa0' and not x == u'\n'])
        cols = [other_race_name_1.strip()]
        f1.write(",".join(cols) + "\n")

        print (other_race_name_1.strip())

f1.close()

上記のスクリプトは一行目まではうまく動きます。

しかしながら、今回の目的の二行目までを取得しようとして、

御教示いただいたように、下記の通りに改変しましたが、うまく動きませんでした。

# -*- coding:utf-8 -*-

import urllib.request
import codecs
import time
from bs4 import BeautifulSoup

f1 = codecs.open('tokyo1.csv', 'w', 'utf-8')
f1.write('other_race_name'+u"\n")

url_1='http://race.netkeiba.com/?pid=race_old&id=c201805010801'

soup_1 = BeautifulSoup(urllib.request.urlopen(url_1), "html.parser")

#race1
tr_arr_1 = soup_1.select("table.race_table_old > tr ")
for tr_1 in tr_arr_1:
    #time.sleep(0.25)    
    tds_1 = tr_1.findAll("td")
    if len( tds_1 ) > 1:

        other_race_name_tag_1 = soup_1.find('div',{'class':'race_otherdata'}).find_all('p')
        other_race_name_1 = "".join([x for x in other_race_name_tag_1.text if not x == u'\xa0' and not x == u'\n'])
        cols = [other_race_name_1.strip()]
        f1.write(",".join(cols) + "\n")

        print (other_race_name_1.strip())

f1.close()

下記のエラーが出てきました。

ここに言語を入力 Traceback (most recent call last):   File "C:\Users\satoru\satoru_system\race_data_scan\tokyo\1_tokyo_race_data_scan.py", line 23, in <module>     other_race_name_1 = "".join([x for x in other_race_name_tag_1.text if not x == u'\xa0' and not x == u'\n'])   File "C:\Users\satoru\AppData\Local\Programs\Python\Python36\lib\site-packages\bs4\element.py", line 1807, in __getattr__     "ResultSet object has no attribute '%s'. You're probably treating a list of items like a single item. Did you call find_all() when you meant to call find()?" % key AttributeError: ResultSet object has no attribute 'text'. You're probably treating a list of items like a single item. Did you call find_all() when you meant to call find()?

python3.5におけるfindの使い方について、再度ご助言頂けますと助かります。

よろしくお願いいたします。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • umyu

    2018/02/21 01:11

    うまく出来ませんでした。ではなく、「質問するときのヒント」をhttps://teratail.com/help/question-tipsのページを参考にどのようなキーワードで調べたとか、そういう内容を質問文に追記してくださいな。

    キャンセル

回答 1

checkベストアンサー

+1

TypeError: 'NoneType' object is not callable

ぐーぐる翻訳
TypeError: 'NoneType'オブジェクトは呼び出し可能ではありません

このメッセージが発生する条件は以下の2パターンが多いです。
パターン1,値がNoneの変数に対して関数を呼び出そうとした。
質問文の場合はsoup_1.find('div',{'class':'race_otherdata'})の戻り値がNoneで、それに対して.findall()関数をよびだそうとした
パターン2,呼び出し関数のスペルミス。今回の場合はこちらです。

○/× 関数名
× .findall
.find_all

2行目の値も取り出したいとのことなので以下のソースコードでご要望の処理になりますか?

# -*- coding: utf8 -*-
import urllib2
import codecs
import time
from bs4 import BeautifulSoup


def get_content(url):
    from contextlib import closing
    with closing(urllib2.urlopen(url)) as response:
        return BeautifulSoup(response.read())


def get_data(soup):
    i = 0
    for parent in soup.find('div', {'class': 'race_otherdata'}):
        unicode_strings = unicode(parent.string).rstrip()
        if len(unicode_strings) == 0:
            continue
        if i == 2:
            # 本賞金以降はSkip
            continue
        yield unicode_strings
        i += 1


def main():
    with codecs.open('tokyo_race_1.csv', 'w', 'utf-8') as f1:
        f1.write('other_race_name' + u"\n")
        url = 'http://race.netkeiba.com/?pid=race_old&id=p201805010301'
        soup = get_content(url)
        for row in get_data(soup):
            f1.write(row + "\n")


if __name__ == '__main__':
    main()

■参考情報
Beautiful Soup 4.2.0 Doc. 日本語訳 (2013-11-19最終更新)

■余談
このコードを記述する時に一番時間がかかった点はpython 2.7環境でのunicode文字列の変換部分でした。
制約事項などがない場合はpython 3環境に移行することをおすすめいたします。


質問文のソースコードは回答した内容が一切反映されていないソースコードなのですが・・・その点。

まず、スクリプトの各変数の影響範囲を少なくすることを考えてくださいな。
質問文の改訂されたソースコードだと、どの箇所が問題になっているか、一瞬では原因究明が行えないと思います。

それは、以下の3つの処理を一つのスクリプト内で行っているからです。

1,WEBサイトからスクレイピング
2,スクレイピングしたデータをタグを指定して該当部分を抽出
3,抽出した内容をcsvファイルに書き出し。

こういう時は回答文のソースコードのように3つに関数を分割化を行います。
1,get_content
2,get_data
3,main

こうすることで、関数内と渡すパラメータだけ意識すればよくなり影響範囲が少なくなります。

python 3バージョンのソースコードです。

# -*- coding: utf8 -*-
import urllib.request
from bs4 import BeautifulSoup


def get_content(url:str):
    """
    @params url スクレイピング対象のURL
    """
    with urllib.request.urlopen(url) as response:
        return BeautifulSoup(response.read(), "html.parser")


def get_data(soup) -> str:
    i = 0
    for parent in soup.find('div', {'class': 'race_otherdata'}):
        data = parent.string.rstrip()
        if len(data) == 0:
            continue
        if i == 2:
            # 本賞金以降はSkip
            continue
        yield data
        i += 1


def main() -> None:
    url = 'http://race.netkeiba.com/?pid=race_old&id=p201805010301'
    soup = get_content(url)
    # python 3なのでcodec.openは不要
    with open('tokyo_race_1.csv', 'w', encoding='utf-8') as f:
        f.write('other_race_name' + u"\n")
        for row in get_data(soup):
            print(row)
            f.write(row + "\n")


if __name__ == '__main__':
    main()

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/02/22 07:26

    umyu様、python2.7-3.5両方における御教示、本当にありがとうございました。
    今後ともよろしくお願いいたします。

    キャンセル

同じタグがついた質問を見る

  • Python 3.x

    9760questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。