前提・実現したいこと
twitterAPIを利用して収集したテキストデータに対して、google の自然言語処理APIを利用して感情分析を行おうとしています。しかし、googleのAPIの一分間のリクエスト制限を回避する方法が分かりません。一分間に600リクエストに抑えるorリクエスト上限に引っかかったエラーを拾って休止させる方法がありましたら教えて頂きたいです。
APIの概要のページ:https://cloud.google.com/natural-language/
python
1client = language.LanguageServiceClient() 2document = language.types.Document( 3 content='ここに分析したいテキスト', 4 type=enums.Document.Type.PLAIN_TEXT) 5result = client.analyze_sentiment(document=document) #分析結果が返ってくる 6print('score: {}, magnitude: {}'.format(result.document_sentiment.score, result.document_sentiment.magnitude)) # 感情値を出力
補足
使用している環境
OS:windows10
言語:python3.6.9
パッケージ管理:pip3
※WSLを利用してUbuntu上で動かしています。
あなたの回答
tips
プレビュー