特定のサイトに対して、定期的にアクセスしたいと思っています。
そこで、robots.txtにを参考にしましたが、頻度に関する記述は無く困っています。
頻度はどの程度がいいでしょうか?皆さんの意見を教えてください
今は15秒に一度を24時間で動作させています。
C#
1 async Task<string> GetHttp(string url) 2 { 3 Console.WriteLine("HttpGet"); 4 using (HttpClientHandler handler = new HttpClientHandler()) 5 { 6 handler.AutomaticDecompression = DecompressionMethods.GZip | DecompressionMethods.Deflate; 7 8 using (var http = new HttpClient(handler)) 9 { 10 http.DefaultRequestHeaders.Add("User-Agent", "CrawlBOT "); 11 var response = await http.GetAsync(url); 12 return await response.Content.ReadAsStringAsync(); 13 } 14 }; 15 }
一日に一度くらいでいいでしょう。
15秒一度では早すぎますか?1日に5500回ぐらいです。
攻撃と間違われないか心配です。
Zuishinさんの言う通り、頻度をかなり落としたほうがいいでしょうか?
サイトによりますが、攻撃とみなされる可能性はあります。頻度は可能な限り落とすのがいいと思いますが、目的によっては上げなくてはならないこともあるでしょう。それ以前にスクレイピングが許されるかどうか規約などを確認してください。
わかりました、利用規約を読んでみます。回答ありがとうございました。
頻度どころかそもそもそういうアクセスを禁止している可能性もあるので、
面倒なことにしたくなければなるべくそのサイトで提供されているAPIを使いましょう。
なければ諦めましょう。ダメなものはダメです。
クローラを作ってアクセスしたら業務妨害とかで逮捕されたという事例もあります。特殊な例かもしれませんが注意した方がよさそうです。
回答1件
あなたの回答
tips
プレビュー