Rでwebスクレイピングをしようと思っているのですが、
うまくいっていないのでどうかご教示ください。
とりあえず、ブラウザ上にあるテキストデータをすべて取り込めればいいかなとおもっています。
手動操作で説明すると、
ブラウザ上で、ctrl+a, ctrl+c の後に、
メモ帳で、ctrl+v することを、
Rのプログラミングでやれないものかと思っています。
何かいい方法はないでしょうか?
以下、自分でやってみたことを書きます。
下記サイトを参考にさせていただき、Rでwebスクレイピングをしようとしていますが、うまくいっていません。
http://uytaz.com/2015/02/25/post-905/
上記サイトでは、XML+RCurl の方法と、rvest の方法が記載されています。
いずれにしても、私がxpathの使い方を理解していないからうまくいっていないのだと思ってます。
XML+RCurl の方法では、
targetXPath <- "//p"
rvest の方法では、
html_nodes(xpath = "//p")%>%
この//pを別のものに変えればいいのだろうと見当がついているのですが、
//htmlや//body
では、タグを取り切れていないようで、満足のいくものになっておりません。
特に、xpathにこだわっているわけではありません。
冒頭に書かせていただいたように、
ブラウザ上で、ctrl+a, ctrl+c の後に、
メモ帳で、ctrl+v することを、
Rのプログラミングでやりたいだけなので、
他の方法でもいいものがあれば教えていただけると幸いです。
どうぞよろしくお願いします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2015/09/07 11:39
2015/09/07 15:04
2015/09/10 14:46