ad

2012年6月10日日曜日

外部のwebページ,webサイトの情報を取得する

表示されるwebデータをプログラム的に引っ張ってくる.
  • 取りあえずPHPでやるのが簡単そうなので,PHPでやってみる.
#1. file_get_contents関数を使う.
*file_exists関数で,まずファイルが存在するか確認しようとしたが,これは他サーバには使えないらしい

sample.php
 
 <?php
  $buff = file_get_contents("http://at4esnote.blogspot.jp/2012/06/webweb.html");
  echo $buff;
?> 
このブログのページソースを取ってくる.
単にページが表示されるだけだが,htmlデータを取ってきたということ.

#2. HTTP_Request を使う.
使うには,PEARの一部分であるHTTP_Requestをインストールする必要がある.
install   HTTP_Request   確実にインストールして下さい.(←ここでハマった)

sample2.php
 
<?php
require_once "HTTP/Request.php";
$req =& new HTTP_Request("http://at4esnote.blogspot.jp/2012/06/webweb.html");
if (!PEAR::isError($req->sendRequest())) {
    echo $req->getResponseBody();
}
?>



取りあえず,ここまで.
さらにGoogleで検索をして,その結果を取り出したい!なんてのは
http://www.phppro.jp/school/pear/vol8/1 
こちら様のサイトを参考にして,file_put_contents関数と組み合わせればOK.

0 件のコメント:

コメントを投稿