これはとても簡単なことのように思えますが、実際にそうです。ファイルを自分のサーバーにダウンロードするために必要なのは
file_put_contents("Tmpfile.zip", file_get_contents("http://someurl/file.zip"));
ただ、1つ問題があります。もし、100MBのような大きなファイルがあったらどうでしょう。そうすると、メモリが足りなくなり、ファイルをダウンロードすることができません。
私が欲しいのは、ダウンロード中にファイルをディスクに書き込む方法です。そうすれば、メモリの問題に悩まされることなく、大きなファイルをダウンロードすることができます。
PHP 5.1.0以降、file_put_contents()
では、$data
パラメータにストリームハンドルを渡すことで、一枚ごとの書き込みをサポートしています。
file_put_contents("Tmpfile.zip", fopen("http://someurl/file.zip", 'r'));
マニュアルより。
マニュアルより: > data(第2引数)がストリームリソースの場合、そのストリームの残りのバッファを指定したファイルにコピーします。これは、次のようにしても同様です。
stream_copy_to_stream()
と似ています。
(Hakre]1さん、ありがとうございます。)
private function downloadFile($url, $path)
{
$newfname = $path;
$file = fopen ($url, 'rb');
if ($file) {
$newf = fopen ($newfname, 'wb');
if ($newf) {
while(!feof($file)) {
fwrite($newf, fread($file, 1024 * 8), 1024 * 8);
}
}
}
if ($file) {
fclose($file);
}
if ($newf) {
fclose($newf);
}
}
cURLを使ってみる
set_time_limit(0); // unlimited max execution time
$options = array(
CURLOPT_FILE => '/path/to/download/the/file/to.zip',
CURLOPT_TIMEOUT => 28800, // set this to 8 hours so we dont timeout on big files
CURLOPT_URL => 'http://remoteserver.com/path/to/big/file.zip',
);
$ch = curl_init();
curl_setopt_array($ch, $options);
curl_exec($ch);
curl_close($ch);
確信はありませんが、CURLOPT_FILE
オプションを使うと、データを取り込んだときに書き込まれる、つまりバッファリングされないのではないかと思います。