- - PR -
ホームページディレクトリのコピー方法
1
投稿者 | 投稿内容 |
---|---|
|
投稿日時: 2003-10-17 13:15
現在、レンタルサーバーを借りてホームページを持っています。
Windowsマシンのffftpでホームページ上の全ファイルの更新状況(BBS等)を 調べ、更新があったものだけをダウンロードしてローカルに同期させています。 今回、Redhat Linux 9 + Apache 2で自宅サーバを立ち上げたので 同じように最新のファイルをダウンロードして /var/www/html に 同期させたい(ミラーリング?)のですが、いい方法はありますでしょうか? Windowsからsamba経由でファイルをコピーしてみたのですが、 それだとタイムスタンプが再現されないのと、余計なファイルまで 持ってきてしまうので何かいい方法はないかと思っています。 |
|
投稿日時: 2003-10-18 00:18
自分では使わないので知りませんが
fmirror とか rsync とかその他いろいろツールはあると思うです。 自分が手出しできるマシン同士なら、あらかじめリストを作って 置いておくとかいろいろ出来るので、立派なツールは使わなくても ちょこちょこっとスクリプト書いてFTPを叩く、とか。 |
|
投稿日時: 2003-10-20 10:03
Windowsと全く同じ方法でいいなら、gftpを使えば良いです。
ffftpの更新チェック機能?(使ったこと無いので良く知らないですが) みたいに、ディレクトリ配下のファイルを比較して同期できます。 cronとか使って、自動的にやらせたいなら、ぽんすさんの言うfmirrorかな。 |
1