- PR -

ホームページディレクトリのコピー方法

1
投稿者投稿内容
なか-chan@最愛のiMac
ぬし
会議室デビュー日: 2002/07/17
投稿数: 385
お住まい・勤務地: 和光市・世田谷区
投稿日時: 2003-10-17 13:15
現在、レンタルサーバーを借りてホームページを持っています。
Windowsマシンのffftpでホームページ上の全ファイルの更新状況(BBS等)を
調べ、更新があったものだけをダウンロードしてローカルに同期させています。

今回、Redhat Linux 9 + Apache 2で自宅サーバを立ち上げたので
同じように最新のファイルをダウンロードして /var/www/html に
同期させたい(ミラーリング?)のですが、いい方法はありますでしょうか?

Windowsからsamba経由でファイルをコピーしてみたのですが、
それだとタイムスタンプが再現されないのと、余計なファイルまで
持ってきてしまうので何かいい方法はないかと思っています。
ぽんす
ぬし
会議室デビュー日: 2003/05/21
投稿数: 1023
投稿日時: 2003-10-18 00:18
自分では使わないので知りませんが
fmirror とか rsync とかその他いろいろツールはあると思うです。

自分が手出しできるマシン同士なら、あらかじめリストを作って
置いておくとかいろいろ出来るので、立派なツールは使わなくても
ちょこちょこっとスクリプト書いてFTPを叩く、とか。
t-wata
大ベテラン
会議室デビュー日: 2002/07/12
投稿数: 209
お住まい・勤務地: 東京
投稿日時: 2003-10-20 10:03
Windowsと全く同じ方法でいいなら、gftpを使えば良いです。
ffftpの更新チェック機能?(使ったこと無いので良く知らないですが)
みたいに、ディレクトリ配下のファイルを比較して同期できます。

cronとか使って、自動的にやらせたいなら、ぽんすさんの言うfmirrorかな。
1

スキルアップ/キャリアアップ(JOB@IT)