紳士-助けてくれたすべてに感謝します。一部には、あなたの提案のすべてが、私が最終結果を得るのに役立ちました。だから私はあなたに返信に対するすべての信用を与えましたが、それが他の人に役立つことを願って、以下に私自身の答えを投稿しました。これは一般的には完了していませんが、この場合、ソリューションを形成するための多くの領域があるので、すべてを1つにまとめました。
AWS S3を使用するために必要なサービスをインストールする
# > sudo apt-get install python-pip
# > sudo pip install awscli
自分のAmazonアカウントでAWS S3サービスにサインアップします:https : //aws.amazon.com/s3/
「アクセスキー->新しいアクセスキーを作成」でユーザーアカウントの新しいアクセスキーを定義し、プロンプトが表示されたらCSVファイルをダウンロードします。これを行わないと、コマンドラインS3関数を使用できなくなります。https://console.aws.amazon.com/iam/home?#security_credential
LinuxでAWSを使用する前にコマンドラインから起動する「aws configure」を起動するときにプロンプトが表示されたら、ROOTKEY.CSVファイルを開き、含まれているAccessKeyID値とSecretKey値をコピーして貼り付けます。
> aws configure
Enter your access key and secret key when asked. You can leave the third and fourth empty or as 'None'.
接続して、sample.txtファイルを含むファイルをアップロードできることをテストします
> aws s3 mv ~/SourceFolder/sample.txt s3://NameOfYourAWSS3Bucket
。/ AFolderYouHaveCreated
こちらのビルド手順に従ってmjpg_streamerをダウンロードしてインストールします。https://github.com/jacksonliam/mjpg-streamer#building--installation
完了したら、そのフォルダーに移動します
> cd mjpg_streamer
mjpgストリーマーを開始します。
> mjpg_streamer -i "./input_uvc.so -f 15 -r 1280x960" -o "./output_http.so -w ./www"
Webブラウザーで次のリンクにアクセスして、実行されていることを確認します。
http://127.0.0.1:8080/stream.html
次のコマンドを使用して、日付と時刻がスタンプされた単一のファイルを取得します(実行元のローカルディレクトリに保存します)。
> wget http://127.0.0.1:8080/?action=snapshot -O output-$(date +"%Y-%m-%d-%k-%M-%S").jpg
これにより、mjpeg_streamerフォルダーの「www」サブフォルダーに、「output-16-09-01-22-35-30.jpg」というファイルが2016年9月1日22:35に実行された場合に作成されます。
新しいbashスクリプト(MyScript.shなど)を作成し、実行権限を付与して、下部にあるコンテンツをその中にコピーします。実行すると、現在の日付が指定された終了日になるまで、5秒ごとにタイムスタンプ付きのJPEGが作成されます。この場合、日付Aで始まり、日付Bで終わります。独自の日付に置き換えてください。
これをスクリプトにコピーし、関連するパスを置き換えます。
#!/bin/bash
SOURCE="/home/YourUser/YourSourceFolder"
DESTINATION="s3://YourS3Bucket/DestinationFolder"
input_start=2016-8-29
input_end=2016-9-9
startdate=$(date -I -d "$input_start") || exit -1
enddate=$(date -I -d "$input_end") || exit -1
d="$startdate"
while [ "$d" != "$enddate" ]; do
sleep 5
wget "http://127.0.0.1:8080/?action=snapshot" -O output-$(date +"%Y-%m-%d-%k-%M-%S")'.jpg';
aws s3 mv $SOURCE $DESTINATION --recursive;
done
改善のための提案を歓迎します。
また、AWS S3でストレージの進行状況を確認することもできます
aws s3 ls s3://yourbucketname --recursive --human-readable --summarize
私はそれを10秒ごとに2時間発砲させたままにし、74Mbのアップロードを生成しました。したがって、1週間で6.5Gbになるように計算しました-コストが発生するサービスの価格帯よりも低く、8Gbだと思います。
再度、感謝します。