約3000枚の画像を含むデータセットでディープラーニングモデルをトレーニングしたいと考えています。データセットは巨大なので、GPUがサポートされているため、Google colabを使用したいと思います。このフル画像フォルダをノートブックにアップロードして使用するにはどうすればよいですか?
約3000枚の画像を含むデータセットでディープラーニングモデルをトレーニングしたいと考えています。データセットは巨大なので、GPUがサポートされているため、Google colabを使用したいと思います。このフル画像フォルダをノートブックにアップロードして使用するにはどうすればよいですか?
回答:
方法1:
方法2:
最善の策は、画像をzipファイルとしてGoogleドライブにアップロードし、Google Colab(GC)経由でアクセスすることです。
GCを使用して、Googleドライブを認証およびマウントします
from google.colab import drive
drive.mount('/content/drive')
リンクをクリックして、コードをGCノートブックに貼り付けます
GCからファイルを解凍します
!unzip -uq "/content/drive/My Drive/PATH_TO_ZIP" -d "/content/drive/My Drive/PATH_TO_OUTPUT"
これでファイルを使用する準備ができました
ダウンロードリンクがあれば、アップロードする必要はありません...(いずれかの方法でアップロードする方が高速です。最初にアップロードしてからダウンロードすることをお勧めします。ノートブックを実行するたびに)
あなたがダウンロードリンクを持っているなら、これだけ
! wget <Link>
それ以外の場合は、ドライブにアップロードしてから、以下を使用してください
from google.colab import files
uploaded = files.upload()
##files.upload returns a dictionary of the files which were uploaded. The
##dictionary is keyed by the file name, the value is the data which was
##uploaded.
for fn in uploaded.keys():
print('User uploaded file "{name}" with length {length} bytes'.format(
name=fn, length=len(uploaded[fn]))