データセットと DataLoader を使用して PyTorch でデータをカスタマイズする

データセットと DataLoader を使用して PyTorch でデータをカスタマイズする

大規模なデータセットを扱う場合、データ全体を一度にメモリにロードすることが非常に困難になることがあります。

したがって、唯一の方法は、処理のためにデータをバッチでメモリにロードすることであり、これを行うには追加のコードを記述する必要があります。この目的のために、PyTorch はすでに Dataloader 関数を提供しています。

データローダー

PyTorch ライブラリの DataLoader 関数の構文とそのパラメータ情報を以下に示します。

  1. DataLoader(データセット、batch_size=1、shuffle= False 、sampler=None、
  2. batch_sampler=なし、num_workers=0、collat​​e_fn=なし、
  3. pin_memory= False 、drop_last= False 、タイムアウト=0、
  4. worker_init_fn=なし、*、prefetch_factor=2、
  5. persistent_workers = False )

いくつかの重要なパラメータ

  • データセット: まずデータセットを使用して DataLoader クラスを構築する必要があります。
  • シャッフル: データを再編成するかどうか。
  • Sampler : オプションの torch.utils.data.Sampler クラス インスタンスを参照します。サンプラーは、サンプルを順番に、ランダムに、またはその他の方法で取得するための戦略を定義します。サンプラーを使用する場合は、シャッフルを false に設定する必要があります。
  • Batch_Sampler: バッチレベル。
  • num_workers: データをロードするために必要な子プロセスの数。
  • collat​​e_fn : サンプルをバッチにまとめます。 Torch ではカスタム照合が可能です。

組み込みのMNISTデータセットをロードする

MNIST は手書きの数字を含む有名なデータセットです。 DataLoader 機能を使用して PyTorch の組み込み MNIST データセットを処理する方法を説明します。

  1. 輸入トーチ
  2. matplotlib.pyplot をpltとしてインポートします。
  3. torchvisionからデータセットをインポートし、変換する

上記のコードは、torchvision の torch コンピュータ ビジョン モジュールをインポートします。これは画像データセットを操作するときによく使用され、画像の正規化、サイズ変更、切り抜きに役立ちます。

MNIST データセットの場合、次の正規化手法が使用されます。

ToTensor() は、0〜255 のグレースケール範囲を 0〜1 に変換できます。

  1. 変換 = transforms.Compose([transforms.ToTensor()])

必要なデータセットを読み込むには、次のコードを使用します。 PyTorchDataLoader を使用して、batch_size = 64 を指定してデータをロードします。 shuffle=True はデータをシャッフルします。

  1. trainset = datasets.MNIST( '~/.pytorch/MNIST_data/' 、 download= True 、 train= True 、 transform=transform)
  2. トレインローダー = torch.utils.data.DataLoader(トレインセット、バッチサイズ = 64、シャッフル = True )

データセット内のすべての画像を取得するには、通常、iter 関数とデータ ローダー DataLoader を使用します。

  1. dataiter = iter(trainloader)
  2. 画像、ラベル = dataiter.next ()
  3. 印刷(images.shape)
  4. 印刷(ラベル.形状)
  5. plt.imshow(images[1].numpy().squeeze(), cmap= 'Greys_r' )

カスタムデータセット

次のコードは、1000 個の乱数を含むカスタム データセットを作成します。

  1. torch.utils.dataからデータセットをインポート
  2. ランダムにインポート
  3.   
  4. クラスSampleDataset(データセット):
  5. __init__(self,r1,r2)を定義します。
  6. ランダムリスト=[]
  7. iが範囲(120)内にある場合:
  8. n = ランダム.randint(r1,r2)
  9. ランダムリストに追加(n)
  10. self.samples = ランダムリスト
  11.   
  12. __len__(自分)を定義します:
  13. len(self.samples)を返す
  14.   
  15. __getitem__(self, idx)を定義します。
  16. 戻り値(self.samples[idx])
  17.   
  18. データセット=サンプルデータセット(1,100)
  19. データセット[100:120]

ここに画像の説明を挿入

最後に、カスタム データセットでデータローダー関数を使用します。 batch_size は 12 に設定され、num_workers = 2 で並列マルチプロセス データ ロードも有効になります。

  1. torch.utils.dataからDataLoader をインポートします
  2. ローダー = DataLoader(データセット、バッチサイズ=12、シャッフル= True 、num_workers=2)
  3. iの場合 enumerate(loader)バッチ処理します。
  4. print(i, バッチ)

以下では、いくつかの例を通して、大量のデータをバッチでメモリにロードする際の PyTorch Dataloader の役割について学習します。

<<:  再帰アルゴリズム: 不可解なスイッチ「ライトを引く」

>>:  Go データ構造とアルゴリズムの基本クイックソート

ブログ    
ブログ    
ブログ    

推薦する

エッジAIを真の変革に

エッジ AI の導入は幅広い業界で増加しています。この傾向が続くと、ビジネスだけでなく社会も変革する...

673本の論文を要約し、UIUCなどが20ヶ月で完成させた信頼性の高い機械学習レビューを発表

少し前、UIUC と南洋理工大学の 3 人の研究者が 20 か月かけて 673 本の論文を研究し、信...

新しいトレンド!人工知能と5G技術がスマートフォンを再定義する

海外メディアは、プライスウォーターハウスクーパースの報告書が、人工知能と5G技術が今後3~5年でスマ...

機械学習モデルが公平かどうかを簡単に確認する方法

[[361220]] [51CTO.com クイック翻訳] 私たちはますます分断が進む世界に住んでい...

機械学習で避けるべき3つの落とし穴

[[274438]]機械学習の分野は数十年にわたって「タンク問題」に悩まされてきました。この話は 1...

...

ディープラーニングの面接で知っておくべきこと

[[208646]]この記事は、「ディープラーニングの面接で知っておくべきことは何ですか」という質問...

...

大規模ディープラーニングツールの最新動向を詳しく見る

Panos Labropoulos 博士は、Bright Computing のシニア サポート エ...

調査:CIOはAIの実験や投資に依然として慎重

機械学習の実験と成果の達成に関しては、持っている人と持っていない人の間の格差が拡大しています。先週ニ...

Junhao Real EstateはIBM MaximoとTRIRIGAを使用して標準化されたインテリジェントデジタルビジネスシステムを構築しました

IBM は、IBM Maximo インテリジェント資産管理プラットフォームや TRIRIGA スマー...

...

...

ISPの廃止はテスラの「純粋なビジョン路線」にとって重要なステップ

私はテスラの「純粋なビジュアルルート」に常に懐疑的でした。疑問なのは、アルゴリズムの進歩によってカメ...

データサイエンスと機械学習のためのツールと言語の最新情報

[[198310]]第 18 回 KDnuggets ソフトウェア アンケートには、今年もアナリティ...