テストコピー
PyTorchを使用した深層学習モデル向けGPUの使用に関する簡単なチュートリアル。利用可能かどうかの確認から、使用可能なものの視覚化まで。
Created on August 5|Last edited on August 5
Comment
セクション
導��
このレポートでは、GPUの使用方法とその制御方法について説明します。
私たちはWeights and Biasesを使用して、すべてのGPUおよびCPUの使用率を自動的に記録します。これにより、多数のモデルを訓練する際の計算リソースの使用状況を簡単に監視できます。
GPUの利用状況を確認する
最も簡単な方法でGPUへのアクセスを確認する方法は、呼び出すことです。torch.cuda.is_available()Trueの場合、システムにNvidiaドライバが正しくインストールされていることを意味します。
>>> import torch>>> torch.cuda.is_available()
GPU使用時の注意点
- デフォルトでは、テンソルはCPU上で生成されます。モデルもCPU上で初期化されます。そのため、操作がGPUを使用して行われるように手動で確認する必要があります。>>> X_train = torch.FloatTensor([0., 1., 2.])>>> X_train.is_cudaFalse
- PyTorchは、CPUで生成されたテンソルをGPUに転送するための使いやすいAPIを提供しています。幸いなことに、新しいテンソルは親テンソルと同じデバイス上で生成されます。>>> X_train = X_train.to(device)>>> X_train.is_cudaTrue
- 同じ論理がモデルにも適用されます。model = MyModel(args)model.to(device)
- したがって、データとモデルをGPUに転送する必要があります。それで、何がdevice?
- それは一般的なPyTorchの手法で、通常「」という名前の変数を初期化します。deviceデバイスを保持するもの(CPUまたはGPU)。device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")print(device)
Add a comment