Skip to main content

テストコピー

PyTorchを使用した深層学習モデル向けGPUの使用に関する簡単なチュートリアル。利用可能かどうかの確認から、使用可能なものの視覚化まで。
Created on August 5|Last edited on August 5

セクション

導��

このレポートでは、GPUの使用方法とその制御方法について説明します。
私たちはWeights and Biasesを使用して、すべてのGPUおよびCPUの使用率を自動的に記録します。これにより、多数のモデルを訓練する際の計算リソースの使用状況を簡単に監視できます。
続行する前に、まだであれば、したいと思うかもしれません。PyTorchがGPUを使用しているか確認する

GPUの利用状況を確認する

最も簡単な方法でGPUへのアクセスを確認する方法は、呼び出すことです。torch.cuda.is_available()Trueの場合、システムにNvidiaドライバが正しくインストールされていることを意味します。
>>> import torch
>>> torch.cuda.is_available()


GPU使用時の注意点

  • デフォルトでは、テンソルはCPU上で生成されます。モデルもCPU上で初期化されます。そのため、操作がGPUを使用して行われるように手動で確認する必要があります。
    >>> X_train = torch.FloatTensor([0., 1., 2.])
    >>> X_train.is_cuda
    False
  • PyTorchは、CPUで生成されたテンソルをGPUに転送するための使いやすいAPIを提供しています。幸いなことに、新しいテンソルは親テンソルと同じデバイス上で生成されます。
    >>> X_train = X_train.to(device)
    >>> X_train.is_cuda
    True
  • 同じ論理がモデルにも適用されます。
    model = MyModel(args)
    model.to(device)
  • したがって、データとモデルをGPUに転送する必要があります。それで、何がdevice?
  • それは一般的なPyTorchの手法で、通常「」という名前の変数を初期化します。deviceデバイスを保持するもの(CPUまたはGPU)。
    device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
    print(device)