Pytorch の最も重要な 9 つの操作! ! !

Pytorch の最も重要な 9 つの操作! ! !

今日は、pytorch についてお話します。今日は、9 つ​​の最も重要な pytorch 操作をまとめました。これにより、全体的な概念が確実に理解できるようになります。

テンソルの作成と基本操作

PyTorch テンソルは NumPy 配列に似ていますが、GPU アクセラレーションと自動微分化を提供します。テンソルは、torch.tensor を通じて、または torch.zeros や torch.ones などの関数を使用して作成できます。

 import torch # 创建张量a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # 张量加法c = a + b print(c)

オートグラッド

torch.autograd モジュールは自動微分化のメカニズムを提供し、操作を記録し、勾配を計算できるようにします。

 x = torch.tensor([1.0], requires_grad=True) y = x**2 y.backward() print(x.grad)

ニューラルネットワーク層 (nn.Module)

torch.nn.Module は、ニューラル ネットワークを構築するための基本コンポーネントです。線形層 (nn.Linear)、畳み込み層 (nn.Conv2d) など、さまざまな層を含めることができます。

 import torch.nn as nn class SimpleNN(nn.Module): def __init__(self): super(SimpleNN, self).__init__() self.fc = nn.Linear(10, 5) def forward(self, x): return self.fc(x) model = SimpleNN()

オプティマイザ

オプティマイザーは、損失関数を最小化するためにモデル パラメータを調整するために使用されます。以下は、確率的勾配降下法 (SGD) オプティマイザーを使用した例です。

 import torch.optim as optim optimizer = optim.SGD(model.parameters(), lr=0.01)

損失関数

損失関数は、モデル出力とターゲット間のギャップを測定するために使用されます。たとえば、クロスエントロピー損失は分類問題に適しています。

 loss_function = nn.CrossEntropyLoss()

データの読み込みと前処理

PyTorch の torch.utils.data モジュールは、データの読み込みと前処理のための Dataset クラスと DataLoader クラスを提供します。データセット クラスは、さまざまなデータ形式やタスクに合わせてカスタマイズできます。

 from torch.utils.data import DataLoader, Dataset class CustomDataset(Dataset): # 实现数据集的初始化和__getitem__方法dataloader = DataLoader(dataset, batch_size=64, shuffle=True)

モデルの保存と読み込み

torch.save を使用してモデルの状態辞書を保存し、torch.load を使用してモデルを読み込むことができます。

 # 保存模型torch.save(model.state_dict(), 'model.pth') # 加载模型loaded_model = SimpleNN() loaded_model.load_state_dict(torch.load('model.pth'))

学習率調整

torch.optim.lr_scheduler モジュールは、学習率のスケジューリングのためのツールを提供します。たとえば、StepLR を使用して、各エポックの後に学習率を下げることができます。

 from torch.optim import lr_scheduler scheduler = lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)

モデル評価

モデルのトレーニングが完了したら、モデルのパフォーマンスを評価する必要があります。評価するときは、モデルを評価モード (model.eval()) に切り替え、torch.no_grad() コンテキスト マネージャーを使用して勾配計算を回避する必要があります。

 model.eval() with torch.no_grad(): # 运行模型并计算性能指标

<<:  超強力なPytorchオペレーション! ! !

>>:  GitHub の年末特典: プログラミング チャットボットがすべてのユーザーに公開され、ネットユーザーはこれをゲームチェンジャーと呼ぶ

ブログ    
ブログ    
ブログ    

推薦する

...

Xiaomi、自社開発のモバイルディープラーニングフレームワークMACEのソースを公開

6月28日、Xiaomiの人工知能およびクラウドプラットフォーム担当副社長である崔宝秋博士は、オープ...

...

K-means クラスタリングがあるのに、なぜ DBSCAN クラスタリング アルゴリズムが必要なのでしょうか?

クラスタリング分析は、データ ポイントを複数の特定のクラスターまたはグループに分割する教師なし学習手...

...

...

人工知能は意識のギャップを埋めることができるか?

諺にもあるように、千人の読者には千のハムレットがあり、私たちにとって人工知能 (AI) も同じことが...

...

...

2018年末のAI分野におけるオープンソースフレームワークのまとめ

[[253605]] [やや活発な***四半期] 2018.3.04——OpenAIはオープンソース...

「AI as a Service」は、業界における人工知能の応用シナリオです。

「AI as a Service」は、多次元統合と3次元浸透を備えたプラットフォームです。人工知能...

AIビデオ分析技術はどのように機能するのでしょうか?どのように機能しますか?

リアルタイムAI映像解析技術とは?リアルタイム AI ビデオ分析は、ビデオ ストリームを分析して、特...

...

...

最新レビュー!拡散モデルと画像編集の愛憎関係

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...