GPT時代の学習アルゴリズム、線形モデルを実装するPytorchフレームワーク

GPT時代の学習アルゴリズム、線形モデルを実装するPytorchフレームワーク

今日は線形回帰モデルの実装を続けます。ただし、今回はすべての関数を自分で実装するのではなく、Pytorch フレームワークを使用して実装を完了します。

コード全体はどの程度変更されますか?

1 つ目はデータ生成部分で、前の部分と似ています。

 import numpy as np import torch from torch.utils import data from d2l import torch as d2l
 true_w = torch.tensor([2, -3.4]) true_b = 4.2 features, labels = d2l.synthetic_data(true_w, true_b, 1000)

しかし、データの読み取りから始めると、状況は変わります。

前のコードでは、イテレータを独自に実装し、トレーニング データからランダムにデータを抽出しました。ただし、置換なしのサンプリング設計は使用せず、データシャッフル操作も実行しませんでした。

ただし、Pytorch フレームワークにはこれらのコンテンツ用の既成ツールが用意されているため、自分で実装する必要はありません。

ここでは、TensorDataset と DataLoader の 2 つのクラスが必要です。

 def load_array(data_arrays, batch_size, is_train=True): #@save """构造一个PyTorch数据迭代器""" dataset = data.TensorDataset(*data_arrays) return data.DataLoader(dataset, batch_size, shuffle=is_train)

これら 2 つのクラスの使用方法については、ChatGPT に直接問い合わせることができます。

写真

つまり、TensorDataset はテンソル データをカプセル化するために使用され、その主な機能は DataLoader と連携することです。

写真

DataLoader は、基本的なデータ読み取りに加えて、ランダム順序、サンプリング、マルチスレッド読み取りなどの機能も提供するイテレータです。

トレーニング データの反復子を取得するには、load_array を呼び出します。

 batch_size = 10 data_iter = load_array((features, labels), batch_size)

モデルパーツ

前回の実装では、線形回帰モデルのパラメータとして 2 つのテンソルを独自に作成しました。

しかし、そんなに面倒なことはする必要はありません。線形回帰は単層ニューラルネットワークとみなすことができます。原理と効果の点ではまったく同じです。したがって、対応する API を呼び出すことでモデルを簡単に実装できます。

 from torch import nn net = nn.Sequential(nn.Linear(2, 1))

ここで、nn はニューラル ネットワークの略です。nn.Linear(2, 1) は、入力次元が 2、出力次元が 1 の単層線形ネットワークを定義します。これは線形モデルと同等です。

nn.Sequential モジュール コンテナー。複数の入力ネットワーク構造を順番に完全なモデルに組み立てることができます。これはモデルを構築するための非常に一般的で便利な方法です。この方法に加えて、モデルを作成する他の方法もありますが、それらについては後で詳しく説明します。

写真

一般的に、モデルを作成した後は特に初期化する必要はありませんが、モデルのパラメータを調整する場合は、weight.data と weight.bias を使用してパラメータにアクセスできます。

 net[0].weight.data.normal_(0, 0.01) net[0].bias.data.fill_(0)

次に、損失関数を定義しましょう。Pytorch は損失関数の実装もカプセル化しているので、直接呼び出すことができます。

 loss = nn.MSELoss()

nn.MSELoss は平均二乗誤差であり、MSE は平均二乗誤差の略語です。

最後に、最適化アルゴリズムです。Pytorch は、モデル内のパラメータを更新する方法もカプセル化しています。モデルを更新するために、テンソルの勾配を手動で使用する必要はありません。最適化方法を定義し、自動的に作業を実行させるだけです。

 optim = torch.optim.SGD(net.parameters(), lr=0.03)

電車

最後のステップは、上記のすべての実装を連続して接続するモデルをトレーニングすることです。

プロセス全体に必要なコードはほんの数行だけです。

 num_epochs = 3 for epoch in range(num_epochs): for X, y in data_iter: l = loss(net(X) ,y) optim.zero_grad() l.backward() optim.step() l = loss(net(features), labels) print(f'epoch {epoch + 1}, loss {l:f}')

以前実装したモデルパラメータ更新部分は、optim.step() の行に置き換えられました。

モデルがどんなに複雑であっても、optim.step() を使用してパラメータを更新できるので、非常に便利です。

トレーニング後のモデルのパラメータ値も確認でき、これも設定に非常に近い値になっています。

写真

この時点で、線形回帰モデル全体の実装が完了します。

このモデルはすべてのモデルの中で最もシンプルで、そのシンプルさゆえに初心者に最適です。後で、より複雑なモデルに触れると、コードはより複雑になっているにもかかわらず、現在のフレームワークに従っていることがわかります。

<<: 

>>:  テクノロジー統合によるバーチャルキャラクターの創造と実践

ブログ    

推薦する

XiaoIceが超自然音声技術をリリースし、シリーズA資金調達の完了を発表

7月12日、XiaoIce社は新たな超自然音声技術をリリースした。この技術により、AI 音声の自然さ...

人間と機械の論争:AIは感情について語っても負ける

青いステージの真ん中に黒いパネルが立っていた。パネルには青い楕円形のスクリーンが点滅し、その奥から冷...

これらの 9 つの仕事が人工知能に置き換えられない理由

人工知能 (AI) と機械学習 (ML) の機能は徐々に拡大していますが、創造性、共感、感情認識など...

データセットと DataLoader を使用して PyTorch でデータをカスタマイズする

大規模なデータセットを扱う場合、データ全体を一度にメモリにロードすることが非常に困難になることがあり...

DeepMindはAIを使ってチェスの新しいルールを作成する

今回、彼らは元チェス世界チャンピオンのウラジミール・クラムニクとチームを組み、AI技術にこの古代のボ...

ARMベースの3DES暗号化アルゴリズムの実装(1)

暗号化アルゴリズムは主にソフトウェアとハ​​ードウェアを通じて実装されます。ソフトウェア実装には柔軟...

インテル子会社が自動運転向け5nm RISC-Vプロセッサをリリース

CES(コンシューマーエレクトロニクスショー)がラスベガスで盛況だ。インテル、マイクロソフト、グーグ...

インターネット業界における顔認識機能の認知に関する調査報告書

[51CTO.comからのオリジナル記事] 高速かつ高性能なコンピュータの登場により、顔画像技術は大...

...

...

AI チャットボットの 7 つの使い方

今日、ビジネスプロフェッショナルは市場での収益を増やすために高度なテクノロジーを求めています。人工知...

...

...

人工知能技術を開発すべきでしょうか?

まず、技術発展の観点から見ると、人工知能技術の発展は避けられません。現在、クラウドコンピューティング...

加速を解き放つ、8月の自動運転業界の動向の概要

[[419694]]チップ不足と疫病の影響により、今年初めから自動運転産業の発展は減速を余儀なくされ...