AIは実際にチップを生成できます! GPT-4はわずか19回の対話で130nmチップを構築し、チップ設計業界におけるHDLの大きな課題を克服しました。

AIは実際にチップを生成できます! GPT-4はわずか19回の対話で130nmチップを構築し、チップ設計業界におけるHDLの大きな課題を克服しました。

GPT-4 はすでに人間がチップを作るのに役立っています!

ニューヨーク大学タンドン工学部の研究者たちは、簡単な英語の会話だけを使って、GPT-4 を使ったチップを作成した。

具体的には、GPT-4 は対話を通じて実行可能な Verilog を生成します。その後、ベンチマークとプロセッサはテープアウトを成功させるために Skywater 130 nm シャトルに送信されました。

この成果は前例のないものです。

論文アドレス: https://arxiv.org/pdf/2305.13243.pdf

これは、大規模言語モデルの助けを借りて、チップ設計業界の大きな問題である HDL が解決されることを意味します。チップ開発のスピードが大幅に加速され、チップ設計の敷居が大幅に下がるため、専門的なスキルを持たない人でもチップを設計できるようになります。

研究者らは「この研究は、物理チップの製造に直接使用できる、初めて完全にAIで生成されたHDL(ハードウェア記述言語)を生み出したと考えられる」と述べた。

HDL問題はGPT-4によって解決された

上の図に示すように、チップの設計と製造において非常に重要なコード部分である Verilog は、研究者のプロンプトを通じて GPT-4 によって生成されました。

このニューヨーク大学の研究では、2 人のハードウェア エンジニアが、GPT-4 に英語で話しかけるだけで、新しい 8 ビット アキュムレータ ベースのマイクロプロセッサ アーキテクチャを設計しました。

GPT-4 によって設計されたチップは明らかに産業標準に達しており、研究者によって Skywater 130nm シャトルで製造されるために送られた。

これは、大規模な言語モデルを使用して設計された最初の IC が実際に製造されたという点で画期的な出来事です。

ハードウェア記述言語 (HDL) は、チップ設計業界が常に直面している大きな課題でした。

HDL コードは非常に専門的な知識を必要とするため、多くのエンジニアにとって習得するのは非常に困難です。

大規模な言語モデルが HDL の作業を置き換えることができれば、エンジニアはより有用なことに集中できるようになります。

ピアース博士は、初めてのチップ設計に非常に感銘を受けました。「私はチップ設計の専門家ではありませんが、チップを設計しました。これが印象的です。」

通常、あらゆる種類のハードウェア (チップを含む) を開発する際の最初のステップは、ハードウェアの機能を日常的な言葉で説明することです。

次に、特別に訓練されたエンジニアがこの記述をハードウェア記述言語 (HDL) に変換し、ハードウェアがタスクを実行できるようにする実際の回路要素を作成します。

Verilog は典型的な例です。この研究では、大規模言語モデルが対話を通じて実行可能な Verilog を生成することができました。次のステップは、ベンチマークとプロセッサをテープアウトのために Skywater 130 nm シャトルに送信することです。

ニューヨーク大学タンドン校電気・コンピュータ工学部およびサイバーセキュリティセンターの研究助教授であるハモンド・ピアース博士は、チップチャットプロジェクトはハードウェア設計における大規模言語モデルの機能を調査するために開始されたと語った。

彼らの見解では、これらの大規模な言語モデルは単なる「おもちゃ」ではなく、さらに多くのことを実現する可能性を秘めています。この概念を証明するために、Chip Chat プロジェクトが誕生しました。

OpenAI の ChatGPT や Google の Bard がさまざまなプログラミング言語でソフトウェア コードを生成できることは誰もが知っていますが、ハードウェア設計におけるそれらの応用については広く研究されていません。

この NYU の研究では、AI がソフトウェア コードを生成するだけでなく、ハードウェア製造にも役立つことが示されています。

大規模な言語モデルの利点は、会話形式で対話できるため、双方向のアプローチを通じてハードウェア設計を改善できることです。

研究チームは、大規模言語モデルを使用して 8 つのハードウェア設計例を処理し、特に機能と検証の目的で Vrilog コードを生成しました。

これまで、研究者らは英語をVrilogに変換する際の大規模言語モデルの有効性をテストしてきましたが、大規模言語モデルは人間のエンジニアとの対話型プロセスを追加した後にのみ最良のVrilogを生成することがわかりました。

この研究は単なる実験的なものではありません。研究者らは、この方法を実際の環境で実践すれば、大規模な言語モデルによって HDL 変換プロセスにおける人為的エラーが削減され、生産性が大幅に向上し、チップの設計時間と市場投入までの時間が短縮され、チップ設計者がより創造的な設計を行えるようになることを発見しました。

さらに、このプロセスにより、チップ設計者の HDL の習熟度の必要性が大幅に軽減されます。

HDL の記述は比較的珍しいスキルであるため、多くのチップ設計の求職者にとって大きなハードルとなっています。

では、大規模言語モデルが実際にチップ設計に使用される場合、現段階で実現可能でしょうか?

研究者らは、関連する安全要因と起こり得る問題を特定し、さらなるテストを通じて解決する必要があると述べた。

感染症流行中のチップ不足により、自動車やその他チップに依存する機器の供給が滞っています。大規模言語モデルが実際にチップを設計できるようになれば、この不足は間違いなく大幅に緩和されるでしょう。

4つの主要なLLMチップ設計の比較

研究者らはまず、チップ設計における大規模言語モデルのパフォーマンスを評価するための設計フローチャートと評価基準を設定しました。対話フレームワークはフィードバック ループを形成します。

研究者たちは、この「半自動」プロセスを通じて、4 つの大規模言語モデル (GPT-4、ChatGPT、Bard、HuggingChat) のチップ設計実行能力を比較したいと考えています。

研究者たちはまず、下の図に示すプロンプト単語を大規模言語モデルに入力し、2 つの異なる文書を生成するように依頼しました。

その後、研究者は出力内容を経験豊富なエンジニアに評価してもらい、使用可能かどうかを確認します。

出力が基準を満たさない場合、研究者は大規模言語モデルに同じプロンプト語をさらに 5 回出力させます。

それでも要件を満たさない場合は、大規模言語モデルではこのワークフローを完了できないと考えられます。

設計とベンチテストの内容が完了したら、Icarus Verilog (iverilog) を使用して内容をコンパイルします。コンパイルが成功したら、シミュレーションに進みます。

このプロセスがエラーなしで実行された場合、デザインは承認されます。

ただし、このプロセスのいずれかのプロセスでエラーが発生した場合、そのエラーはモデルにフィードバックされ、モデル自体が修復できるようになります。このプロセスはツール フィードバック (TF) と呼ばれます。

その後同じエラーが 3 回繰り返される場合、ユーザーは単純なヒューマン フィードバック (SHF) を提供します。

エラーがまだ存在する場合、モデルにはさらなるフィードバック (中程度のヒューマン フィードバック、MHF) と (高度なヒューマン フィードバック、AHF) が引き続き提供されます。

それでもエラーが存在する場合、モデルはプロセスを完了できないとみなされます。

GPT-4とChatGPTが勝利

上記のプロセスに基づいて、研究者はハードウェア設計のために、GPT-4/ChatGPT/Bard/Hugging Chat という 4 つの大規模言語モデルによって生成された Verilog のレベルをテストしました。

まったく同じプロンプト語を使用した後、次の結果が得られました。

GPT-4 と ChatGPT はどちらも仕様を満たすことができ、最終的に設計プロセス全体に合格しました。Bard と HuggingChat は基準を満たすことができなかったため、以下のさらなるテスト プロセスを開始しました。

BardとHuggingChatのパフォーマンスが悪かったため、研究者はその後のプロセスでGPT-4とChatGPTのみに焦点を当てました。

テストプロセス全体を完了した後、GPT-4とChatGPTの比較結果は次のとおりです。

結果とは、成功または失敗が得られるフィードバック段階を指します。

GPT-4 のパフォーマンスは非常に良好で、基本的にほとんどのテストに合格しました。

ほとんどの場合、テストはツール フィードバック (TF) 段階に到達するだけで完了しますが、テストベンチでは手動フィードバックが必要です。

ChatGPT のパフォーマンスは GPT-4 よりも大幅に低く、ほとんどの試行がテストに失敗し、合格した結果のほとんどが全体的な基準を満たしていませんでした。

実際のチップ設計プロセスにおけるGPT4支援チップ設計の検討

この標準化されたテストプロセスを完了した後、唯一の適格な大型モデル GPT-4 が選択されました。

研究チームはこれを活用して実際にチップ製造プロセスに参加し、現実世界のチップ設計・製造プロセスで生じる問題を解決することにしました。

具体的には、研究チームは経験豊富なハードウェア設計エンジニアに、GPT-4 を使用してより複雑なチップ設計をいくつか設計し、設計結果の定性的なチェックを実施するよう依頼しました。

研究チームは、GPT-4 を使用して、設計されたチップのすべての Verilog を記述しました (最上位の Tiny Tapeout ラッパーを除く)。

研究者たちは、下の図に示すプロンプトを使用して、ハードウェア設計エンジニアと GPT-4 に、8 ビットのアキュムレータ ベースのアーキテクチャと 32 バイトのメモリを備えたフォン ノイマン型チップの設計を開始するように依頼しました。

設計プロセス中、人間のエンジニアが GPT-4 を誘導し、その出力を検証する責任を負っていました。

GPT-4 はプロセッサの Verilog コードの記述を単独で担当し、プロセッサの仕様の大部分も開発します。

具体的には、研究チームは大規模なデザイン プロジェクトをサブタスクに分割し、それぞれのサブタスクにインターフェイス内に独自の「会話スレッド」を持たせました。

ChatGPT-4 はスレッド間で情報を共有しないため、エンジニアは前のスレッドから新しい最初のメッセージに関連情報をコピーする必要があり、それによってプロセッサを徐々に定義する「基本仕様」が形成されます。

基本仕様には、最終的に、ISA、レジスタ リスト、メモリ バンク、ALU、および制御ユニットの定義に加えて、プロセッサが各サイクルで実行すべきことの高レベルの概要が含まれます。

この仕様の情報のほとんどは ChatGPT-4 によって生成され、エンジニアはコピー/貼り付け作業とわずかな編集のみを行いました。

ChatGPT-4 は、理想的とは言えない応答を出力することがあります。

このような状況が発生した場合、エンジニアには 2 つの選択肢があります。会話を続行して応答を修正するか、インターフェイスを使用して ChatGPT-4 に応答を「再開」させるか、つまり、以前の回答がなかったかのようにして結果を再生成するかです。

2 つのうちどちらかを選択するには、専門家の判断が必要です。会話を続けると、ユーザーは以前の応答のどの部分が良かったか悪かったかを指定できますが、再生成すると、会話全体がより短く簡潔になります (コンテキスト ウィンドウのサイズが限られていることを考えると、これは貴重です)。

ただし、下の図の「#Restart」列に見られるように、エンジニアが ChatGPT-4 の使用に慣れるにつれて、再起動の回数は減少する傾向があります。

論文では、研究者らは、最も難しいプロンプトと応答の例を示しました。これは、10 回再開され、制御信号の計画に関する文章でした。

デザイン結果

デザインプロセスに関する完全な会話は、以下のリンクでご覧いただけます。

https://zenodo.org/record/7953724

GPT-4 によって生成された命令セットアーキテクチャ (ISA) を下図に示します。

研究者らは、GPT-4 によって設計されたチップの経路データを以下のようにマッピングしました。

最後に、研究者らは次のようにコメントしています。「大規模な言語モデルは設計能力を倍増させ、設計者が設計空間を素早く探索し、反復することを可能にします。」

「全体的に、GPT-4 は使用可能なコードを生成し、設計時間を大幅に節約できます。」

参照: https://engineering.nyu.edu/news/chip-chat-c ​​onversations-ai-models-can-help-create-microprocessing-chips-nyu-tandon-researchers


<<:  AI生成コンテンツの隠れた危険性:AIがAIを学習するだけでは、インターネットは意味のないコンテンツで満たされる

>>:  AI時代が到来。アンドリュー・ン氏はすべての子供に人工知能について教えるべきだと訴える

ブログ    
ブログ    
ブログ    

推薦する

SMOTE アルゴリズムを使用せずに、マルチクラスの不均衡なデータをどのように処理できますか?

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...

AIで製造業を解放する: 企業がアプリケーションシナリオを発見し、課題に対処する方法

まとめ現在、さまざまな業界がデジタルビジネスシナリオを実装または強化するために機械学習機能を構築して...

GIF 圧縮アルゴリズムの発明者が IEEE の最高栄誉賞を受賞

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

MotionLM: 言語モデルとしてのマルチエージェント動作予測

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

人工知能の歴史 - チューリングテストからビッグデータまで

[[194770]]私はずっと、人工知能がどのように提案されたのか、その背後にはどのような物語がある...

ディープQ学習ネットワーク: 仮想ゲームから現実世界のアプリケーションへのギャップを埋める

翻訳者 |李睿レビュー | Chonglou人工知能と機械学習は、ヘルスケア、金融、エネルギー、輸送...

スマートテクノロジーは小売業界にどのような影響を与えるでしょうか?

過去数年間、小売業界はテクノロジーによって革命を起こしてきました。店舗の日々の運営方法から、消費者の...

...

超実用的画像超解像再構成技術の原理と応用

[51CTO.com からのオリジナル記事] コンピューターで何か面白いものを見つけたときにスクリー...

iPhoneXの顔認識はどのようなデータセキュリティの考え方を誘発するのでしょうか?

[[204618]]今年のAppleカンファレンスでは、iPhone Xの「フロントバン」が観客の...

5400億パラメータの大規模モデル進化ツリーが大幅に更新されました!最も詳細なプロンプトスキルを備えた85ページのLLM開発履歴

4月にリリースされるや否や開発者コミュニティで話題となった大規模言語モデルの概要が更新されました!こ...

2018年世界大学AIランキングが発表、中国の大学が好成績!

この記事では、CSranking の計算に基づいて、コンピューターサイエンスの分野システムと学部の観...

ロボットが人間の「仲間」となり、人間と機械の関係が変化する。これは良いことなのか、悪いことなのか?

最近南京で開催された2020年世界知能製造会議において、中国工程院の研究者らは、人類の発展の観点から...

何開明のMAE制限が破られ、Swin Transformerと組み合わせることで、トレーニング速度が向上しました

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...