「専門家に聞く」シリーズ、今回のエピソードでは、Rambus LabsのSteven Woo博士が、AI 1.0からAI 2.0へのAIの進化について解説します。Woo博士によると、AI 2.0は、複雑なリクエストを解釈し、テキスト、音声、コード、画像、音楽、動画、3Dモデルなど、幅広い出力を生成できる生成AIです。
AI 2.0は、大規模言語モデル(LLM)とAI技術を用いた新しいコンテンツ生成能力によって実現されました。Woo博士はまた、LLMの学習プロセス(学習セットの準備、モデルアーキテクチャの決定、反復学習、そして微調整)の4段階について詳しく説明しました。
議論はAIの普及にも触れ、Woo博士は半導体業界の進歩により、よりローカルな推論と学習が可能になると予測しました。最後に、Woo博士はAIの未来におけるチップ技術の重要性を強調し、より高速で効率的なプロセッサと、データの移動とセキュリティを確保するための技術の必要性を強調しました。
エキスパート
- Dr. Steven Woo, Fellow and Distinguished Inventor, Rambus Labs
重要なポイント
- AI 2.0の進歩:AI 2.0は次世代AI、つまり生成AIです。複雑なリクエストを解釈し、テキスト、音声、コード、画像、動画、さらには3Dモデルなど、幅広いマルチモーダル出力を生成することができます。この進歩は、LLMの急速な規模拡大とそれに伴う機能拡張によって実現されています。
- 大規模言語モデルのトレーニング: 大規模言語モデルのトレーニングには、適切なトレーニング セットの準備、モデルのアーキテクチャの決定、精度を向上させるための反復トレーニング、精度と有効性を維持するためのモデルの微調整という 4 つのステップが含まれます。
- AIの普及:AIの普及は現在、推論分野で進んでおり、LLMはオープンソース化され、数百万人の人々が利用できるようになっています。今後、半導体がより高度化し、価格が手頃になるにつれて、ローカルトレーニングも普及され、携帯電話やノートパソコンなどのデバイスが個々のユーザーのニーズに合わせて自動調整できるようになるでしょう。
- AIチップ技術:AI 2.0の主要チップ技術は、より高い電力効率でより高いパフォーマンスを提供する必要があります。これには、より高速で高性能なプロセッシングコア、膨大な量のデータを移動・保護するための技術、そしてより高いデータレートで信頼性の高いデータ伝送を実現する技術が含まれます。
- AI 2.0の課題:AI 2.0における課題には、データ転送に伴う電力管理、On-dieエラーへの対応、プロセス微細化に伴うメモリセルの信頼性維持、そしてより高いデータレートにおける信頼性の高いデータ伝送の確保などが挙げられます。業界は、AI 2.0の急速な発展に必要なパフォーマンスレベルを継続的に提供するために、これらの分野について積極的に研究を進めています。
Key Quote
今、私たちはAI 2.0、生成AIの時代に入りつつあります。これは、音声やテキストなどの入力から非常に複雑なリクエストを作成し、これらの生成型AIエンジンがそれを受けてマルチモーダルな出力を生成することを意味します。出力としてテキストを生成できるだけでなく、音声を生成するだけでなく、コード、画像、音楽、動画、さらには3Dモデルを生成することもできます。つまり、これらのモデルが生成できるコンテンツの範囲は大きく進歩し、AI 1.0の限界をはるかに超えているのです。
関連コンテンツ
- ウェビナー: AI 2.0 Driving Demand for Memory Performance
- ホワイトペーパー: Supercharging AI Inference with GDDR7
- 製品情報: Memory Interface Chips
- 製品情報: Interface IP
- 製品情報: Security IP

Leave a Reply