「専門家に聞く」シリーズ、今回のエピソードでは、Rambus LabsのSteven Woo博士が、AI 1.0からAI 2.0へのAIの進化について解説します。Woo博士によると、AI 2.0は、複雑なリクエストを解釈し、テキスト、音声、コード、画像、音楽、動画、3Dモデルなど、幅広い出力を生成できる生成AIです。 AI 2.0は、大規模言語モデル(LLM)とAI技術を用いた新しいコンテンツ生成能力によって実現されました。Woo博士はまた、LLMの学習プロセス(学習セットの準備、モデルアーキテクチャの決定、反復学習、そして微調整)の4段階について詳しく説明しました。 議論はAIの普及にも触れ、Woo博士は半導体業界の進歩により、よりローカルな推論と学習が可能になると予測しました。最後に、Woo博士はAIの未来におけるチップ技術の重要性を強調し、より高速で効率的なプロセッサと、データの移動とセキュリティを確保するための技術の必要性を強調しました。 エキスパート Dr. Steven Woo, Fellow and Distinguished Inventor, Rambus Labs 重要なポイント AI 2.0の進歩:AI 2.0は次世代AI、つまり生成AIです。複雑なリクエストを解釈し、テキスト、音声、コード、画像、動画、さらには3Dモデルなど、幅広いマルチモーダル出力を生成することができます。この進歩は、LLMの急速な規模拡大とそれに伴う機能拡張によって実現されています。 大規模言語モデルのトレーニング: 大規模言語モデルのトレーニングには、適切なトレーニング セットの準備、モデルのアーキテクチャの決定、精度を向上させるための反復トレーニング、精度と有効性を維持するためのモデルの微調整という 4 つのステップが含まれます。 AIの普及:AIの普及は現在、推論分野で進んでおり、LLMはオープンソース化され、数百万人の人々が利用できるようになっています。今後、半導体がより高度化し、価格が手頃になるにつれて、ローカルトレーニングも普及され、携帯電話やノートパソコンなどのデバイスが個々のユーザーのニーズに合わせて自動調整できるようになるでしょう。 AIチップ技術:AI 2.0の主要チップ技術は、より高い電力効率でより高いパフォーマンスを提供する必要があります。これには、より高速で高性能なプロセッシングコア、膨大な量のデータを移動・保護するための技術、そしてより高いデータレートで信頼性の高いデータ伝送を実現する技術が含まれます。