マイクロソフト、アルファベット、メタなどのテック大手は、AIを活用したクラウドサービスからの収益で大きな成功を収めていますが、同時にAIの進化を追求するために莫大な費用をかけています。最近の財務報告書は、AI革命の裏にある複雑な経済現実を浮き彫りにしています。一方で素晴らしい利益が上がり、他方で驚くべき費用がかかっています。
ブルームバーグはAI開発を「巨大な金食い虫」と呼び、今日のAI革命の背後にある経済的な現実を強調しています。この問題の中心には、より大規模で高度なAIモデルの開発への絶え間ない追求があります。人工知能(AGI)を目指して、企業はGPT-4のような大規模な言語モデルを開発しており、これには莫大な計算力が必要です。その結果、ハードウェアコストが前例のないほど高くなっています。
特に、AI専用のチップ、特にグラフィックスプロセッシングユニット(GPU)の需要が急増しています。Nvidiaはこの分野のリーディングメーカーであり、テック企業がこれらの重要な部品を確保するために争う中、その市場価値が急上昇しています。NvidiaのH100グラフィックスチップは、AIモデルのトレーニングにおいて最高の標準とされており、その価格は推定で3万ドルにも達します。一部の再販業者はさらに高額で販売しています。
世界的なチップ不足がこの問題をさらに悪化させており、一部の企業は必要なハードウェアを手に入れるのに数か月を要しています。メタのCEOであるザッカーバーグは、彼の会社が今年末までにAI研究のために35万個のH100チップを取得する予定だと述べています。たとえ一括購入の割引を受けたとしても、それはすぐに数十億ドルのコストになります。
一方で、より高度なAIを追求することは、チップ設計の競争を引き起こしています。GoogleやAmazonのような企業は、競争力を高め、サードパーティのサプライヤーへの依存を減らすために、AI専用のプロセッサーの開発に多額の投資を行っています。このカスタムシリコンへの移行は、AI開発プロセスにさらなる複雑さとコストを加えています。
しかし、ハードウェアの問題はチップの調達だけにとどまりません。現代のAIモデルの規模は大規模なデータセンターを必要とし、これには技術的な課題も伴います。これらの施設は、極端な計算負荷を処理しながら、効率的に熱放散とエネルギー消費を管理するように設計されています。モデルが大きくなるにつれて、必要な電力も増加し、運用コストと環境への影響が大幅に増加します。
4月初旬のポッドキャストインタビューで、OpenAIのライバル企業であるAnthropicのCEO、ダリオ・アモデイは、現在市場に出ているAIモデルのトレーニングには約1億ドルのコストがかかると述べました。「現在トレーニング中であり、今年の後半や来年の初めに登場するモデルのコストは1億ドルに近いです」と彼は言いました。「2025年と2026年には、そのコストが50億ドルから100億ドルに近づくでしょう。」
また、AIシステムの生命線であるデータには、その独自の技術的課題があります。膨大な量の高品質なデータセットの必要性から、企業はデータの収集、クリーニング、アノテーション技術に多額の投資を行っています。一部の企業は、リアルワールドのデータを補完するための高度な合成データ生成ツールを開発しており、これも研究開発コストを押し上げています。
AIの革新の急速なペースは、インフラストラクチャやツールがすぐに陳腐化することを意味します。企業は競争力を維持するためにシステムを継続的にアップグレードし、モデルを再トレーニングしなければならず、常に投資と陳腐化のサイクルに直面しています。
「4月25日、マイクロソフトは最近の四半期に140億ドルの資本支出を行ったと述べ、これらのコストは「AIインフラストラクチャへの投資の一部として大幅に増加する」ことを期待しています。前年同期と比較して79%の増加です。アルファベットは四半期中に120億ドルを費やし、前年同期と比較して91%の増加となり、年内の残りも「そのレベルかそれ以上」であることを期待していると述べ、AIの機会に焦点を当てています」とブルームバーグは述べています。
ブルームバーグはまた、メタが今年の投資見積もりを引き上げ、資本支出が350億ドルから400億ドルになると見込んでいることも指摘しています。これは高い方で42%の増加になります。「AI研究と製品開発への積極的な投資が要因だ」とブルームバーグは書いています。
興味深いことに、ブルームバーグの記事は、これらの巨額の費用にもかかわらず、テック大手がAIが実際の収益源であることを証明していると指摘しています。マイクロソフトとアルファベットは、AIサービスの需要増加に起因するクラウドビジネスの大幅な成長を報告しました。これは、AI技術への最初の投資が莫大であっても、その見込み収益が費用を正当化するほどの魅力があることを示唆しています。
ただし、AI開発の高コストは市場集中についての懸念を引き起こします。この記事で述べられているように、最先端のAI研究に関連する費用は、限られた資金力のある企業に限られる可能性があり、競争と多様性を阻害する可能性があります。今後、業界はこれらのコスト課題に対処するため、より効率的なAI技術の開発に焦点を当てています。
少量学習、転移学習、エネルギー効率の高いモデルアーキテクチャなどの技術への研究は、AI開発と展開に必要な計算リソースを削減することを目指しています。さらに、エッジAI(クラウドではなくローカルデバイスでAIモデルを実行する)へのシフトは、計算負荷を分散させ、集中型データセンターへの負担を軽減するのに役立つ可能性があります。
しかし、このシフトは、チップ設計とソフトウェアの最適化における新たな技術革新を必要とします。全体として、AIの未来はアルゴリズムとモデル設計におけるブレークスルーだけでなく、AIシステムのスケーリングに伴う巨大な技術的および財政的障壁を克服する能力によって形作られることは明らかです。これらの課題を効果的に乗り越えることができる企業は、次のAI革命のリーダーとして浮上する可能性が高いです。