• 公開日:2025.08.20
エネルギー使用量を最大90%削減できる生成AIの賢い使い方とは
  • Sustainable Brands Staff
image credit: shutterstock

仕事のみならず日常生活でも使われる場面が増加中の生成AI。しかし、AIは無数のリクエストを処理する際に膨大なエネルギーを消費する。また、企業はAI利用によるCO2排出量の増加とサステナビリティ目標との間で板挟みになっている。そんな中、英大学の研究チームが電力使用量を抑制できるAIの使い方について実験を行い、研究結果を発表した。ほんのちょっとの配慮で驚くほどの効果を得られる「AI省エネ策」とはどんなものか、実験内容と併せて紹介しよう。(翻訳・編集=遠藤康子)

生成AIは近年になって利用が急拡大し、オープンAIやメタ、グーグルなどの企業が開発したLLM(大規模言語モデル)はいまや誰もが知るところとなった。オープンAIのChatGPTだけでも、1日に寄せられるリクエストは10億件を超える。

LLMは新世代が登場するたびに性能が進化しており、その人気の急上昇に伴ってAIデータセンターの稼働に必要な電力や水の需要が爆発的に増えている。仏コンサルティング会社の社内シンクタンク、キャップジェミニ・リサーチ・インスティテュートの最新報告書によると、企業幹部のほぼ半数が「生成AIの利用で自社の温室効果ガス(GHG)排出量が増加し、掲げているサステナビリティ目標の達成が危ぶまれている」と回答した。

ユネスコは2025年7月にAIの資源効率に関する最新報告書「Smarter, Smaller, Stronger: Resource-Efficient Generative AI & the Future of Digital Transformation」を発表した。そこに掲載された英ユニバーシティ・カレッジ・ロンドン(UCL)コンピューターサイエンス学部の研究によると、既存の解決策をより広く採用すれば、AIによるエネルギーならびに資源の需要を大幅に削減できる可能性があるという。

実際のAIで比較検証

UCLの研究チームは、メタが開発したモデル「LLaMA 3.1 8B」を使って一連の実験を行い、AIモデルの設定や使用方法を変更すると、エネルギー消費量とAIの精度にどのような変化が表れるのかを検証した。LLaMA 3.1 8Bモデルが実験対象として選ばれたのは、オープンソースで構造などを自在に変更でき、モデルに手を加えないバージョンとさまざま手を加えて最適化したバージョンを比較検証できるためだ(GPT-4などのクローズドモデルは内部構造が公開されていないため最適化ができない)。

実験の結果、内部計算で使用される数値を切り捨てたり、ユーザーの質問文やAIの回答文を短くしたり、一定のタスクに特化した小規模AIモデルを使用したりすると、エネルギーを節約できることが明らかになった。汎用AIモデルの使用時と比較すると、全体的なエネルギー削減率は90%に上る。

「精度を落としたり、全く新たな解決策を考案したりすることなく、生成AIによるエネルギーと資源の消費量を大幅に減らせる比較的シンプルなやり方があることが、このたびの研究で明らかになりました」。報告書の著者でUCLのユネスコAI講座メンバーでもあるイヴァナ・ドロブニャク氏はそう語った。「一部のAIプラットフォームでは、私たちが提案したような解決策をすでに検討・採用していますが、今回の研究で検証した3つの方法以外にもエネルギー使用量を減らせるやり方は多々あります。省エネ策を標準的手段として大々的に採用すれば、最大の効果が得られるでしょう」

省エネ策➀:内部計算の数値を切り捨て

1つ目の実験では、一般的な3つのタスク(文章の要約、翻訳、一般知識を問う質問への回答)をさまざまな条件下で実行し、LLaMA 3.1 8Bモデルの精度とエネルギー使用量を検証した。

LLMは、ユーザーが入力したプロンプトを理解するために言語を数値(トークン)に変換する。そして、このトークン化された数値を使ってタスクに必要な計算を実行してから、数値を言語に再変換し、回答を生成している。

LLMが計算する際に、量子化(計算に使用される数値の小数点以下を切り捨てること)と呼ばれる手法を適用したところ、エネルギー使用量は最大で44%減少したが、精度は基準値(注1)と比較しても97%以上が維持された。エネルギー使用量が減ったのは量子化した方が答えにたどり着きやすいからだ。「2.34+2.17」より「2+2」の方が速く計算できるのと同じことである。

省エネ策➁:小規模AIモデルに切り替える

研究ではさらに、3つのタスク(文章の要約、翻訳、一般知識を問う質問への回答)それぞれに特化した小規模AIモデルとLLaMA 3.1 8Bの比較検証も実施した。その結果、エネルギー使用量については小規模AIモデルの方が少なく、要約は15分の1、翻訳は35分の1、質問への回答は50分の1で済んだことが分かった。

一方、精度は大規模モデルとほぼ等しく、むしろ小規模AIモデルの方が要約では4%、翻訳では2%、質問への回答では3%高い精度を示した。

省エネ策③:質問文と回答文を短縮する

2つ目の実験では、ユーザーの質問文とAIモデルの反応(回答文)の英単語数を変更することでエネルギー使用量にどのような違いが生じるのかを検証した。

質問文と回答文の長さを、約400語から100語までさまざまに変化させた1000のシナリオを用い、それぞれのエネルギー使用量を算出した(注2)。

単語数が最も多くなるシナリオ(質問文が400語、回答文が400語)の電力使用量は1.03キロワット時(kWh)だった。これは、100ワットの電球を10時間点灯させるか、冷凍冷蔵庫を26時間稼働させる電力量に匹敵する。

ユーザーの質問文を200語に半減させると電力使用量は5%減少し、AIの回答文を200語に半減させると電力使用量は54%減少した。

現実的な影響を評価

実験で行われた最適化が世界全体に与える影響を検証するため、論文著者らはLLaMA 3.1 8Bに対し、1つの質問に対する回答を求めた(注3)。次に、その回答を導き出すためにAIが必要とした電力量を算出し、ChatGPT利用者が同種の質問をする1日の推定件数を掛け合わせた(注4)。

研究チームの試算によると、量子化と並行して質問文と回答文を300語から150語に短縮した場合、エネルギー使用量を75%削減できる可能性があるという。

このエネルギー量は、英国の平均世帯3万世帯の1日分に相当する(1世帯当たりのエネルギー使用量を1日7.4kWhと仮定した場合)。重要なのは、これだけの電力を節約しても、AIモデルがより複雑な一般的タスクを処理する能力が損なわれない点だ。

翻訳や文章の要約といった反復作業を行う時は、エネルギー使用量を最小限に抑えられるよう、小規模で目的に特化したAIモデルを使用すると同時に、質問文と回答文の長さを短縮すればいい。そうすれば、エネルギー使用量を最大90%削減できる(英国の平均世帯3万4000世帯に供給する1日分の電力量に相当)。

報告書の共著者でUCLデータサイエンスと機械学習の修士課程を修了したフリスティアン・ボシルコフスキ氏はこう説明する。「複雑なタスクや研究開発では、大規模な汎用AIモデルを使用した方が合理的な場合もあるでしょう。しかし、翻訳や知識検索といったタスクの場合は、大規模モデルから目的特化型の小規模モデルに切り替えると、エネルギーを最も効率的に使用できます。釘を打つ時に小さめのハンマーに持ち替えるような感じです」

AIがより賢くなる未来

報告書が指摘するように、生成AIモデルの競争が激化するにつれ、企業にとってはAIモデルを効率的に使用することと、タスク別に適した小規模モデルに切り替えることがますます重要になっていくだろう。

「生成AIの年間エネルギー使用量はすでに低所得国1カ国分に匹敵し、現在も指数関数的に上昇しています」と話すのは、ユネスコのコミュニケーション情報担当事務局長補タウフィク・ジェラシ氏だ。「AIの持続可能性を高めるためには、AIの使い方について考えを大きく転換させなくてはなりません。また、AIが環境に及ぼす影響を低減するために自分たちに何ができるのか、消費者を教育していく必要もあります」

UCLのドロブニャク氏はさらにこう続ける。「資源効率に優れたAIを取り上げる時、私はよく2つの例えを使います。1つは複数の脳の集合体という例えです。多数の専門型モデルが相互にメッセージをやり取りし、省エネにはなりますが断片的に思えます。もう1つの例は、私が最も望んでいる未来の形なのですが、単一の脳のような構造です。明確に区分された領域を持ち、緊密につながり合ってメモリーを共有しながら、必要な回路のみをオンにできます。精密に調和された大脳皮質の働きを生成AIに取り入れ、より賢く、より効率性に優れ、エネルギー使用量がはるかに少ない仕組みというイメージです」


(注)

1.量子化手法は3種類がテストされ、エネルギー使用量の削減率はBNBQが22%、GPTQが35%、AWQ が44%だった。技術的詳細は報告書を参照。

2.英語の場合、100語はおよそ128トークンに相当する。トークン数は言語によって異なる。

3.質問文:Explain the concept of reinforcement learning, emphasizing its core principles, components (like agents, environments, and rewards), and typical applications. Keep the explanation accessible to someone with basic knowledge of artificial intelligence.(強化学習の概念について、基本原則と構成要素[エージェント、環境、報酬など]、典型的な応用法を中心に説明してください。説明文は、人工知能について基礎的知識がある人に分かりやすい内容にしてください)

4.研究ではChatGPTの世界的な利用統計(2024年12月現在)に基づき、ChatGPTに寄せられるリクエスト件数を1日当たりおよそ10億件とした。そのうちの35%が概念に関する説明だと仮定すると、この種のリクエスト総数は推定で3億5000万件になる。

SB.com オリジナル記事へ

Related
この記事に関連するニュース

フードテックで一次産業を支援し、食料自給率を上げる
2025.04.30
  • ニュース
  • #DX/デジタル
  • #テクノロジー
  • #AI
  • #資源循環
AIの環境負荷を評価する「AIエネルギースコア」が登場 
2025.04.30
  • ワールドニュース
  • #テクノロジー
  • #AI
AIを活用して気候変動に強い都市をつくる IBMと世界大都市気候先導グループが連携
2025.03.13
  • ワールドニュース
  • #気候変動/気候危機
  • #テクノロジー
  • #AI
地域からイノベーションのポテンシャルを引き出す――愛知県にオープンイノベーション拠点STATION Aiが10月オープン
2024.09.30
  • ニュース
  • スポンサー記事
Sponsored by STATION Ai株式会社
  • #イノベーション
  • #地方創生
  • #テクノロジー
  • #AI

News
SB JAPAN 新着記事

【編集局コラム】人任せにしない、私的で楽しいまちづくり 
2025.10.03
  • コラム
  • #まちづくり
「高度な資源循環」後押しする制度設計を――キリン、サントリーなど8社が政策提言
2025.10.02
  • ニュース
  • #サーキュラーエコノミー
  • #資源循環
  • #プラスチック
教育からシングルマザー支援まで CLACKが2法人で狙う「100倍のインパクト」
2025.10.02
  • インタビュー
  • #パートナーシップ
サステナブル・ブランド国際会議2025 東海シンポジウム開催決定
2025.10.01
  • SBコミュニティニュース

    Ranking
    アクセスランキング

    • TOP
    • ニュース
    • エネルギー使用量を最大90%削減できる生成AIの賢い使い方とは