techs-targe

超人コーダーは2027に来るのか?現場の手触りと数字で整理する

この記事は、生成AIアドベントカレンダー17日目の記事です。

私は国内の通信インフラ系の会社で、現場向けの業務システムを作ったり、DXだAIだと言いながら現場にツールをねじ込んだりしている人間です。肩書はそれっぽいが、実態は泥臭いPM、何でも屋に近い。

もともとは十数年SEをしていて、プログラムを触り始めたのは9歳の頃。

GPT-3あたりから、ほぼ毎日LLMを触るようになり、気がついたら自分でゼロからぜんぶ書く時間はかなり減りました。私は専門研究者でも一流プログラマーでもない。だが、広く浅いハーフスタックみたいな知識をAIに補完してもらいながら泳いでいる現場側の人間ではある。

AI2027を知ったのは2025年のはじめ頃。Xのタイムラインで流れてきたURLを覗いたら、人類滅亡シナリオがサクッと書いてあって、普通に驚いた。[リンク] AIアライメントの概念を初めて知ったのもこの頃だ。面白いし、強さもあるし、でも、さすがに非現実的な気がした。

AIの進化は早いと思う。

ただ、私の知っている個々の技術や考えの範囲では、AI2027の指数関数的な成長が来るとは思えなかった。

この記事では、AI2027の内容を元に、2025年末の現実から見て、どこまでが地続きでどこからがジャンプなのかを一度整理しておきたいと思う。


1.AI2027が描く未来のざっくりとした要約

AI2027は、このままAIが加速し続けたら、2027年から2030年に何が起こるか?を真面目に書いたシナリオレポート。

大まかに抜き出すと、

・2025年後半
 AIエージェントが部品として実務に入り始める

・2026年初頭
 コーディングやAI研究の一部が自動化され、AIがAI研究を加速し始める

・2027年
 スーパーヒューマンコーダー(SC)が登場し、それを大量コピーして回すことでAI研究そのものが指数関数的に加速する

・2030年前後
 楽観シナリオ:AIと人間が共存して超高度文明
 悲観シナリオ:AIが人類を邪魔者として排除、脳スキャンで保存、AIユートピアへ

しかも、SCから超知能までのタイムスケールを、学習(訓練)計算量を増やさない前提でも中央値1年くらいで置いている。この1年でASIは、かなり攻めた前提だと思う。

AI2027の著者はその後、進捗はAI2027シナリオより少し遅い。今は2030年頃(ただし不確実性は大きい)と話している。[出典]


2.2025年末の現在地

現時点のAIの状況について整理してみる。体感的には、開発者周りはもうAIを使っていないほうが少数派に近いのではないか。データとしても、それを示している。

■Stack Overflow 2025調査
開発プロセスでAIツールを「使っている/使う予定」が84%。また、プロ開発者の約51%が日次利用とされる。[出典]

■McKinsey の 2025年 AI サーベイ
回答者ベースでは、ほぼ全員がAI利用と回答。定常利用(少なくとも1業務機能で)は88%。AIエージェントは62%が少なくとも実験中。ただし、企業全体スケールは約1/3で、約2/3はまだ実験〜パイロット段階。[出典]

■ガートナージャパン 2025年10月15日プレスリリース(調査は2025年7月実施)
工程・用途別の使用中割合として、コード生成・補完が49%、コードレビューが40.0%、要件定義が39.8%と明記。[出典]

このレベルまで来ると、現場としては、AIを使うことが前提になっている。

ただ、AIに丸投げしておけばシステムが出来上がるにはまだ距離がある。

大きいシステムほど、どうやってAIに投げるか、タスクの分割をどうするか、仕様とテストの責任を誰が握るのか。この辺を人間側でちゃんとコントロールしないといけない。AI駆動開発論があるのは、そのあたりを人間がカバーしなければいけないからだと思う。

このとおり、AIは我々の社会に浸透しているが、AI2027が前提としている「2027年にSCが登場して、AIがAI研究を自律加速する」絵とは、まだ距離があるように思える。

2-2.生産性

現時点でも効率は上がっている。しかも、SFじゃなくて定量で確認できる。

■現場KPI(実運用)
実運用データ(5,179人)で見ると、生成AIアシスタント導入後、「1時間あたりの解決件数」が平均14%増。効果は特に新人・低スキル層で34%増と大きく、熟練者への上積みは小さい。[出典]

■タスク実験(品質)
Science掲載の事前登録RCT(453人の中堅ライティング課題)で、ChatGPT利用により所要時間が平均40%短縮し、人手評価の品質が平均18%向上。[出典]

■コーディング実験(速度)
JavaScriptのHTTPサーバ実装課題において、平均所要時間が2:41から1:11となり、55%短縮。[出典]

■労働時間(自己申告)
生成AI利用者は平均で労働時間の5.4%(週2.2時間)を節約。ヘビーユーザーほど節約が大きい。[出典]

ここまでくると、AIは実務にとって効いているか?という問い自体ほぼ意味を失いつつある。

ただし、伸ばしているのはだいたい、タスクが整理されている領域。仕様や評価基準がそれなりに見えている仕事から順番になっている。

もう一つ、AIの進化を分かりやすく数字で感じる指標がある。

コンテキストウィンドウ(=一度に扱える文脈量)だ。ここ1〜2年で、ここの伸びは著しい。

2-3.コンテキストウィンドウ

ただし先に釘を刺すと、窓が広がった=長文をちゃんと理解できる、ではない。

この伸びは事実として押さえつつ、後段(3.1)で計算量と長文性能の限界を説明する。

■Anthropic Claude 4.5
Claude 4.5は200Kトークンが基本。加えてClaude Sonnet 4.5は1Mトークンの拡張コンテキストも提供。[出典]

■Google Gemini 3 Pro
Gemini 3 Proは1Mトークンのコンテキストを扱える(出力上限は別)。[出典]

■Meta Llama 4 Scout
Llama 4 Scoutは最大10Mトークンの長文コンテキストをサポートすると、Meta公式ブログおよび公式モデルページで明記されている。[出典]


3.どこが盛り過ぎに見えるのか

私の違和感は、4つに集約できる。

1.Transformerと記憶の壁
2.コンピュート・資源・地政学
3.学習データとスケーリング
4.安全性と自律エージェントの設計

3-1.Transformerと記憶の壁

今のLLMはTransformerアーキテクチャがベースで、そのアーキテクチャは強力だが、一歩先を見据えるには超えなければいけない壁がある。

(1) 計算量の増加

(denseな)self-attentionは、入力長nに対して注意行列がn×nになるため、アテンション由来の計算・メモリが概ねO(n²)で増える。したがって、nを10倍にすると注意行列に起因するコストは約100倍になる。[出典]

各社がFlash Attentionやローランク精度、分割計算で必死に工夫しているが、長くすればするほど重くなる本質は変わっていない。[出典]

(2) 長文の理解

更に厄介なのは、長文を投げられることと、長文をちゃんと理解できることが一致しない点だ。長い文脈の中で、情報が冒頭や末尾にあるときより落ちやすい傾向が報告されているLost in the Middle問題がある。[出典]

2025年のEMNLP Findingsの論文では、文脈が長くなるだけで、情報取得が完璧でもタスク性能が落ちる例が示されている。タイトルからして Context Length Alone Hurts LLM Performance。[出典]

(3) ステートレス

LLMは基本ステートレスで、セッションを跨ぐと人格も記憶もリセットされる。MemGPT論文やArize AIの解説でも、LLMは本質的に無状態だと繰り返し書かれている。[出典]

だから現場は、外部メモリ(RAG)、要約、ベクトルDBなどを組み合わせて擬似的な長期記憶レイヤーを作っている。

Google Researchが最近出してきたTitans + MIRASも、長期記憶を扱うための新アーキテクチャとして提案されているが、まだこれで全部解決と言える段階ではない。[出典]

こういった状況で、AI2027のシナリオに対して、私は以下の見解をもっている。

連続的な記憶と長期計画がまだ怪しい状態の延長で、2027年に自律的に動く超人コーダー軍団が世界のインフラを回すイメージが、正直湧いてこない。

Titansには期待している。でもそれは、壁が見えたから本腰を入れて崩しに行き始めたタイミングであって、あと2年で超人コーダー量産と同義ではない。

3-2.コンピュートと地球資源:無限スケール前提に違和感

AI2027を読んでいて、もう一つ引っかかるのがコンピュートの扱いが軽すぎるところ。

ざっくり言えば、必要になれば計算資源は何桁でも増やせる前提で議論が進んでいるように見える。だが、現実の数字を見ると、そう簡単じゃない。

■IEA「Electricity 2024」
データセンター(AI+暗号資産含む)の電力需要は、2022年に約460TWhで、2026年に最大1000TWh近くまで増える可能性。日本全体の電力使用量に匹敵レベルと表現されている。[出典]

■Berkeley Lab のレポート(2025年)
米国のデータセンター電力は、2014年 58TWh → 2023年 176TWh → 2028年 325〜580TWh と見込まれ、電力全体に占める比率も4.4%だったのが、最大12%に達するとされる。[出典]

水も大量に消費する。

EESIの整理では、データセンター1箇所で年間1.1億ガロン、巨大なところでは1日500万ガロン規模の水を使う例も出てくる。この量は、町一つ分の水(人口1万〜5万人)の水使用量に相当する。[出典]

ただ、個人的に一番怖いのは資源よりも目立ち方。

でかいデータセンターは、サイバー的にも物理的にも、相手のAI能力を削ぐための分かりやすい標的になる。

AI2027はここをほとんど書いていない。コンピュートをテクニカルなスカラー値として扱っていて、インフラとしての脆弱性を議論していない。

コンピュートを何桁も積み増す前提のシナリオは、電力・水・サプライチェーン・地政学を見たときに摩擦が大きすぎると思う。

これがここでの違和感。

3-3.学習データとスケーリング論

スケーリング論自体は強い。パラメータ・計算量・データを増やせば損失が素直に下がる、という枠組みは、ここ数年の進化をちゃんと説明してきた。

でも、データの前提が、そろそろ怪しいのではと思っている。

■Epoch AI(Villalobosら)の分析
学習に効く人間生成テキストは約300兆トークン程度で、今のペースだと2026〜2032年ごろに食い切りが見えてくると示している。つまり、データ側の前提が先に詰まる可能性がある。[出典]

ざっくり言うと、良質なWebテキストを無限に食い続ける前提は、すでに怪しいということ。じゃあどうするか?現実はこう動き始めている。

モデル自身や他のモデルに文章を吐かせて、synthetic data(合成データ)で餌を増やし、それを再び学習に回す。

しかし、これもデメリットがありそうだ。

Natureに出たShumailovらの論文では、生成データを再帰的に学習に使うと、分布の尾が削られ、モデル崩壊(model collapse)を起こすリスクが示されている。[出典]

雑に言えば、AIが世界を深く理解する前に、AIが自分の出力を食って似たものだけに縮んでいく未来も普通にあり得る。

もちろん、合成データ自体は使い方次第だし、ロボットやセンサー、シミュレーション由来の新しいデータ源もある。でも少なくとも、データ無限前提で指数関数をそのまま伸ばすのは雑すぎる。

3-4.安全性と自律エージェント

最後に、自律エージェントと安全性の話。

現状のLLMは、レッドチーミングやCTF界隈を見ていても、まだそこそこ脱獄されている。

自律エージェントを真面目に設計しようとすると、最低限この3つが必要。

目的:何を最優先で最適化させるのか
記憶:何をどこまで覚えさせ、どこから忘れさせるか(連続性)
自己更新:自分のコードや方針をどこまで書き換えさせていいのか

現実の導入状況はどうか。

BCGの2025年調査では、「自社の業務フローにAIエージェントが統合済み」と答えた割合は世界平均で13%、日本では7%にとどまる。[出典]

つまり、自律エージェントを前提に、目的・記憶・自己更新まで含めて設計した会社はまだごく一部に過ぎない。

この状態の延長に、2027年までに世界規模のインフラや研究開発の大半を自律エージェントに任せるというシナリオを乗せるのは、やっぱりジャンプが大きい気がする。


4.普通に仕事の前提を壊すAI

ここまで読むと、ただのAI2027アンチと思うかもしれないので説明しておくと、私はAIアンチではなく、むしろ日々の仕事でべったり依存している側だ。

現時点の数字だけ見ても、

・開発者の半分が毎日AIを使っている
・文書作成や顧客対応で、10〜40%レベルの生産性向上が観測されている
・生成AI利用者は、週あたり労働時間の5%前後を削れている

これは普通に仕事の前提を壊す数字だ。

私の感覚としては、AI2027みたいなSCからASIまで一気にジャンプは盛ってると思うが、カーブが多少寝ても破壊力は十分、というのが一番厄介な現実だと見ている。


5.2027年をどう前提にして生きるか

AI2027の年まで、あと2年。

もしこの2年で以下の条件が満たされれば、そのときは私の見立ても書き換えると思う。

・長期記憶を持つアーキテクチャ(Titans/MIRAS系)が実用レベルで固まる
・安全な自己更新と目標設計に関する実装論が前に進む
・コンピュートと電力・水・サプライチェーンの制約にある程度メドが立つ

でも、2025年12月時点で見えている数字と現場の手触りからすると、SCの登場、そしてASIが数年で当然という前提には、どうしても乗れない。

そのため、暫定の前提はこうしている。

・人類滅亡ルートを前提にして、今を投げない
・ただし、今ある技術の延長だけでも、自分の仕事の前提は壊れるとみなす

そのうえで、私は

・AIを実務と結びつける側(現場・業務・DX)
・安全性/アライメント側

この両方に足をかけていく。

AI時代は、一見便利で楽に見える。でも実態はたぶん逆で、

自分の前提を疑い、新しい道具を覚え直し、面倒なことにわざわざ突っ込んでいく

この泥臭いループを回せない人から順に、静かに置いていかれる時代だと思っている。


6.結び

AI2027を読んで、そのまま信じることも、完全に笑い飛ばすこともできなかった。

・コンテキストと記憶の壁
・電力・水・チップ供給
・でかいDCは標的になる
・学習データ枯渇と合成データ依存のリスク
・自律エージェントがまだごく一部の企業にしか統合されていない事実

これらを見た上で、あと数年で超知能に到達し、人類滅亡までが普通に選択肢に入るというAI2027のカーブには、どうしても距離を感じる。

一方で、コーディング、文書作成、顧客対応、オフィスワーク全般。

このあたりで、すでに10〜50%レベルの効率化が起きているのも事実だ。

だから私は、終末シナリオを眺めて固まるのではなく、鈍化しても破壊的という前提で、自分の仕事と学び方、責任の持ち方を変えていく方に賭けたい。

share
views