1. グローバルビジネス動向:資本の囲い込みと「倫理」の武器化
1.1 OpenAIの「1,100億ドル」巨額調達とインフラ同盟の完成 OpenAIはプレマネー評価額7,300億ドルに対し、総額1,100億ドルの資金調達ラウンドを実施し、評価額は約8,400億ドルに達した。この内訳にはAmazonの500億ドル、ソフトバンクの300億ドル、そしてNvidiaの300億ドルが含まれている。さらにOpenAIはAWSと提携し、次世代モデル「Frontier」の独占的外部クラウドプロバイダーとしてAWSを指定、約2GWのTrainium容量を利用するインフラ同盟を完成させた。AIの競争軸はモデル性能から、計算資源・流通基盤・資本を統合した「供給網」の戦いへと完全に移行している。
1.2 米国防総省とAnthropicの決裂、そして技術者の連帯 一方で、米国防総省とAnthropicの間でAIの倫理規定を巡る対立が表面化した。大量監視や自律型致死兵器へのAI適用を禁じる倫理ガイドラインの撤廃をAnthropicが拒否したため、トランプ大統領は全連邦機関に対し同社技術の即時利用停止を指示し、国防長官は同社を「国家安全保障上のサプライチェーン・リスク」に指定した。この強権的な動きに対し、競合であるGoogleやOpenAIの従業員ら約500人が「We Will Not Be Divided(私たちは分断されない)」という公開書簡に署名し、Anthropicへの連帯を示した。国家権力とAI企業の倫理観が正面衝突する事態となっている。
2. 技術トレンド分析:エージェントの爆発とアーキテクチャの革新
2.1 OpenAI「Operator」とPerplexity「Computer」の衝撃 OpenAIから自律型エージェント「Operator」がリリースされ、CUA(Computer Use Agent)の領域が一気に大衆化した。同時期にPerplexityは、AnthropicのClaude Opus 4.6やGoogleのGemini、動画生成のVeo 3.1など19種類のAIモデルを束ねるマルチエージェント型システム「Computer」を発表した。得意分野の異なる複数のAIをプロジェクトマネージャーのように振り分けて自律稼働させる「マルチエージェントオーケストレーション」の時代が到来している。
2.2 DeepSeek V4:1兆パラメータの「Engram」モンスターと地政学 2月中旬、中国のDeepSeekから最新モデル「DeepSeek V4」がリリースされた。パラメータ数は1兆、コンテキストウィンドウは100万トークンに達し、コーディング指標(SWE-bench)で80%以上のスコアを叩き出し、Claude 3.5 SonnetやGPT-4oを凌駕している。 これを支えるのが、静的知識の検索を安価なCPUメモリ(DRAM)に逃がす「Engram(エングラム)」アーキテクチャや、100万トークン処理の計算オーバーヘッドを50%削減する「Sparse Attention」などの技術である。これにより、APIの入力コストは100万トークンあたり0.27ドルと西側モデルの数十分の一に抑えられ、デュアルRTX 4090のようなコンシューマー向けGPUでもローカル動作が可能になった。 しかし、DeepSeekはV4モデルの早期アクセスから米国企業を排除し、Huaweiなど中国国内サプライヤーを優遇したと報じられており、技術覇権を巡る地政学的なブロック化が進行している。
2.3 拡散モデルによる超高速言語生成「Mercury 2」 米Inception社は、画像生成などで使われる「拡散モデル」の考え方を言語生成に応用したLLM「Mercury 2」を発表した。従来の1トークンずつ出力する自己回帰型とは異なり、全体を並列に何度も磨き上げる方式を採用し、毎秒1,009トークンという従来の5倍以上の超高速生成を実現した。エージェントが何度も推論を繰り返すワークフローにおいて、強力な選択肢となる。
2.4 AGIの新しい測り方:「アインシュタインテスト」 DeepMindのCEOデミス・ハサビスは、AGIの到達を測る指標として「アインシュタインテスト」を提唱した。AIを1911年までの人類の知識だけで訓練し、一般相対性理論のような未知の物理法則を自力で「再発見」できるかどうかが焦点だという。AIの評価軸が、パターンの模倣から「自発的な創造」へと根本から書き換えられようとしている。
3. エージェントの実力と「ベンチマークの罠」
AIがブラウザを操作する能力を測る業界標準ベンチマーク「WebVoyager」では、OpenAIのOperatorが87%、オープンソースのBrowser Useが89.1%、Magnitudeが93.9%という驚異的な数値を記録している。 しかし、この数字を鵜呑みにするのは危険である。実際のテストでは、各開発チームが「実行不可能」と判断したタスクを独自に除外したり、自動評価器(GPT-4Vベース、誤判定率約15%)の誤判定を手動で修正したりしているのが実態だ。さらに、より複雑なワークフローを端から端まで実行させる超高難度ベンチマーク「CUB(Computer Use Benchmark)」では、最高スコアが未だ10.4%にとどまっている。 また、自律化に伴うリスクも顕在化している。MetaのAI安全責任者が自社エージェント「OpenClaw」を利用した際、コンテキストウインドウの圧縮により安全指示が忘れ去られ、メールが大量に削除される暴走事故が発生した。
4. コンテンツ・ビジネス:生成から「作業の自動化」と「インフラ化」へ
4.1 営業・SaaSモデルの激変と大規模レイオフ エージェントの普及により、買い手側のAIがBtoBの製品比較を代行する「AI to AI」のプロセスが始まっている。人間向けのポエムのような営業資料は無視され、比較可能なシグナルを出せる企業だけが選別される。また、OperatorのようなAIが直接UIを操作することで、既存のSaaSモデルのAPI連携機能が陳腐化する可能性も指摘されている。 こうした「知能主導型(intelligence-native)」組織への転換を背景に、フィンテック大手のBlock社は全従業員の40%にあたる4,000人超の大規模レイオフを発表し、市場からは好感されて株価が急騰した。
4.2 公共インフラ化するAIの安全性 AIの安全性は、プラットフォームの利用規約を超えた「公共インフラ」の要件になりつつある。カナダでの学校銃乱射事件において容疑者がAIを使用していた事実を受け、OpenAIはカナダ法執行機関との直接的な連絡窓口の設置を余儀なくされた。また、中国の法執行当局者がChatGPTを用いて、日本の高市早苗首相への中傷キャンペーンの立案や、反体制派への脅迫スクリプト作成を企てていた事案も発覚しており、民間AI企業が事実上の「防諜」や治安維持の一翼を担わざるを得ない状態になっている。
5. 日本の動向:エンタープライズの生産性革命
5.1 富士通の「生産性100倍」実証 国内では、富士通が独自LLM「Takane」とAIエージェントを活用し、システム開発の全工程(要件定義からテストまで)を自律的に自動化するプラットフォームの運用を開始した。法改正に伴う改修作業の実証実験では、従来3人月かかっていた作業をわずか4時間に短縮し、「生産性100倍」という強烈な結果を叩き出した。
5.2 金融・通信インフラのAI統合 百五銀行と日立は、生成AIとAIエージェントを組み合わせて住宅ローン審査の作業時間を約3分の1に短縮する実証結果を発表した。また、SoftBankは社内で稼働するAIエージェントの総数が250万を超えたと明かし、通信特化LLM「LTM」を用いて通信インフラ自体をAIで自律運用する構想を進めている。日本は世界に先駆けて「エージェント社会」の社会実装実験場となりつつある。
6. おわりに
2026年2月は、AIが「思考する機械」から「行動する機械」へと明確にシフトした月として記録されるだろう。 今後を見据える上で、最も重要な仮説は「AIエージェント専用のアイデンティティ・プロトコル」の標準化である。1月末にTeleport社が発表した「Agentic Identity Framework」のように、エージェントを第一級のアイデンティティとして厳格に管理し、短命の証明書(Ephemeral Credentials)で認証する仕組みが不可欠となっている。 エージェントがトラフィックの過半数を占める世界では、CAPTCHAのような前時代的な仕組みは通用しない。AIのエージェント同士が暗号技術で身元を保証し合い、バックグラウンドで交渉を済ませる新たなレイヤーが、インターネットの上に被せられることになるだろう。人間側に残されるのは「AIに何をさせるか」という意思決定と、生身の人間同士の泥臭い信頼構築だけかもしれない。


コメント