SubQ 1M-Previewとは
2026年5月5日、マイアミ拠点のAIスタートアップSubquadraticが「SubQ 1M-Preview」を発表した。同社は29Mドルのシード調達を行い、評価額は500Mドルに達する。注目すべきは、このモデルが世界初の完全subquadraticアーキテクチャを採用している点だ。従来のTransformerが抱えるO(n²)の計算量制約を、アーキテクチャレベルで解決したと主張する。
SSA(Subquadratic Sparse Attention)の仕組み
SubQの中核技術はSSA(Subquadratic Sparse Attention)である。従来のDense Attentionが全トークンペアを比較するのに対し、SSAはコンテンツ依存の選択的ルーティングを行う。つまり、クエリに対して意味的に重要なトークンのみを動的に選び、そのペアに対してのみ正確なAttentionを計算する。
| 方式 | 計算量 | 特徴 |
|---|---|---|
| Dense Attention | O(n²) | 全ペア比較、正確だが非効率 |
| SSA(SubQ) | O(n·k) | コンテンツ依存の選択、線形に近い |
| FlashAttention | O(n²) | 実行効率は改善するがスケーリング則は不変 |
SSAが従来手法と異なるのは、位置ベースの固定パターン(スライディングウィンドウ等)ではなく、意味に基づいてアテンション先を決定する点だ。これにより、12Mトークンの研究段階でAttention計算量を従来比約1,000分の1に削減したとされる。
学習パイプライン
SSAの学習は3段階で行われる:
- Pre-training — 大規模な長文脈データセットでの事前学習
- Supervised fine-tuning — 推論・コード生成・指示追従のチューニング
- Reinforcement learning — 長文脈検索タスクを直接最適化。モデルが「近くの情報にデフォルトする」問題を回避するための設計
ベンチマーク評価:何ができて、何ができないか
Subquadraticが公開した第三者検証済みのベンチマークは3つで、いずれも長文脈検索とコーディングに特化している。
SWE-Bench Verified(コード修正能力)
| モデル | スコア |
|---|---|
| Claude Opus 4.7 | 87.6% |
| SubQ 1M-Preview | 81.8% |
| Claude Opus 4.6 | 80.8% |
| DeepSeek 4.0 Pro | 80.0% |
| Gemini 3.1 Pro | 80.6% |
Opus 4.7には及ばないものの、Opus 4.6やDeepSeek 4.0 Proと同等の水準。ただし同社自身「SWE-Benchの差はモデル本体よりもエージェントハーネスの影響が大きい」と認めており、コード能力の優劣を断定するのは早計だ。
RULER 128K(長文脈推論)
SubQ: 95.0% vs Claude Opus 4.6: 94.8%。誤差の範囲だが、注目すべきはコスト差だ。SubquadraticはRULER 128Kの実行コストを約**$8と主張。一方Claude Opusでは約$2,600**と試算されている。精度は同等でコストは約300分の1という計算になる。
MRCR v2(複数情報の検索・推論)
| モデル | スコア |
|---|---|
| DeepSeek V4 Pro | 83.5% |
| GPT-5.5 | 74.0% |
| SubQ 1M-Preview(研究) | 83.0% |
| SubQ 1M-Preview(本番) | 65.9% |
| Claude Opus 4.7 | 32.2% |
| Gemini 3.1 Pro | 26.3% |
ここで重要なのは、研究モデル(83.0)とプロダクションモデル(65.9)の間に17ポイントのギャップがある点だ。Subquadraticは「サードパーティ検証済み」としているが、この乖離の説明はまだ十分ではない。
入力処理速度(FlashAttention-2対比)
| コンテキスト長 | 高速化倍率 |
|---|---|
| 128K | 7.2× |
| 256K | 13.2× |
| 512K | 23.0× |
| 1M | 52.2× |
B200上での計測で、FlashAttention-2比52.2倍のプリフィル高速化を達成。63%の計算量削減も同時に実現している。
API実装とコード例
SubQ 1M-Previewは現時点で非公開ベータであり、即日利用はできない。公式サイトからアーリーアクセスを申請する必要がある。APIはOpenAI互換のエンドポイントを提供する。
# SubQ APIの利用例(OpenAI互換エンドポイント)
# 注:現時点ではprivate betaのため、実際の利用にはwaitlist通過が必要
import openai
client = openai.OpenAI(
base_url="https://api.subq.ai/v1",
api_key="your-subq-api-key"
)
# コードベース全体を1つのプロンプトに
response = client.chat.completions.create(
model="subq-1m-preview",
messages=[
{"role": "system", "content": "You are a senior software engineer."},
{"role": "user", "content": f"以下のコードベース全体を読み、バグを特定して修正案を提示してください。\n\n{codebase}"}
],
max_tokens=8192
)
また、CLIベースのコーディングエージェント「SubQ Code」も同時発表されている。Claude Codeのようなリポジトリレベルでのコード生成・レビューを、単一コンテキストウィンドウで実行できるとされる。
コスト構造とビジネスインパクト
Subquadraticは正確なAPI料金をまだ公開していない。しかし、RULER 128Kでの$8対$2,600という比較から推測するに、Opus比で約1/20〜1/300のコストを目指していると考えられる。
実務インパクトとして最も大きいのは、RAG(Retrieval-Augmented Generation)が不要になるシナリオが増える点だ。単一セッション内で1Mトークンを処理できる場合、以下のワークロードでRAGのオーバーヘッドを削減できる:
- コードレビュー:リポジトリ全体を1回の推論で分析
- 契約書分析:1000ページの契約書をチャンク分割なしで処理
- 研究論文の横断レビュー:数十本の論文を同時にコンテキストに乗せる
現時点での課題と評価
ポジティブな評価点
- アーキテクチャとしての方向性は正しい(計算量の線形化はAI業界全体の課題)
- 長文脈検索(RULER 128K)では実用的な精度を達成
- コスト削減のポテンシャルは極めて大きい
- チームはMeta、Google、Oxford出身のPhD研究者11名で構成され、技術的信用性は低くない
懸念点
- ベンチマークの狭さ — 公開されたのは3ベンチマークのみ。汎用的な推論・数学・多言語・安全性の評価が一切ない
- 研究と本番のギャップ — MRCR v2で17ポイントの差は、現実の実用性に疑問を残す
- オープンウェイトのベースモデル依存 — CTOが認めた通り、SubQはゼロから学習したモデルではない。ベースとなるオープンウェイトモデル(DeepSeekまたはKimi系列と推測)にSSAを適用している
- Magic.devとの類似性 — 2024年に同様の1億トークンコンテキストを謳ったMagic.devは500Mドルを調達したが、2026年現在も広く使われていない
- 即日利用不可 — Private betaであり、OpusやGPT-5.5のようにすぐに試せない
まとめ
SubQ 1M-Previewは、Transformerの二次計算量制約に正面から挑んだ重要なモデルだ。SSAアーキテクチャによる線形スケーリングのアプローチは、理論的には魅力的であり、長文脈タスクにおけるコスト構造を根本から変える可能性がある。しかし現時点では「プロミス」の段階であり、独立した第三者検証と包括的なモデルカードの公開を待つ必要がある。
AIエンジニアとしての現実的な判断は以下の通り:
- 長文脈検索・コードレビュー用途:PoCとして評価する価値あり(アクセス権が得られ次第)
- 汎用的な推論・チャット用途:Opus 4.7やGPT-5.5の優位性は揺らいでいない
- プロダクション採用:SLAと料金体系の確定を確認してから判断すべき
Subquadraticが「Efficiency is Intelligence」と掲げる通り、効率性と知能のトレードオフを解消するというビジョンは業界全体の方向性と一致している。このモデルが本当にゲームチェンジャーとなるか、それともまた一つの「次世代アーキテクチャの約束」に留まるかは、今後のエコシステムの反応次第だ。
この記事はAIによって生成され、人間の編集を経て公開されています。 Appwright AI は AI によるコンテンツ制作の可能性を探求する実験的プロジェクトです。