
昨日、Compacting地獄からの脱出で1M contextモデルがどれだけ快適なのか紹介しました。「コストはかかるけど、あの開放感はプライスレス」みたいなことを書いたんですが…
で、今日本格的に使ってみました。$50の無料クレジットをもらったので。
結果? 3~4時間で全部溶けました。
$50の無料クレジットをもらった
Anthropicから$50の無料クレジットをもらっていたんです。$50って、正直かなりの額じゃないですか?普段のサブスク代が$20ですから。これなら余裕で数日は使えるでしょ?と思っていました。
1M contextだから従来の200Kの5倍。コストも5~10倍くらい高いかな?まあそのくらいなら$50で1~2日はいけるだろうと計算していました。
…この計算が完全に間違っていました。
1Mは単純に10倍じゃなかった
まず体感から言うと。10倍?いやいや。次元が違います。
200MBのPDFドキュメントを丸ごと読み込ませました。一気に。途切れなし。
5MBの画像を100枚くらい分析させました。これも一つのセッションで。途中で切れることなく。
ドキュメントの分析や生成もとんでもない量をやらせたんですが…Compactingが一度も出ませんでした。一度も。
以前は、PDF3~4個読ませただけで「Compacting conversation…」が出てきてコンテキストが飛んでいたのに。1Mに切り替えたら…事実上リミットがないように感じました。
この快適さが怖い
正直、最初はただただテンションが上がりました。
普段は「これ送ったらコンテキスト溢れるかな…」とちょっと計算しながら使うのが癖になっていたんですが。1Mにはそういうのがない。思いつくままに指示を出せばいい。PDFもっと読んで、この画像も分析して、このドキュメントも作って。どんどん投げても全く問題なし。
これが本来あるべきAIコーディングツールの姿なんじゃないかと思いました。AIに作業を任せながら、自分がAIのコンテキスト容量を管理してあげるって、冷静に考えたらおかしな話でした。
でもこの快適さ…ちょっと怖かったんです。お金が消えているという事実を忘れさせてくれるので。
なんかおかしいぞ
2時間くらい経った頃、ふとクレジット残高を確認してみました。
え?もうこんなに減ってる?
最初のうちは全然気になりませんでした。クエリ1回送っても数十セントくらいだったので「まあこの程度なら大丈夫でしょ」と思っていたんですが。時間が経つにつれて、減るスピードが目に見えて速くなっていきました。
よく考えてみれば当然なんです。
1M contextということは、会話の内容を捨てないということです。圧縮しないわけですから。でも捨てないとどうなるか?毎回クエリを送るたびに、過去の会話全体がトークンとして含まれます。会話が長くなればなるほど、1回のクエリに含まれるトークン数が雪だるま式に膨らんでいくんです。
つまり、コストは線形ではなく指数関数的に増加します。
$50の最後の瞬間
3時間くらい使ったあたりから、体感が明らかに変わりました。
質問1回するたびに$2~3ずつ消えていく感覚。最初の1時間は$10も使っていなかったと思うんですが、最後の1時間は$20以上使った気がします。
最初の$10は1時間以上持ちました。最後の$10は体感20分も持たなかった気がします。
これが指数関数的増加の恐ろしさです。最初は緩やかに上がっていって、ある瞬間から一気に垂直に跳ね上がる。その「ある瞬間」が来たときには、もう手遅れなんです…
結局3~4時間で$50を完全に使い切りました。きれいに残高ゼロ。
なぜこうなるのか
整理するとこういう構造です。
作業序盤 (0~1時間): コンテキスト少 → クエリ当たり数十セント → 快適
作業中盤 (1~2時間): コンテキスト蓄積 → クエリ当たり$1前後 → じわじわ体感
作業終盤 (2~3時間): コンテキスト爆発 → クエリ当たり$2~3 → メーター音が聞こえる
従来の200Kモデルは、Compactingで古い会話を削除していました。不便ではありますが、コストは一定に保たれる仕組みでした。1Mモデルは会話を捨てない代わりに、その代償をコストで払う構造です。
どちらにもメリット・デメリットがあります。でもこれを知らずに「わー快適だー」と使い続けると…料金爆弾です。
賢く使う方法
以前、AIサブスクリプション費用について書いたことがありますが、結局ツールはツールらしく使うべきなんです。
1Mモデルは「常時オンにしておくモード」ではありません。
本当に大容量ファイルの処理が必要なとき。200MBのPDFを丸ごと読ませないといけないとき。画像を数百枚一気に分析しないといけないとき。そういうときだけ1Mに切り替えて集中的に作業して。
目的を達成したら?すぐ基本モデルにスイッチ。
これが最も合理的な使い方です。昨日書いたように、Switch Modelボタン一つで切り替えられますから。重い作業に入るときだけ1Mをオンにして、終わったらオフ。これだけ守ればコストをかなり抑えられます。
もうひとつ。一つのセッションをあまり長く引っ張らないことです。コンテキストが蓄積するほどコストが指数関数的に上がりますから。目的を達成したらセッションを整理して、新しく始めるのも有効な手段です。
まとめ
1M context。確かに素晴らしいです。昨日書いたように、Compacting地獄からの開放感は本物です。
でも、その開放感に酔って一日中つけっぱなしにしていると、財布の方が先に解放されます(笑)
「1Mが標準になる日が来てほしい」と昨日書きましたが…コストを身をもって体感した今、まだちょっと先の話だなと思います。でも方向性は確実にこちらです。今は高くても、どんどん安くなっていくはずです。
その日が来るまでは、賢く使いましょう。必要なときにオンにして、終わったらオフ。このシンプルな原則さえ守れば、1Mの恩恵は十分に受けられます。
無料クレジットのチャンスがあったら、ぜひ一度試してみてください。あの快適さを体感したら、もう戻れなくなります。ただし、クレジット残高はこまめにチェックしながら…ね。