メインコンテンツへスキップ
技術ブログヘッダー

技術ブログ

最新の技術情報や導入事例、開発ノウハウを発信しています。

AI・機械学習
2分

GPT-OSS-20Bと120Bが公開された

ついに GPT-OSS-20B、そして上位モデルの 120B が公開された。 オープンソースLLMとしては最大級のスケールで、 ローカルAI界隈が一気にざわついている。 環境はいつもの RTX 5070 Ti(VRAM 16GB)。 正直、このサイズのモデルを動かすのは半ば無謀だと思っていたがなん...

2025/08/07 09:00
むらかみ
GPT-OSS-20Bと120Bが公開された
ついに GPT-OSS-20B、そして上位モデルの 120B が公開された。
オープンソースLLMとしては最大級のスケールで、
ローカルAI界隈が一気にざわついている。

環境はいつもの RTX 5070 Ti(VRAM 16GB)。
正直、このサイズのモデルを動かすのは半ば無謀だと思っていたがなんとかロードに成功。

初回読み込みには少し時間がかかるものの、一度キャッシュが効けば想像よりもスムーズに動く。
推論速度はElyza 13Bよりやや遅い程度で、「20B」という数字から想像するほどの重さは感じなかった。

使ってすぐ感じたのは、思考の深さ。
Elyza 8Bが「会話上手」、13Bが「知識豊富」だとすれば、GPT-OSS-20Bはまさに「洞察力のある思考家」という印象だ。

質問の意図を汲み取り、一拍置いてから「前提 → 背景 → 理由 → 結論」と構造立てて丁寧に説明してくれる。
抽象的な話題にも、論理的に筋の通った答えを出す。

特に驚いたのは、コード生成や技術系の質問への対応力。
手順を正しく段階的に説明しながら、まるでドキュメントライターのように出力してくる。
「AIに仕様書を書かせる」未来は、もう遠くない。

一方で、日本語表現はまだElyzaの方が自然だ。
GPT-OSS-20Bは英語ベースの学習モデルなので、文体がやや直訳調で、ところどころ硬い印象を受ける。
とはいえ意味は正確で、技術文書や論理説明にはむしろ最適。

VRAM 16GB環境ではギリギリ動作。
とはいえ、20Bクラスがデスクトップで回るという事実がすごい。
昔ならサーバーラックやGPUクラスタが必要だった規模だ。

Stable Diffusionなど他のAIと併用するのはさすがに厳しいが、
量子化技術の進化によって、
「家庭用マシンで大型LLMを動かす」時代がいよいよ現実になった。

そして今回は、さらに上位の GPT-OSS-120B も登場。
これはもうローカルで動かすのはほぼ不可能な領域だが、その登場は「オープンソースでもクラウド級の知性を手に入れられる」という象徴的な出来事だと思う。

近い将来、量子化や分散実行の技術が進めば、120Bクラスを家庭用マシンで扱う日も来るのかもしれない。

GPT-OSS-20Bを動かしてみて感じたのは、「ローカルAIが、ついに人間的な思考領域に足を踏み入れた」ということ。

Elyzaのような国産日本語モデルがその土台に合流すれば、もう“クラウドに頼らないAI環境”が現実になる。

AIの進化は、いまも静かに加速している。そしてその最前線は、もう自分の机の上にある。

むらかみ

AI・機械学習分野の専門家として、企業のDX推進をサポートしています。