OpenAIは火曜日、GPT-OSSのデビューとともに、GPT-2以来初のオープンウェイト言語モデルをリリースした。
モデルには2つのサイズがあります。1つ目は1170億パラメータの推論モデルで、OpenAIによると、同社独自のo4-miniとほぼ同等の性能を発揮します。2つ目は、210億パラメータの小型バージョンで、o3-miniと同等の性能を発揮するとされています。
OpenAIは、新しいオープンウェイトモデルが自社の独自モデルとどのように比較されるかを発表した。 - クリックして拡大
さらなるモデルベンチマークについては、OpenAI のブログをご覧ください。
モデルとしては、これらは極めてオープンです。OpenAIは、ユーザー数や商用アプリケーションでの使用を制限するカスタムライセンスではなく、最新のモデルを非常に寛容なApache 2.0ライセンスの下で公開することを選択しました。つまり、これらのモデルをほぼ何でも自由に利用できるということです。
OpenAIによると、GPT-OSSモデルは主にSTEM、コーディング、一般知識を重視した英語のテキストで学習された。また、GPT4oのようなOpenAIの大規模モデルが備えている視覚機能は備えていない。
OpenAIは、学習後の強化学習において、o4-miniに思考連鎖推論機能を付与した際に用いたのと同様のプロセスを採用しました。また、Altman氏らの独自モデルと同様に、システムプロンプトで希望のレベルを設定することで、モデルの推論努力を低、中、高に調整できます(例:「推論:高」)。
オープンウェイト モデルでは、エキスパート (MoE) アーキテクチャの組み合わせも活用されます。
GPT-OSS-120Bは128個のエキスパートを備え、そのうち4個(合計51億個のパラメータ)が各出力トークンを生成します。一方、GPT-OSS-20Bは、32個のエキスパートと36億個のアクティブパラメータを持つ、実質的に簡素化されたバージョンです。ご存じない方のために説明すると、これらのエキスパートは、レスポンスを生成する際に内部ルーティングメカニズムが動的にアクティブ化するサブモデルです。
モデルのMoEアーキテクチャの簡単な概要は次のとおりです - クリックして拡大
つまり、これらのモデルを VRAM に収めることができれば、同等のサイズの高密度モデルよりもはるかに高速にトークンを生成できることになります。
ハードウェアについて言えば、これらのモデルの実行はそれほど問題にならないはずです。OpenAIはMoEレイヤーでネイティブMXFP4精度で学習させているからです。OpenAIによると、120Bモデルは80GBのH100 GPU 1基で実行可能で、20Bの小型バージョンはわずか16GBのVRAMで動作します。
RTX 6000 Ada 上の Ollama で GPT-OSS-20B をテストしたところ、バッチ サイズが 1 のときに 125 トークン/秒を超えるトークン生成速度が観測されました。
どちらのモデルも128Kトークンのネイティブコンテキストウィンドウを備えています。1年前なら競争力があったかもしれませんが、AlibabaのQwen3ファミリーは256Kトークンのコンテキストウィンドウを提供し、MetaのLlama 4群は、良くも悪くも最大1000万トークンのコンテキストウィンドウをサポートしています。
GPT-OSS のデビューは度重なる延期の後に実現したが、OpenAI の CEO サム・アルトマン氏は、その最新の延期の原因は安全性評価の延長にあると述べた。
OpenAIは火曜日のブログ投稿で、化学、生物学、放射線学、核の研究開発などのトピックに関する有害なデータを除外するなど、これらの安全機能を拡張した。
OpenAI はまた、ユーザーが安全でないプロンプトを入力したり、プロンプトの挿入を試みたりすることを防ぐためにモデルを検閲しました。
「オープンウェイトモデルが公開されると、攻撃者が悪意ある目的でモデルを微調整できるようになる可能性がある」と同社は説明した。
OpenAIは、開発中、これらの対策により、テスターによる悪意ある利用を効果的に防ぐことができたと述べています。同社は安全対策に十分な自信を持っており、開発者にモデルのレッドチームテストを課し、新たな安全性の問題を発見した人に50万ドルの賞金を提供しています。
GPT-OSSは、リリース時点でHugging Faceを含む様々なモデルリポジトリで利用可能であり、Hugging Face Transformers、PyTorch、Triton、vLLM、Ollama、LM Studioといった推論フレームワークを幅広くサポートしています。モデルをテストしたい場合は、LLMをローカルにデプロイするためのガイドをこちらでご覧ください。
OpenAIが開発中のものはGPT-OSSだけではないようです。Xの投稿で、アルトマン氏は「今週後半に大規模なアップグレードが予定されている」と述べています。もしかしたらGPT-5®でしょうか?