OpenAIがオープンソース推論モデル「gpt-oss-safeguard」をリリース、開発者が自分で検閲ルールを設定可能でルールに従う能力はGPT-5を上回る

OpenAIがオープンソースの推論モデル「gpt-oss-safeguard」を2025年10月29日にリリースしました。gpt-oss-safeguardは推論時にコンテンツポリシーを追加できるモデルで、各開発者は「不正行為の議論を禁止する」「偽レビューの生成を禁止する」といったルールを自分で設定することができます。
Introducing gpt-oss-safeguard | OpenAI
https://openai.com/index/introducing-gpt-oss-safeguard/
Technical report | OpenAI
https://openai.com/index/gpt-oss-safeguard-technical-report/
gpt-oss-safeguardはgpt-ossをベースに開発されたモデルで、各開発者が独自のポリシーを設定できるように設計されています。AIのコンテンツポリシーを設定するには「禁止ワードや禁止トピックを検出できる分類器」を用意するのが一般的ですが、gpt-oss-safeguardでは分類器を用意せずとも自然言語でポリシーを指示できます。

OpenAIはパラメーター数1200億の「gpt-oss-safeguard-120b」とパラメーター数200億の「gpt-oss-safeguard-20b」をApache 2.0 licenseの下で公開しています。また、社内ではgpt-oss-safeguardに追加学習を施した「Safety Reasoner」を活用しているとのこと。
「gpt-oss-safeguard-120b」「gpt-oss-safeguard-20b」「Safety Reasoner」「gpt-5-thinking」「gpt-oss-120b」「gpt-oss-20b」のポリシーに従う制度を比較したグラフが以下。gpt-oss-safeguard-120bとgpt-oss-safeguard-20bはgpt-5-thinkingよりもポリシーに従う割合が高いことが分かります。

さらに、OpenAIのテスト用データセットを用いて安全ポリシーの順守度を測定した結果が以下。gpt-oss-safeguard-120bとgpt-oss-safeguard-20bはgpt-5-thinkingよりも厳格にポリシーを守ることができました。

一方で、毒性データセット「ToxicChat」を用いたテストではgpt-5-thinkingよりもポリシー順守度が低くなりました。

gpt-oss-safeguard-120bとgpt-oss-safeguard-20bのモデルデータは以下のリンク先で配布されています。
openai/gpt-oss-safeguard-120b · Hugging Face
https://huggingface.co/openai/gpt-oss-safeguard-120b

openai/gpt-oss-safeguard-20b · Hugging Face
https://huggingface.co/openai/gpt-oss-safeguard-20b

・関連記事
OpenAIのオープンウェイトモデル「gpt-oss」はOllamaを使って個人用PCで簡単に使用可能 - GIGAZINE
OpenAIがオープンウェイトのAI推論モデル「gpt-oss」を発表、軽量版はノートPCやスマートフォンでも動作可能 - GIGAZINE
OpenAIが組織再編、Microsoftとは引き続き提携するもののOpenAIが展開予定のハードウェアは対象から除外 - GIGAZINE
OpenAIいわく「毎週100万人以上がChatGPTで自殺について話している」 - GIGAZINE
・関連コンテンツ
in AI, Posted by log1o_hf
You can read the machine translated English article OpenAI releases open source inference mo….







