
오픈AI가 비슷한 규모의 언어모델과 비교할 때 더욱 강력한 성능을 담은 최신 오픈 웨이트 언어모델 ‘gpt-oss-120b’와 ‘gpt-oss-20b’를 출시했다. 이는 추론 작업에서 성능이 뛰어나고 도구 사용 기능 측면에서도 강력하며, 소비자 하드웨어에서의 효율적인 사용을 위해 최적화시킨 모델이다.
두 모델은 인프라 비용 추가 없이 온디바이스 사용 사례, 로컬 추론, 또는 빠른 반복 작업에 적합하다. 또 강력한 ‘보안’도 주목되고 있다. 오픈AI가 오픈 모델에 대해 더욱 보안을 중요하시는 방침에 따라 gpt-oss 모델은 이전 모델과 비교해 내부 안전 벤치마크에서 우수한 성능을 보여주고 있다. 오픈AI의 이러한 방법론은 외부 전문가의 검토를 마쳤으며 보안 표준이 한 단계 업그레이드됐다.
gpt-oss 모델은 GPT‑2 이후 오픈AI에서 공개한 최초의 오픈 웨이트 언어 모델이다. gpt-oss-120b는 토큰당 51억개의 파라미터를, gpt-oss-20b는 토큰당 36억개의 파라미터를 활성화해 추론 속도를 더욱 향상시켰다.

gpt-oss-120b와 gpt-oss-20b를 코딩, 경쟁 수학, 의료, 에이전트 도구 사용에서의 기능을 각각 o3, o3‑mini, o4-mini 등 오픈AI의 다른 추론 모델과 비교 측정했다. 이 측정 결과에서 gpt-oss-120b는 오픈AI o3‑mini보다 성능이 뛰어났으며, 경쟁 코딩(Codeforces), 일반 문제 해결(MMLU 및 HLE), 도구 호출(TauBench)에서 자사의 o4-mini와 비슷하거나 더 우수한 성능을 보였다. 또 의료 관련 쿼리(HealthBench)와 경쟁 수학(AIME 2024&2025)에서 o4-mini보다 나은 결과를 보였다. gpt-oss-20b는 작은 규모이지만 같은 평가에서 오픈AI o3‑mini와 비슷하거나 더 나은 결과를, 경쟁 수학과 의료에서는 더 뛰어난 성능을 보였다.
오픈AI는 오픈 웨이트 모델에 대해 생물학 및 사이버 보안 데이터를 중심으로 모델을 파인 튜닝, 다양한 보안 위험에서 공격 가능한 방식을 사전 파악해 각 영역에 대한 영역별 거부 불가 버전을 만들었다.
이번 두 모델은 모두 허깅페이스(Hugging Face)에서 무료로 다운로드할 수 있다. gpt-oss-120B 모델은 80GB 메모리를, gpt-oss-20b는 단 16GB 메모리를 최소사양으로 제시했다.
두 언어모델은 엔비디아(NVIDIA), AMD, 초고속 AI 추론 전문기업 세레브라스(Cerebras), AI 칩 설계사 그로크(Groq) 등 업계 최고 기업과 협력해 다양한 시스템에서 최적화된 성능을 제공하고 있다.
오픈AI는 “회사는 기존 API 제공에 오픈 모델을 추가해 다양한 사용 사례에서 첨단 리서치, 혁신 촉진, 더 안전하고 투명한 AI 개발을 가속하는 것을 목표로 하고 있다”며, “전 세계 모두를 위한 새로운 기회를 구축하고 혁신하고 만들어낼 것”이라고 밝혔다.