AI뉴스분석
OpenAI의 GPT-OSS 공개: 오픈소스 AI 전략 변화의 신호탄
codex64
2025. 8. 6. 08:59
반응형
AI 업계에 또 하나의 역사적인 순간이 찾아왔습니다. 그동안 폐쇄적인 모델 정책으로 'ClosedAI'라는 비아냥을 받아왔던 OpenAI가 2025년 첫 오픈소스 대규모 언어모델 GPT-OSS를 전격 공개한 것인데요. 이번 결정은 단순한 제품 출시를 넘어서 AI 패권 경쟁의 새로운 전환점을 알리는 중대한 사건이라 볼 수 있습니다.
ClosedAI에서 OpenAI로의 극적인 회귀
OpenAI의 이번 발표는 예상 되었지만 예상 밖이라고 할 수 있는데요. 그간 공개하겠다....말을 해왔지만 미루기도 하면서....과연 나올지 궁금하던 대목이었습니다 OpenAI는 GPT-2 이후로 무려 6년간 클로즈드 모델 정책을 고수해왔기 때문입니다. 그렇다면 왜 갑작스럽게 오픈소스로 전향했을까요? 배경을 살펴보면 그 이유가 명확해집니다. 애초에 딥시크가 아니었다면.... 중국의 딥시크(DeepSeek), 메타의 Llama, 알리바바의 Qwen 등 경쟁력 높은 오픈모델들이 쏟아지면서 업계와 연구계가 이미 다른 선택지들에 의존하기 시작했기 때문입니다. OpenAI 입장에서는 이런 생태계 변화를 더 이상 무시할 수 없었던 것이죠. 특히 사용자의 데이터 통제 욕구와 비용 절감 필요성이 높아지면서 오픈모델에 대한 수요가 꾸준히 증가했습니다. 여기에 미국의 AI Action Plan과 같은 정책적 기조까지 맞물려 OpenAI는 전략적 전환을 결정하게 됩니다.GPT-OSS 모델의 핵심 사양과 성능
GPT-OSS는 두 가지 버전으로 출시되었습니다. GPT-OSS-120b와 GPT-OSS-20b라는 이름을 가진 이 모델들은 각각 다른 용도에 최적화되어 있습니다. 120b는... 일반인이 사용하기 힘든 부분이 있는데, 이 버전의 모델을 사용하려면 워크스테이션 모델이거나 서버용 블랙웰 같은 고사양 카드가 필요합니다. 20b가 일반 소비자용이라고 할 수 있지만 VRAM이 16기 이상...가급적 24기가는 되어야 원활합니다.OpenAI가 공개한 모델 아키텍처의 혁신
OpenAI는 GPT-OSS 모델에 몇 가지 혁신적인 기술적 특징을 적용했습니다. 먼저 Mixture-of-Experts(MoE) 구조를 활용해 입력을 처리하는 데 필요한 활성 파라미터 수를 크게 줄였어요. GPT-OSS-120b는 총 1,170억 개(117B) 파라미터를 가지지만 토큰당 실제로는 51억 개만 활성화되며, GPT-OSS-20b는 210억 개(21B) 파라미터 중 36억 개만 활성화됩니다. 추론과 메모리 효율성을 위해 그룹 크기 8의 그룹화된 멀티쿼리 어텐션(Grouped Multi-Query Attention)을 사용하고, 위치 인코딩에는 RoPE(Rotary Positional Embedding)를 적용했습니다. 두 모델 모두 최대 128,000 토큰의 컨텍스트 길이를 기본 지원한다고 해요.획기적인 MXFP4 양자화 기술
OpenAI는 GPT-OSS에 특별한 양자화 기술을 적용했습니다. MXFP4 포맷으로 MoE 가중치를 양자화해서 파라미터당 4.25비트까지 압축했는데, 이는 전체 파라미터의 90% 이상을 차지하는 MoE 가중치의 메모리 사용량을 극적으로 줄여줍니다. 덕분에 작은 모델은 16GB 메모리에서, 큰 모델은 단일 80GB GPU에서 실행 가능해진 거죠. Ollama 같은 플랫폼에서는 이 MXFP4 포맷을 추가 변환 없이 네이티브로 지원하며, OpenAI와 직접 협력해 벤치마크 품질을 보장했다고 합니다.강화학습과 고급 훈련 기법
OpenAI는 GPT-OSS 훈련에 자사의 가장 고급 사전 훈련 및 사후 훈련 기술을 사용했다고 밝혔습니다. 특히 o3와 다른 최전선 시스템을 포함한 내부 모델들의 지식을 활용한 강화학습 기법을 조합해 훈련했어요. 훈련 데이터는 주로 영어 텍스트 전용 데이터셋으로, STEM, 코딩, 일반 지식에 중점을 두었습니다. 토큰화에는 GPT-4o와 o4-mini에서 사용하는 토큰나이저의 확장 버전인 o200k_harmony를 사용했는데, 이것도 함께 오픈소스로 공개했다고 해요.뛰어난 성능과 벤치마크 결과
성능 면에서도 상당히 인상적입니다. GPT-OSS-120b는 OpenAI의 o4-mini와 거의 동등한 추론 벤치마크 성과를 보였고, GPT-OSS-20b도 o3-mini와 유사한 결과를 달성했습니다. 특히 HealthBench 테스트에서는 GPT-4o나 o1과 같은 독점 모델들을 뛰어넘는 결과를 보여줬답니다.에이전트 작업과 도구 사용 능력
OpenAI가 특별히 강조한 부분은 에이전트 작업(Agentic Tasks)에서의 뛰어난 성능입니다. 코딩과 도구 사용 작업에서 특히 강력한 성능을 보이며, 네이티브 기능으로 함수 호출, 웹 브라우징, 파이썬 도구 호출, 구조화된 출력을 지원합니다. Tau-Bench 에이전트 평가 결과에 따르면 Chain-of-Thought(CoT) 추론에서도 뛰어난 성능을 보이며, 추론 노력 수준(낮음, 중간, 높음)을 사용자가 조정할 수 있는 유연성도 제공합니다.실용적인 활용 방안과 배포 환경
로컬 환경과 소비자 하드웨어 최적화
GPT-OSS의 가장 큰 장점 중 하나는 로컬 환경에서 자유롭게 실행할 수 있다는 점입니다. GPT-OSS-20b는 16GB 메모리만 있으면 일반 소비자 하드웨어에서도 실행 가능하고, GPT-OSS-120b도 단일 RTX 5090 같은 고급 GPU에서 최대 256 토큰/초의 성능을 낼 수 있다고 해요. NVIDIA와의 협력을 통해 RTX AI PC와 워크스테이션에 최적화되었으며, Ollama, llama.cpp, Microsoft AI Foundry Local 같은 인기 도구와 프레임워크를 통해 쉽게 사용할 수 있습니다.파인튜닝과 커스터마이징 가능성
Apache 2.0 라이선스 하에 공개된 만큼, 개발자들은 전체 파라미터를 자유롭게 파인튜닝해서 특화된 도메인에 맞게 모델을 커스터마이징할 수 있습니다. 이는 상업적 배포와 무제한 수정이 가능하다는 뜻이에요. 특히 정부나 기업의 데이터 주권이 중요한 경우, 완전히 격리된 환경(Air-gapped deployment)에서도 배포할 수 있어서 보안이 중요한 분야에서도 활용할 수 있습니다.의료 분야에서의 혁신적 성과
OpenAI가 특별히 주목하고 있는 분야가 바로 의료입니다. GPT-OSS-120b는 HealthBench에서 OpenAI o3와 거의 동등한 성능을 보였고, GPT-4o, o1, o3-mini, o4-mini보다 상당한 차이로 뛰어난 결과를 달성했어요. 특히 HealthBench Hard(어려운 대화 하위집합)와 HealthBench Consensus(여러 의사의 합의로 검증된 하위집합)에서도 일관되게 우수한 성능을 보여줬습니다. 이런 결과는 비용 대비 성능 면에서 상당한 파레토 개선을 나타낸다고 OpenAI는 평가하고 있어요.AI 안전성과 보안: 신중한 접근의 결과
오픈소스 AI 모델의 공개에서 빼놓을 수 없는 부분이 바로 안전성 문제입니다. OpenAI는 GPT-OSS 출시에 앞서 다양한 안전성 평가와 보안 조치를 완료했다고 강조했습니다. 내부 전문가팀과 외부 평가기관을 통해 생물학, 사이버 보안 등 민감 분야의 악용 가능성을 검토했고, 실제로 악성 파인튜닝된 버전을 OpenAI의 준비성 프레임워크 하에서 엄격히 테스트했습니다. 그 결과 현재 수준에서는 '중대한 위험'으로 분류되지 않는다고 판단해서 공개를 결정했다고 합니다. 이런 신중한 접근은 상당히 합리적입니다. 오픈소스의 장점을 살리면서도 잠재적인 악용 가능성을 최소화하려는 노력이 엿보입니다.딥시크 쇼크와 글로벌 AI 패권 경쟁
이번 GPT-OSS 공개를 제대로 이해하려면 최근의 딥시크 사건을 빼놓을 수 없습니다. 중국의 딥시크가 자체 오픈 AI 소프트웨어로 세계적인 주목을 받은 지 몇 달 후에 이런 발표가 나온 것은 우연이 아닙니다. 중국 및 글로벌 AI 패권 경쟁에 대응하려는 미국의 전략적 의도가 명확히 보입니다. "개방형 모델 공개는 소프트 파워의 일종"이라는 평가나 "미국 내 민주적 AI 레일의 확장"이라는 공식 입장에서도 이런 의도를 읽을 수 있어요. 하지만 이런 경쟁이 결국 개발자들에게는 더 좋은 도구들을 무료로 사용할 수 있는 기회를 제공합니다. 경쟁이 치열할수록 소비자에게는 유리한 법이죠.개발자 도구와의 완벽한 통합
Agents SDK와의 연동
OpenAI는 GPT-OSS가 자사의 Agents SDK와 완벽하게 통합된다고 발표했습니다. Python에서는 LiteLLM을 통해 Ollama에 프록시 연결이 가능하고, TypeScript에서는 AI SDK의 ollama 어댑터를 사용할 수 있어요. 이를 통해 개발자들은 기존 OpenAI API와 동일한 방식으로 로컬 모델을 활용할 수 있으며, 클라우드와 로컬 환경을 자유자재로 전환할 수 있습니다.다양한 플랫폼 지원
GPT-OSS는 출시와 동시에 여러 주요 플랫폼에서 지원됩니다. Hugging Face, Ollama, Together AI, LM Studio 등에서 즉시 사용할 수 있고, 각 플랫폼마다 최적화된 사용자 경험을 제공해요. 특히 Together AI에서는 프론티어 추론 기능을 무제한으로 수정하고 배포할 수 있는 완전한 자유도를 제공하며, 상업적 애플리케이션 구축에도 제약이 없습니다.업계와 개발자들의 뜨거운 반응
개발자 커뮤니티의 환영
개발자들의 반응은 대체로 매우 긍정적입니다. 특히 Ollama나 Hugging Face 같은 플랫폼을 통해 쉽게 접근할 수 있다는 점이 큰 호응을 얻고 있습니다. 실제로 Ollama를 이용하면 간단한 명령어 몇 개만으로도 GPT-OSS를 로컬에서 실행할 수 있습니다. 한 개발자는 "드디어 OpenAI가 진짜 오픈AI가 됐다"며 환영의 뜻을 표했고, 또 다른 사용자는 "이제 프라이버시 걱정 없이 AI를 활용할 수 있게 됐다"고 평가했습니다. 특히 비용 절감 효과에 대한 기대가 상당히 높은 상황입니다. NVIDIA의 젠슨 황 CEO는 "OpenAI가 NVIDIA AI 위에서 무엇을 구축할 수 있는지 세상에 보여줬고, 이제 오픈소스 소프트웨어에서 혁신을 발전시키고 있다"며 이번 발표에 대해 긍정적으로 평가했습니다.경쟁사들의 견제와 대응
하지만 모든 반응이 긍정적인 것은 아닙니다. 일각에서는 OpenAI의 수익성에 대한 의문도 제기되고 있습니다. 현재 700만명의 주간 사용자로부터 연간 약 170억 원의 수익을 거두고 있는 상황에서, 무료 모델이 유료 서비스의 수요를 잠식할 수 있다는 우려가 있습니다. 그럼에도 불구하고 OpenAI는 이번 결정이 단순한 수익보다는 생태계 주도권과 기술 플랫폼 완성도에 더 중점을 둔 전략이라고 설명하고 있습니다. 실제로 GPT-4o 중심의 유료 모델, Sora나 Transcribe 같은 멀티모달 기술, API 기반 플랫폼 서비스까지 아우르는 AI 풀스택 포트폴리오를 완성해가고 있는 모습입니다.
앞으로의 전망과 시사점
GPT-OSS의 공개는 단일 기업 중심의 AI 독점 구조에서 벗어나 사용자 중심의 자율적 AI 활용 시대의 시작을 알리는 신호탄일 수 있습니다. 하지만 동시에 OpenAI 입장에서는 새로운 도전이기도 합니다. 아! 물론 GPT-5에 대한 관심 끌기도 있고, 자신감이기도 한데요. 현 시점에 이러한 결정은 AI 업계가 얼마나 매 순간 도전에 직면하지 않고서는 성장할 수 없다는 것을 말해 주는 듯 합니다 앞으로 OpenAI가 오픈소스와 유료 서비스 간의 균형을 어떻게 맞춰갈지, 그리고 이런 변화가 전체 AI 업계에 어떤 파급효과를 가져올지 지켜보는 것이 흥미로울 것입니다. 한 가지 확실한 것은 이번 결정으로 인해 AI 기술에 대한 접근성은 확실히 높아졌다는 점입니다. 결국 OpenAI의 GPT-OSS 공개는 회사 이름에 걸맞게 다시 '오픈'으로 돌아가겠다는 의지의 표현인 동시에, 치열해진 글로벌 AI 경쟁에서 살아남기 위한 전략적 선택이라고 볼 수 있습니다. 개발자와 연구자들에게는 분명히 반가운 소식이고, AI 기술의 민주화라는 측면에서도 긍정적인 변화라고 평가할 수 있습니다.반응형