최근 한 달 동안 OpenAI가 Codex 사용자를 위해 여러 기능을 출시했음 주말 동안 같은 프롬프트를 GPT-5.2, Gemini 3, Grok에서 실행해봤음 최근 roon이 일반 사용자보다 직원 계정이 훨씬 빠르다는 사실을 알아챘다고 함 내 생각에 OpenAI는 모델을 출시한 후 품질을 의도적으로 낮추는 습관이 있음 흥미로운 점은 Cerebras에서 추론 비용이 훨씬 비싼데도 가격을 그대로 유지했다는 것임 속도가 항상 가장 큰 불만이었는데, 이번 개선으로 다시 써볼 생각이 생김 어떻게 이런 속도 향상을 이뤘는지 궁금함 Reddit에도 품질이 떨어졌다는 글이 많음Hacker News 의견들
첫 두 가지 기능만으로도 생산성이 3배는 오른 느낌임. 이번 업데이트를 정말 기대하고 있음
Gemini 3와 Grok은 ‘thinking mode’에서 2분 내로 끝났는데, GPT-5.2는 6분 동안 제자리걸음이었음
그래서 내부 API 호출 방식을 일반 사용자보다 효율적으로 돌릴 수 있다는 걸 깨달았다고 함
결국 일반 사용자들은 남은 용량에서만 처리되는 셈임
관련 글: Choose Your Fighter (The Zvi)
ChatGPT 5.2 웹 버전이 처음엔 훨씬 좋았는데, 1~2주 후 갑자기 품질이 떨어졌음
언론과 벤치마크를 속이려는 전략처럼 보였음
속도를 높이려면 단순히 추론 강도를 줄이면 되니까, 40% 향상이라는 말도 믿기 어려움
ChatGPT Plus 사용자에게 처음엔 Pro 모델을 주고 나중에 Standard로 바꾸는 식의 ‘꼼수’일 수도 있음
모델 품질을 일정하게 유지하고, 성능 저하 보고가 있으면 즉시 조사함
이번 속도 향상은 토큰당 처리 시간 개선 덕분이며, 모델 품질이나 가중치는 그대로임
참고: Claude Code Tracker (MarginLab)
만약 Cerebras였다면 모델 동작이 달라지고 속도도 10배쯤 빨라졌을 것임
아마 Blackwell 시리즈용 최적화 커널을 새로 작성한 듯함
Claude 관련 서브레딧에서도 마찬가지인데, 신뢰할 만한 증거는 거의 없음

4 days ago
4










English (US) ·