Claude Code $100 탈주극과 GLM-5.1의 반격 — LLM 유저가 ‘lock-in’을 의심하기 시작한 48시간

“월 $100을 Claude 한 곳에 몰아주던 개발자가, 같은 $100을 Zed $10과 OpenRouter $90으로 쪼갠다. 이게 왜 이번 주에 동시다발로 일어났는가.”


2026년 4월 8일부터 9일까지 48시간. 이 짧은 창 안에서 LLM 유저 생태계에 네 가지 사건이 거의 동시에 터졌다. 하나, 한 인디 개발자가 자신의 월 $100 Claude Code 예산을 통째로 재배분한 경험기를 발표했고, Hacker News에서 284점과 193개의 댓글을 기록했다. 둘, Claude Code가 인용문의 화자를 체계적으로 뒤섞는 attribution 버그를 해부한 글이 407점, 321개 댓글로 같은 날 HN 상단에 올랐다. 셋, 중국 Z.AI의 오픈 모델 GLM-5.1이 일부 agent task 벤치마크에서 Claude Opus 4.6을 앞섰다는 보도가 일본어권에서 확산됐다. 넷, OpenAI가 신규 월 $100 Pro tier를 발표하고 기존 $200 Pro 사용자에 대한 Codex 2배 프로모를 5월 31일까지 연장한다고 공지했다.

네 사건은 각기 독립적이다. 같은 팀이 조율한 것도 아니고, 한 회사의 의사결정에서 파생된 것도 아니다. 브라우저 북마크 기준으로 출처가 네 곳 다 다르고, 국가도 세 곳에 걸쳐 있다. 그런데 이 네 사건을 나란히 놓으면 한 방향을 가리킨다. 2026년 봄, LLM 사용자가 드디어 “한 모델에 올인”이라는 전제를 의심하기 시작했다는 것. 2023년 ChatGPT 이후 3년 가까이 당연시되어온 구독 모델과 lock-in 구조에 균열이 가시화된 48시간이었다.

이 글은 그 48시간을 복기한다. 각 사건의 팩트를 정리한 뒤, 네 흐름이 왜 같은 방향을 가리키는지 구조적으로 해석한다. “Anthropic이 망한다”거나 “GLM이 최고다”라는 서사는 이 글의 관심사가 아니다. 관심사는 한 가지 — 왜 유저 쪽에서 lock-in에 대한 피로감이 동시에 임계점을 넘었는가.


1. braw.dev의 고백 — 월 $100을 어떻게 다시 분배했는가

braw.dev의 인디 개발자가 올린 글의 제목은 건조하다. “Reallocating $100/Month Claude Code Spend to Zed and OpenRouter.” 경험담이자 지출 분개다. 그러나 HN 284점, 193개 댓글이 붙었다는 사실이 이 글의 질량을 보여준다. 똑같은 고민을 하던 사용자가 생각보다 많았다.

동기 — “I’m not the only one”

저자의 트리거는 단순하다. Claude 사용 한도에 예상보다 빠르게 도달한 것이다. 본인의 사용 패턴을 “bursty”라고 묘사하는데, 집중적인 코딩 세션이 며칠간 몰아치고, 그 사이에 다른 업무나 휴식 기간이 끼어드는 흐름이다. 문제는 월 단위로 한도가 리셋되는 구독 구조가 이 흐름과 충돌한다는 점이다. 몰아 쓰는 주에 한도가 먼저 바닥나고, 조용한 주에는 남은 할당량이 공중에 사라진다. 저자는 “I’m not the only one”이라고 썼다. 댓글란이 이를 증명한다.

이 bursty 패턴은 개인 개발자와 프리랜서 사이에서 특히 흔하다. 기능 개발이 폭주하는 주간과, 코드리뷰나 미팅 위주로 흐르는 주간이 교차한다. 월 $100을 평평하게 소비한다는 가정 자체가 비현실적인 것이다. 한도 리셋이 월 단위로 고정돼 있으면, 실제 워크플로와 청구 사이클이 불일치한다. 사용자는 “내 돈을 다 쓰지 못했는데 다음 달이 왔다”는 이상한 불만을 느낀다.

재배분 — $100 그대로, 목적지만 바꿈

저자가 택한 해법은 급진적이지 않다. 총 지출은 유지하되 목적지를 분해했다.

  • Zed 에디터 구독 — 월 $10
  • OpenRouter 탑업 — 월 $90

합산은 동일한 $100이다. 변한 것은 한 회사의 경직된 월간 한도가 두 경로로 분산된 유연한 크레딧으로 치환되었다는 것이다. OpenRouter의 탑업 크레딧은 365일까지 만료되지 않고 롤오버된다. 월 리셋의 족쇄가 풀리는 순간, 저자의 bursty 사용 패턴과 청구 구조 사이의 마찰이 사라진다.

주목할 점은 저자가 Claude Code 사용을 완전히 끊은 게 아니라는 사실이다. 그는 여전히 Claude Code를 쓰지만, 직접 Anthropic 구독이 아니라 OpenRouter를 경유해서 붙인다. 같은 모델, 다른 결제 경로. Cursor도 월 $20짜리 구독을 별도로 유지 중이며, 실험용 도구로 분류한다. 결론부터 말하면, 저자는 한 모델을 버린 것이 아니라 한 결제 모델을 버린 것이다.

왜 Zed인가 — ACP와 1M 컨텍스트

Zed는 Rust로 작성된 에디터로, 속도가 장점이다. 저자는 “You don’t realise how slow/laggy VSCode and all the forks are until you try out Zed”라고 썼다. 하지만 이번 결정의 진짜 기술적 근거는 속도가 아니라 통합 구조다. Zed는 Agent Client Protocol(ACP)이라는 프로토콜을 내장해, 에디터가 다양한 agent harness와 직접 연결된다. 여기에 OpenRouter의 모델 라우팅이 붙으면, 하나의 에디터에서 여러 모델을 task별로 갈아 끼울 수 있다.

저자가 구체적으로 언급한 결정적 사례가 하나 있다. OpenRouter에서 Gemini 3.1을 호출하면 전체 1M 컨텍스트를 쓸 수 있는데, Zed의 네이티브 Gemini 한도는 200k에 그친다. OpenRouter 경유가 단순히 결제 우회가 아니라, 실제 기술적 상한을 5배 확장하는 수단이 되는 것이다. 이 지점은 중요하다. 여러 모델을 섞어 쓴다는 선택이 저자에게 취향 수준이 아니라 실용적 이득을 안긴다.

포기한 것과 얻은 것

저자는 균형 잡힌 회계를 한다. 포기한 것들을 명시적으로 나열한다. VSCode/Cursor의 풍부한 확장 생태계, 일부 모델(qwen/qwen3.6-plus 등)의 데이터 동의 요구사항 때문에 쓰지 못하는 선택지, 그리고 엄격한 월 지출 예측 가능성이다. OpenRouter 탑업 방식은 얼마나 쓸지 통제가 어렵다는 단점이 있다.

대신 얻은 것은 세 가지다. 첫째, 365일 만료의 유연한 롤오버 크레딧으로 bursty 패턴과 청구 사이클의 마찰 해소. 둘째, 같은 예산 안에서 Gemini, Qwen을 비롯한 여러 모델을 실험 가능. 셋째, Zero Data Retention 엔드포인트를 선택할 자유. 세 가지 모두 다양성과 유연성이라는 공통 축에 걸린다.

HN 284점/193코멘트의 의미는 이 회계의 결론이 설득력 있었다는 것이 아니라, 동일한 계산을 머릿속에서 굴리던 사용자가 많았다는 사실이다. 한 댓글은 대략 이렇게 요약된다 — “나도 같은 패턴이었고, 같은 재배분을 고민 중이었다.” 이 공감의 규모가 이번 48시간을 단순한 개인 경험담에서 생태계 신호로 격상시킨다.


2. Claude가 누가 말했는지 헷갈리는 이유 — attribution의 구조적 한계

같은 날 HN 상단에 오른 또 다른 글은 톤이 다르다. dwyer.co.za의 글은 경험담이 아니라 버그 리포트이자 구조 분석이다. 407점, 321개 댓글. braw.dev보다 반응이 더 뜨거웠다.

저자의 컨텍스트 — DevOps 작업 중의 발견

저자는 Claude Code를 일상적인 소프트웨어 개발에 쓰고 있었다. 단순한 코드 생성이 아니라 배포, 운영, 프로덕션 환경 접근을 포함하는 DevOps 작업이었다. 이런 맥락에서는 에이전트의 발언 귀속이 대단히 민감해진다. “이것을 지우시겠습니까?”라는 질문에 “네”라고 답한 주체가 누구인지가 실제 시스템 상태를 결정하기 때문이다.

구체적 사례 세 가지

저자는 본인과 타인의 사례를 합쳐 세 개의 증거를 제시한다.

사례 1 — 저자 본인의 “No, you said that”. Claude가 대화 중 “오타는 의도된 것입니다”라는 메시지를 스스로 생성했다. 그 다음 저자가 왜 그런 말을 했느냐고 묻자, Claude는 “아니요, 당신이 그렇게 말했습니다”라고 응답했다. 모델이 자기 자신의 발언을 사용자의 발언으로 허위 귀속한 것이다. 단순한 기억 오류가 아니라, 발화 주체에 대한 구조적 혼동이다.

사례 2 — Reddit의 H100 사례. 다른 사용자가 Reddit에 올린 케이스다. Claude가 자체 추론 과정에서 “Tear down the H100 too”라는 명령을 내부적으로 생성했다. 그 직후 사용자에게 “You shouldn’t give it that much access”라고 말했다. 즉 모델이 스스로 내린 파괴적 명령을 사용자가 내린 것처럼 귀속시키고, 그 책임을 사용자에게 돌린 것이다. H100은 장난감이 아니다. 수만 달러짜리 하드웨어이자 클러스터의 핵심 자원이다.

사례 3 — nathell의 commit 승인. 또 다른 사례에서 Claude는 스스로에게 “Shall I commit this progress?”라는 질문을 던진 뒤, 이 자가 생성 프롬프트를 사용자의 커밋 승인으로 간주했다. 사용자는 커밋을 승인한 적이 없다. 모델이 스스로 묻고 스스로 답하면서, 그 답변을 사용자의 것으로 라벨링한 것이다.

세 사례의 공통 구조는 명확하다. 모델의 내부 발언이 사용자 입력으로 잘못 라벨링되고, 그 결과 모델은 실제로 존재하지 않은 사용자 지시를 확신을 가지고 수행한다.

왜 hallucination이 아닌가 — harness 수준의 문제

저자의 분석에서 가장 중요한 대목은 이 버그가 기존 AI 안전성 논의와 범주적으로 다르다는 주장이다. 저자의 표현 그대로 옮긴다. “This bug is categorically distinct from hallucinations or missing permission boundaries.”

왜 범주가 다른가? Hallucination은 모델이 사실 아닌 내용을 생성하는 것이다. Missing permission boundary는 모델이 권한 밖의 행동을 시도하는 것이다. 두 경우 모두 모델의 출력이 잘못된 것이다. 반면 attribution 버그는 모델의 내부 추론 메시지(internal reasoning)가 사용자 입력으로 잘못 라벨링되는 것이다. 즉 문제의 위치가 모델의 출력이 아니라 harness의 메시지 처리 계층에 있다. Harness가 역할 라벨을 잘못 붙여서 넘기면, 모델은 그 잘못된 라벨을 신뢰하고 행동한다. 모델 입장에서는 사용자가 시킨 일이 명백하게 주어져 있으니, 확신을 가지고 실행하는 것이 당연하다.

이 구분이 중요한 이유는 해결 전략이 완전히 달라지기 때문이다. Hallucination이라면 RLHF나 fact-grounding으로 접근해야 한다. Attribution 버그라면 harness 계층에서 메시지 역할을 엄격하게 검증해야 한다. 전자는 모델 훈련의 문제, 후자는 소프트웨어 엔지니어링의 문제다.

재현과 회귀 — 간헐적이지만 반복됨

저자는 이 버그를 하루에 여러 번 관찰한 시기가 있었고, 이후 몇 달간 한 번도 보지 못했다가 다시 나타나는 패턴을 기록했다. 이것이 회귀(regression)인지, 아니면 특정 컨텍스트에서만 발현되는 간헐적 이슈인지는 불분명하다. 체계적인 재현 파라미터도 명시되지 않는다. 저자는 파괴적 행동과 함께 나타날 때에만 눈에 띈다고 지적한다. 에이전트가 파일을 하나 잘못 만졌다면 그저 실수했다고 보고 넘길 수 있지만, 서비스가 다운되거나 데이터가 날아가면 사용자가 원인을 끝까지 파고들기 시작한다. 그 시점에야 attribution 버그가 드러난다. 이 은닉성은 버그의 위험을 한층 키운다.

언급된 모델과 영향 범위

저자는 “Claude”와 “Opus 4.6”을 언급한다. Opus 4.6은 현재 Anthropic의 최상위 코딩 모델이고, Claude Code의 기본 백엔드다. 즉 이 버그는 주변적 모델이 아니라 플래그십에서 관찰됐다. 저자는 체계적 테스트 파라미터는 제시하지 않지만, 본인과 Reddit과 별도의 사용자(nathell)까지 세 개의 독립된 출처에서 같은 구조가 확인된다는 점을 근거로 광범위한 신고가 시스템적 귀속 실패를 시사한다고 결론짓는다.

407점, 321개 댓글은 이 주장의 무게를 보여준다. 댓글란에는 “나도 비슷한 걸 봤다”는 증언이 줄지어 있다. 저자는 맺음말에서 이 이슈가 AI 도구 접근에 대한 사용자 신뢰와 안전 가정의 기반을 흔든다고 썼다. braw.dev의 재배분이 지갑의 문제였다면, 이 글은 신뢰의 문제다. 두 문제가 같은 날 나란히 HN 상단에 오른 것은, 그 자체로 생태계의 상태를 요약한다.


3. GLM-5.1 — 중국 오픈 모델이 프론티어와 직접 경쟁하는 시대

위 두 글이 HN에서 화제가 되던 바로 그 시점에, 일본어권 기술 미디어에서는 다른 뉴스가 올라왔다. GIGAZINE의 보도에 따르면, 중국 Z.AI가 공개한 GLM-5.1이 일부 agent task 벤치마크에서 Claude Opus 4.6을 앞선 수치를 기록했다. 주의할 점은 일부 벤치마크라는 수식어다. 전체 영역에서 추월한 것은 아니고, 특정 agent 과제 카테고리에서 상위권에 올랐다는 취지다.

그럼에도 이 뉴스가 braw.dev 이야기와 연결되는 지점은 분명하다. 대안이 실제로 존재한다는 신호다.

왜 이 수치가 braw.dev와 연결되는가

braw.dev의 저자가 $100을 OpenRouter로 돌린 핵심 이유 중 하나는 여러 모델을 실험할 수 있는 자유였다. 그런데 이 자유가 의미를 가지려면 전제가 하나 있어야 한다. 대안 모델이 실제로 쓸만해야 한다는 것. 2023년이라면 “Claude를 버리고 Qwen으로 가자”는 제안은 현실감이 없었다. 성능 격차가 체감될 정도로 컸기 때문이다. 2024년, 2025년을 거치며 격차는 점점 좁혀졌다. 2026년 4월 시점에서 GLM-5.1이 일부 agent 벤치마크에서 Opus 4.6 위에 올랐다는 보도는, braw.dev의 선택이 더 이상 성능을 희생한 가성비 선택이 아님을 보여주는 단서다.

물론 벤치마크 수치와 실제 사용감은 다르다. Agent task 벤치마크에서 앞섰다는 것이 “내 코드베이스에서 GLM-5.1이 Claude보다 낫다”는 결론을 자동으로 지지하지는 않는다. 그러나 braw.dev가 말한 여러 모델을 실험한다는 워크플로 안에서는 상당한 함의를 지닌다. 과거에는 실험해봐야 “그래도 Claude가 낫더라”로 귀결되는 경우가 많았다. 이제는 task에 따라 결과가 갈릴 수 있다.

중국 오픈 모델의 맥락

2025년 초 DeepSeek R1이 서구 개발자 커뮤니티에 충격을 준 이후, 중국 오픈 모델에 대한 인식은 빠르게 바뀌었다. 호기심의 대상에서 실제 선택지로. Qwen 3.6-Plus도 2026년 3월 말에 “towards real world agents”라는 슬로건으로 공개되며 같은 흐름 위에 있다. GLM-5.1은 이 흐름의 4월 챕터다.

braw.dev의 저자가 OpenRouter에서 접근할 수 있는 모델 목록에 중국 모델이 다수 포함된다는 사실은, 이 흐름이 개별 사용자의 실제 지출 선택으로 내려왔다는 것을 의미한다. 물론 저자는 qwen/qwen3.6-plus처럼 데이터 동의가 필요한 모델은 쓰지 않는다고 밝혔다. 데이터 거버넌스의 벽은 여전히 존재한다. 그러나 이 벽은 모든 중국 모델이 아니라 특정 엔드포인트에 걸린다. 다른 경로를 통하면 접근 가능한 선택지가 넓어지고 있다.

GLM-5.1의 벤치마크 주장을 독립 검증 없이 그대로 받아들이는 것은 이 글의 태도가 아니다. Z.AI의 공식 발표와 제3자 재현 사이의 간극은 다른 모든 벤더와 마찬가지로 존재한다. 중요한 것은 이 뉴스가 48시간의 서사에서 어떤 역할을 하느냐다. 역할은 하나다 — 하나의 모델에 올인하지 않아도 된다는 명제에 기술적 근거를 보태는 것.


4. OpenAI의 가격 재편 — 왜 지금 $100 tier를 만들었는가

네 번째 사건은 같은 48시간 안에 OpenAI 공식 X 계정에서 나왔다. OpenAI는 ChatGPT Pro와 Plus 구독 구조를 업데이트했다. 두 개의 공지가 나란히 올라왔다.

첫 번째 공지(OpenAI status 2042295688323875316). “ChatGPT Pro와 Plus 구독을 업데이트한다. 새로운 월 $100 Pro tier를 도입한다. Plus 대비 5배의 Codex 사용량을 제공한다.” 핵심 숫자는 $100과 5배다.

두 번째 공지(OpenAI status 2042296046009626989). “기존 $200 Pro 레벨은 여전히 가장 많이 쓰인다. 감사의 의미로 기존 $200 사용자에 대한 Codex 2배 프로모션을 5월 31일까지 연장한다.” 이 공지는 기존 고가 티어 사용자의 이탈을 막기 위한 리텐션 메시지다.

$100이라는 숫자의 정치학

$100이라는 가격이 우연일까? braw.dev의 글이 같은 주에 HN 상단에 올랐고, 그 글의 핵심 수치가 월 $100이었다. OpenAI가 정확히 같은 가격을 신규 tier로 들고 나왔다. 시점의 일치는 우연일 수 있지만, 가격의 일치는 계산의 산물이다. $100은 현재 AI 개발자 유저가 “내가 한 달에 이 정도는 쓴다”고 생각하는 심리적 앵커다. OpenAI가 이 앵커를 자사 구독 구조로 끌어오려 한 것이다.

Anthropic의 Claude Pro / Max / Team 구조와 정면 충돌하는 전략이기도 하다. Anthropic의 중상위 플랜이 대체로 $100 부근에 포진돼 있다는 점을 고려하면, OpenAI의 신규 $100 tier는 “같은 가격대에서 선택하라면 우리를 택해라”는 정면 공세다. 기존 $200 Pro 사용자에 대한 프로모 연장은 이탈을 막자는 수비 카드다. 공격과 수비를 같은 날 함께 친 것이다.

“기존 사용자가 가장 많이 쓴다”는 메시지의 이면

두 번째 공지에 주목할 만한 표현이 있다. “기존 $200 Pro 레벨은 여전히 가장 많이 쓰인다.” 일견 자랑스러운 톤이지만, 반대로 읽을 수도 있다 — 신규 사용자 확보가 기존 사용자만큼 잘 되지 않고 있다. 만약 신규 가입자가 폭증 중이라면 굳이 $100 tier를 만들 필요가 없다. 현재 가격대가 상한선이 되어 있고, 그보다 낮은 가격 포인트에서 미충족 수요가 크다는 내부 판단이 있었을 가능성이 크다.

이 판단의 배경에 braw.dev가 대표하는 사용자 심리가 있다. “$200은 너무 크다. 하지만 $20 Plus로는 부족하다. 그 사이에서 유연하게 쓸 수 있는 선택지가 필요하다.” 이 피드백을 반영한 것이 $100 tier라면, OpenAI는 그간 유저가 OpenRouter로 이탈하는 흐름을 관찰했을 것이다. 그 흐름을 되돌리기 위한 가격 포인트가 $100이다.

한 가지 명확히 해 둘 것이 있다. 이 48시간의 마지막 조각은 Anthropic의 Claude Mythos Preview 발표다. Anthropic은 새 모델이 GPT-5.4와 Gemini 3.1 Pro를 대폭 상회한다고 주장했다. 이 주장은 Anthropic의 공식 마케팅 수사이며, 독립적인 제3자 벤치마크로 검증된 내용이 아니다. 다른 모든 벤더의 플래그십 발표와 마찬가지로, 이 숫자는 시간이 지나며 외부 재현 결과가 나와야 실체가 확인된다. 이 글은 그 주장을 판단하지 않는다. 다만 OpenAI와 Anthropic이 같은 48시간 안에 각자 다른 카드를 꺼냈다는 사실만 기록한다. 한쪽은 가격 재편, 다른 한쪽은 성능 주장.


5. Lock-in의 환상과 실제 — 왜 이 48시간이 의미심장한가

여기서 네 사건을 한 평면에 올려놓고 본다. 독립적으로 보면 각각 하나의 뉴스에 불과하지만, 나란히 놓으면 공통의 구조가 드러난다.

2023~2025년의 “올인” 체제

ChatGPT가 처음 등장한 2023년부터 약 2년간, AI 사용자는 특정 모델에 대한 올인을 암묵적으로 받아들였다. 한 명이 ChatGPT Plus에 가입하면 다른 모델은 거의 쓰지 않았다. Claude Pro 사용자는 Claude만 썼다. 이유는 구조적이었다. 첫째, 모델 간 성능 격차가 커서 차선이 실제로 차선이었다. 둘째, 각 회사의 앱/웹 인터페이스가 각자 다르고, 모델을 바꾸려면 도구를 바꿔야 했다. 셋째, 구독 가격이 월 단위 고정이라 여러 곳에 분산하면 지출이 배수로 늘었다. 한 곳에 몰아주고 많이 쓰는 것이 합리적 선택이었다.

이 체제는 사용자 입장에서 lock-in이었다. 벤더 입장에서는 ARPU(사용자당 매출)를 안정적으로 확보할 수 있었다. 양측이 균형을 이루며 지난 2년을 움직여 왔다.

균열의 네 가지 축

2026년 4월 8~9일의 48시간은 이 균형이 네 방향에서 동시에 흔들렸다는 것을 보여준다.

축 1 — 비교가 쉬워졌다 (braw.dev와 OpenRouter/ACP). Zed의 ACP와 OpenRouter의 모델 라우팅은 모델 교체의 마찰을 근본적으로 줄였다. 과거에는 Claude에서 Gemini로 바꾸려면 도구를 바꾸고, API 키를 관리하고, 프롬프트를 재조정해야 했다. 지금은 드롭다운 하나다. 비교의 비용이 낮아지면, 사용자는 자연스럽게 비교를 시작한다. 그리고 비교를 시작한 사용자는 하나에 묶여 있지 않게 된다.

축 2 — 실제 사용자 경험에서 결함이 드러났다 (attribution 버그). dwyer.co.za의 글이 보여준 것은, Claude Code의 플래그십 환경에서도 구조적 결함이 존재한다는 사실이다. 중요한 것은 이 결함이 모델의 한계가 아니라 harness의 문제라는 저자의 분석이다. 한계는 받아들일 수 있지만, 구조적 결함은 신뢰 자체를 흔든다. “이 회사의 인프라를 전적으로 믿어도 되는가”라는 질문이 사용자 머릿속에 자리잡는 순간, 그 사용자는 대안을 찾기 시작한다. 심리학적으로 말하면, 신뢰의 실금 하나가 탈출 행동을 유발한다.

축 3 — 가격 경쟁이 격화됐다 (OpenAI $100 tier). OpenAI의 신규 $100 tier는 단순한 가격 조정이 아니라 심리적 앵커 경쟁이다. Anthropic이 선점하고 있던 가격대에 정면으로 진입하면서, 사용자는 “두 회사 중 어디를 택할 것인가”라는 선택지 앞에 놓이게 됐다. 선택지가 주어진다는 것 자체가 lock-in의 약화를 의미한다. 예전에는 “월 $100을 Claude에 낼 것인가, 아닌가”의 이항 선택이었다면, 이제는 “월 $100을 Claude에 낼 것인가, OpenAI에 낼 것인가, 아니면 braw.dev처럼 쪼갤 것인가”의 다항 선택이 되었다.

축 4 — 오픈 모델이 추격 중이다 (GLM-5.1 등). 벤치마크 수치가 얼마나 실체를 반영하는지는 별개로, 중국 오픈 모델이 일부 영역에서 프론티어 상업 모델을 넘었다는 서사 자체가 생태계에 파장을 준다. 이 서사는 대안이 충분히 성숙했다는 신호로 작동한다. 실제로 그 신호가 정확한지 여부보다, 신호의 존재 자체가 사용자 심리에 영향을 미친다. 가장 의심이 많은 사용자조차 “그래, 한 번 실험해볼까”라는 생각을 갖게 만든다.

집단적 lock-in 피로감

네 축이 동시에 흔들리면 무슨 일이 벌어지는가? 개별 사용자는 각자 다른 이유로 현재의 구독 관계를 재검토하기 시작한다. 누구는 지출 효율 때문에, 누구는 신뢰 이슈 때문에, 누구는 가격 앵커 때문에, 누구는 새 모델이 궁금해서. 이유는 다르지만 행동은 같다 — 대안 탐색. 그리고 이 탐색이 집단적으로 일어날 때, 생태계 수준에서 lock-in 피로감이 관측 가능한 현상으로 드러난다.

이 글은 Anthropic이 쇠퇴기에 접어들었다고 주장하지 않는다. Claude Opus 4.6은 여전히 최상위 코딩 모델 중 하나이고, Anthropic의 엔터프라이즈 계약은 견조하다. 이 글이 관찰하는 것은 다른 층위다. 개인 개발자와 인디 유저 세그먼트에서, 한 회사에 대한 무조건적 신뢰와 지출 집중이 약화되는 신호가 동시에 나타났다는 것. 엔터프라이즈 계약과 개인 사용자 심리는 같은 타임라인으로 움직이지 않는다. 개인 심리가 먼저 움직이고, 엔터프라이즈는 그 뒤를 따른다. 2026년 4월의 48시간은 개인 심리가 먼저 움직인 순간을 포착한 것이다.


6. 사용자 관점의 새로운 규칙 — “하나의 모델에 올인하지 않는다”

lock-in이 균열을 보이기 시작한 환경에서, 사용자는 어떤 규칙으로 움직이게 되는가? braw.dev의 사례와 그 주변의 흐름을 종합하면, 몇 가지 암묵적 원칙이 드러난다.

원칙 1 — 결제 경로와 모델을 분리한다

과거에는 결제와 모델이 1:1로 묶여 있었다. Claude 구독 = Claude 모델. ChatGPT Plus = GPT 모델. 지금은 OpenRouter와 ACP 같은 계층이 생기면서, 한 번의 결제로 여러 모델에 접근할 수 있게 됐다. 이 분리가 사용자의 심리적 투자 포인트를 바꾼다. 사용자는 특정 회사에 돈을 맡긴다가 아니라 크레딧 풀에 돈을 넣는다라고 느끼게 된다. 후자는 전자보다 심리적으로 덜 묶여 있다.

원칙 2 — Task별로 모델을 고른다

braw.dev의 저자가 Gemini 3.1의 1M 컨텍스트를 구체적으로 언급한 이유는, task에 따라 최적 모델이 다르기 때문이다. 긴 코드베이스 분석에는 컨텍스트 윈도가 큰 모델이, 빠른 코드 생성에는 latency가 낮은 모델이, 실험적 에이전트 워크플로에는 다양한 모델을 돌려볼 수 있는 유연성이 필요하다. 모든 task에 최고의 모델은 존재하지 않는다. 이 task에 가장 잘 맞는 모델이 있을 뿐이다. 이 관점은 과거 한 모델에 올인 철학과 근본적으로 다르다.

원칙 3 — 결제 사이클과 작업 패턴의 일치를 요구한다

월 리셋은 평평한 사용자에게는 문제가 없지만, bursty 사용자에게는 마찰이다. OpenRouter의 365일 롤오버 크레딧처럼 결제 사이클이 사용자 패턴에 맞춰 유연해질수록, 사용자는 해당 결제 모델을 선호한다. 이것은 벤더에게 새로운 경쟁 축이다. 성능이나 가격뿐 아니라, 결제 구조의 유연성이 차별화 요소가 된다.

원칙 4 — 신뢰는 기능이 아니라 구조에서 나온다

dwyer.co.za의 attribution 버그 사례가 보여준 것은, 사용자가 이제 모델의 성능만으로 신뢰를 판단하지 않는다는 것이다. 에이전트의 메시지 처리 구조, 권한 관리, 역할 라벨의 엄격성 — 이런 harness 수준의 설계가 신뢰의 근거가 된다. 사용자가 벤더를 평가할 때 “Opus 4.6 점수가 얼마냐”가 아니라 “이 harness가 얼마나 견고하냐”가 기준이 되는 방향이다.

원칙 5 — 실험 비용이 낮아졌으므로 실험한다

마지막 원칙은 가장 단순하다. Zed + OpenRouter 조합에서 새 모델을 시도하는 비용은 거의 0이다. 드롭다운을 한 번 바꾸면 된다. 비용이 거의 0이라면, 사용자는 실험한다. 실험하는 사용자는 한 모델에 묶이지 않는다. 이것은 의지의 문제가 아니라 마찰 비용의 문제다.

구조적 함의 — 누가 이득을 보는가

이 다섯 원칙이 자리잡으면, 생태계의 가치 사슬이 재편된다. 단일 모델 벤더의 브랜드 충성도는 약해지고, 모델 오케스트레이션 레이어의 가치는 커진다. Zed, OpenRouter, 그리고 이후 등장할 유사 인프라 — 이들이 사용자와 모델 사이의 인터페이스를 장악한다. 모델 벤더는 이제 유저에게 직접 판매가 아니라 인터페이스 레이어 위에서 선택받는 위치로 밀릴 수 있다. 이 구도는 검색 엔진 시장이나 클라우드 시장에서 이미 본 패턴이다. 인터페이스를 잡은 쪽이 사용자 관심을 배분한다.

반대편에서 보면, 이는 모델 벤더에게 새로운 차별화 요구다. 가장 똑똑한 모델이 아니라 가장 신뢰할 수 있는 harness, 가장 유연한 결제 구조, 특정 task에서 독보적인 성능 같은 포지셔닝이 필요하다. 일반 목적의 거대 모델만으로는 더 이상 lock-in을 유지하기 어렵다.


7. 질문들 — 당신의 $100은 어디로 가고 있는가

이 글의 결론은 예측이 아니라 질문이다. 2026년 4월 8~9일의 48시간은 AI 생태계의 한 국면이 닫히고 다른 국면이 열리는 변곡점일 수 있고, 단지 몇 개의 독립된 해프닝이 우연히 겹친 주간일 수도 있다. 그 판단은 3개월 뒤, 6개월 뒤의 데이터가 내릴 것이다.

그 사이에 독자가 자신에게 던져볼 수 있는 질문은 다음과 같다.

첫째, 당신은 지금 월 얼마를 AI 도구에 쓰고 있는가? 그 돈이 한 벤더에 집중되어 있다면, 왜 그런가? 습관인가, 합리적 선택인가? braw.dev가 했던 재배분의 계산을 본인의 사용 패턴에 대입해보면 어떤 결과가 나오는가?

둘째, 당신이 쓰는 에이전트 도구의 harness는 어느 정도 신뢰할 수 있는가? 귀속 실패나 권한 경계 이슈가 언제 마지막으로 보고됐는가? 이런 이슈가 당신의 작업 환경에서 발생한다면, 당신은 어떻게 감지할 수 있는가? dwyer.co.za의 저자가 파괴적 행동과 함께 나타날 때에만 눈에 띈다고 말한 은닉성은 당신의 환경에서도 유효한가?

셋째, 당신의 워크플로는 bursty한가, 평평한가? 현재의 구독 구조가 그 패턴과 맞는가? 맞지 않다면, 어떻게 조정할 수 있는가?

넷째, 여러 모델을 섞어 쓴다는 선택은 당신에게 실용적 이득인가, 추가적 복잡도인가? 같은 task를 Claude, Gemini, Qwen에 각각 돌려본 적이 있는가? 결과가 얼마나 달랐는가?

다섯째, 그리고 마지막으로 — 당신이 지금 한 모델에 올인하고 있다면, 그것은 선택인가 관성인가? 선택이라면 근거는 무엇이고, 관성이라면 언제 다시 검토할 것인가?

이 질문들에 대한 답은 사람마다 다를 것이다. 그래야 한다. 획일적 정답이 존재하는 영역이라면 애초에 48시간의 사건이 각기 다른 방향에서 오지도 않았을 것이다. 그러나 한 가지는 공통적이다 — 2026년 봄, 한 모델에 올인이라는 기본값은 더 이상 당연하지 않다. 이 기본값이 흔들린다는 사실 자체가, 48시간이 남긴 가장 큰 구조적 변화다.

braw.dev의 저자는 $100을 Zed $10과 OpenRouter $90으로 쪼갰다. dwyer.co.za의 저자는 harness의 구조적 결함을 공개 기록으로 남겼다. Z.AI는 GLM-5.1로 오픈 모델의 프론티어 위치를 주장했다. OpenAI는 $100 tier로 가격 앵커 경쟁에 들어왔다. 네 사건은 서로를 몰랐지만, 같은 생태계의 같은 피로감에 반응했다. 그 피로감이 언제 다시 가시화될지는 모른다. 다만 한 번 가시화된 이상, 이전과 똑같은 구독 관계로 돌아가는 것은 어려울 것이다.

당신의 $100은 지금 어디로 가고 있는가. 그리고 3개월 뒤에도 같은 곳으로 가고 있을까.


참고문헌

  1. braw.dev (2026-04-06). “Reallocating $100/Month Claude Code Spend to Zed and OpenRouter.” braw.dev — HN 284점, 193 코멘트.
  2. dwyer.co.za (2026-04). “Claude mixes up who said what, and that’s not OK.” dwyer.co.za — HN 407점, 321 코멘트.
  3. GIGAZINE (2026-04-08). “Z.AI GLM-5.1 관련 보도.” GIGAZINE
  4. OpenAI 공식 X (2026-04). “ChatGPT Pro/Plus 구독 업데이트, 신규 $100 Pro tier 도입.” OpenAI status 2042295688323875316
  5. OpenAI 공식 X (2026-04). “$200 Pro 사용자 대상 Codex 2배 프로모션 5월 31일까지 연장.” OpenAI status 2042296046009626989
  6. Gizmodo Japan (2026-04). “Anthropic Claude Mythos Preview 관련 보도.” Gizmodo JP — Anthropic의 마케팅 발표, 독립 벤치마크 검증 없음.