[AI 트렌드 브리핑] 2026-05-05 — 비용 폭발과 스테일 컨텍스트, 코딩 에이전트의 두 한계

오늘의 흐름 한 줄 정리

지난 며칠의 AI 뉴스는 두 정면에서 코딩 에이전트의 한계를 드러낸다. 한 축은 “비용”이다 — Uber가 1년치 AI 코딩 예산을 4개월 만에 소진했다는 보도와 Anthropic Max 20x 사용자들의 스로틀링 항의, 그리고 이에 응수하는 라우팅·멀티모델 전략이 같은 주에 등장했다. 다른 한 축은 “컨텍스트”다 — 에이전트가 매번 같은 12개 파일을 다시 읽고 직전 편집을 잊는 문제에 대해 MemTrace, Context Mode MCP, Specsmaxxing 같은 하네스 도구들이 답을 내놓고 있다. 본인은 이 두 축이 한 지점에서 만난다고 본다. 모델이 아니라 모델을 둘러싼 환경이 결과를 가르고 있다.

비용은 폭발하고, 라우팅이 답이다

Uber 엔지니어 1인당 월 $500–2,000의 AI 코딩 비용이 4개월 만에 2026년 연간 예산을 다 태웠다는 r/artificial 보도가 화제다. 같은 시기 r/ClaudeCode에는 Anthropic Max 20x의 mid-month 스로틀링과 봇 응대를 비판하는 글이 올라와 사용자 신뢰가 흔들리는 신호를 줬다. 비용 곡선이 가팔라지는 동시에 약속된 정량은 묘하게 줄어드는 셈이다.

대응 흐름은 분명하다. 모든 작업을 프론티어 모델에 맡기지 말고, 작업 종류에 따라 라우팅하라는 것이다. r/ClaudeAI에는 Claude 사용량 대부분이 분류·JSON 재포맷 같은 단순 작업이었다는 회고가 60배 비용 절감 사례로 올라왔다. r/codex의 AGENTS.md 트릭 글은 같은 패턴을 코덱스 쪽에 적용한 것이다 — rename·formatting·CSV 파싱은 작은 모델로 보내라는 처방이다.

도구 차원의 응수도 맞물린다. DeepClaude는 Claude Code의 에이전트 루프를 DeepSeek V4 Pro로 우회시키는 API 프록시로, 17배 저렴해진다고 주장한다. 오픈웨이트 Kimi K2.6이 코딩 챌린지에서 Claude·GPT-5.5·Gemini를 이겼다는 보도, 그리고 DeepSeek-TUI 같은 터미널형 코딩 에이전트의 부상까지 더하면, 비용 부담을 쥔 사용자들에게 빠르게 출구가 늘어나고 있다는 그림이 나온다.

스테일 컨텍스트, 하네스가 답이다

비용만의 문제가 아니다. r/ClaudeAI의 MemTrace 소개 글은 “당신의 Claude Code 에이전트는 늘 낡은 컨텍스트로 일하고 있다”고 단언한다. 매 세션마다 같은 12개 파일을 다시 읽고, 직전 편집을 기억하지 못한 채 같은 실수를 반복한다는 것이다. MemTrace는 rewind·replay 가능한 메모리 레이어로 응수한다.

같은 결의 응답이 Context Mode MCP다. 도구 출력을 샌드박싱해서 코딩 에이전트의 컨텍스트 윈도우를 최대 98% 절약한다고 한다. 길어지는 세션에서 토큰 한계에 부딪치는 문제를 정면으로 친다.

addyo의 장기 실행 에이전트 글은 한 단계 더 추상적이다. 며칠씩 도는 에이전트라면 세션 로그가 영속 아티팩트가 되어야 하고, 두뇌(reasoning)와 손(tool calls)이 분리되어야 하며, 평가 루프가 항상 옆에 붙어 있어야 한다는 설계 패턴 정리다. Specsmaxxing 글은 더 실용적인 처방을 내놓는다 — YAML로 스펙을 작성해서 모델이 환각하기 전에 의도를 못박으라는 것이다. browserbase/skills 컬렉션처럼 Claude Agent SDK용 스킬이 늘어나는 것도 같은 맥락이다. 모델은 그대로 두고, 그 주변의 도구·메모리·스펙·스킬을 두텁게 까는 흐름이다.

한 줄 정리

코딩 에이전트의 비용 한계와 컨텍스트 한계가 같은 주에 드러났고, 응답은 양쪽 모두 “모델 바깥”에서 나오고 있다. 본인은 한동안 이 흐름이 더 강해질 것으로 본다. 프론티어 모델 한 개에 모든 것을 맡기는 워크플로는 비용·신뢰·컨텍스트 어느 축으로 봐도 비효율이 너무 크다. 이번 주 이후 화제는 단일 모델 벤치마크보다 라우팅 전략과 하네스 도구 쪽으로 빠르게 옮겨갈 가능성이 높다.

조회수: 0

댓글 남기기