2026년 3월 Anthropic이 Claude Code에 새로운 기능을 추가했습니다.
AI가 생성한 코드를 AI가 검토하는 코드 리뷰(Code Review) 기능입니다.
Teams, Enterprise 플랜 고객 대상 리서치 프리뷰로 출시됐습니다.
이 기능이 등장한 배경을 이해하려면 먼저 한 가지 변화를 알아야 합니다.
최근 바이브 코딩(Vibe Coding)이 대두되고 있습니다.
자연어로 원하는 것을 설명하면 AI가 실행 가능한 코드를 만들어내는 방식입니다.
지난 1년 사이 이 방식이 기업 개발팀 전반으로 빠르게 퍼졌습니다.
코드 생성 속도가 크게 빨라졌고 풀 리퀘스트(Pull Request, PR) 수가 폭발적으로 늘었습니다.
문제는 검토입니다. 코드는 더 빨리 만들어지는데, 그것을 검토하는 사람의 속도는 그대로입니다.
Anthropic의 제품 총괄 Cat Wu는 TechCrunch에 이렇게 말했습니다.
"엔터프라이즈 리더들이 계속 묻는 질문이 하나 있습니다.
Claude Code가 PR을 쏟아내는 지금 어떻게 효율적으로 검토할 수 있는가."
Code Review는 그 질문에 대한 답입니다.
구조가 흥미롭습니다. 단일 AI가 코드를 읽는 것이 아닙니다.
여러 에이전트가 병렬로 작동합니다.
보안, 로직, 성능을 각각 전담하는 에이전트들이 독립적으로 분석한 뒤
서로의 결과를 교차 검증해 오탐을 걸러냅니다.
최종적으로 중요도 순으로 정렬된 이슈만 개발자에게 전달됩니다.
Anthropic이 내부 수천 건의 PR을 기반으로 공개한 수치는 이렇습니다.
1,000줄 이상의 대형 PR에서 84%에 이슈가 발견됐고, 건당 평균 7.5개의 문제가 식별됐습니다.
오탐률은 1% 미만이었습니다. 검토 한 건당 평균 비용은 15~25달러, 소요 시간은 약 20분입니다.
한 가지 중요한 점은 자율 병합은 없다는 것입니다.
Code Review는 이슈를 찾아 제안하지만, 코드를 직접 병합하지 않습니다.
최종 승인은 여전히 사람의 몫입니다.
저는 이 기능에서 한 가지 구조적 아이러니가 보입니다.
AI가 코드를 만드는 속도를 따라잡기 위해, AI가 코드를 검토합니다.
바이브 코딩이 만들어낸 문제를 바이브 코딩의 도구가 해결하는 셈입니다.
이것은 하네스 엔지니어링 글에서 이야기한 흐름의 연장선이기도 합니다.
에이전트가 더 많은 코드를 만들수록 그 코드가 올바른지를 판단하는 피드백 루프가 더 중요해집니다.
Code Review는 그 루프를 자동화하려는 시도입니다.
다만 한계도 분명합니다. 비용이 높고 현재는 대형 엔터프라이즈 고객 중심입니다.
Uber, Salesforce, Accenture처럼 이미 Claude Code를 대규모로 사용하는 팀이 주 대상입니다.
소규모 팀이나 개인 개발자에게 검토 한 건당 15~25달러는 부담스러울 수 있습니다.
저는 이 기능이 코드 품질에 대한 질문 방식을 바꾼다고 생각합니다.
과거에는 "이 코드에 문제가 있는가"를 사람이 직접 물었습니다.
이제 그 질문을 에이전트에게 먼저 맡기고,
사람은 에이전트가 찾아낸 것 중 무엇이 정말 중요한지를 판단합니다.
검토의 역할이 발견에서 판단으로 이동합니다.
에이전트가 더 많은 일을 할수록 사람이 해야 할 일의 성격도 달라집니다.
'일과 생각' 카테고리의 다른 글
| 너무 많은 것을 동시에 하면 어떻게 되는가 - OpenAI의 선택 (0) | 2026.03.24 |
|---|---|
| AI 에이전트가 통제를 벗어났습니다 - Meta Sev1 사고가 보여주는 것 (0) | 2026.03.23 |
| Claude가 화성에서 400미터를 운전했습니다. (0) | 2026.03.22 |
| Anthropic이 AI에 대해 8만 1천 명에게 물었습니다 - 희망과 두려움의 공존 (0) | 2026.03.20 |
| 에이전트가 강력해질수록 공격 표면도 커집니다 - 프롬프트 인젝션에 대하여 (0) | 2026.03.19 |