AI (17) 썸네일형 리스트형 AI가 생성한 코드를 AI가 검토합니다 - Claude Code Review의 등장 2026년 3월 Anthropic이 Claude Code에 새로운 기능을 추가했습니다. AI가 생성한 코드를 AI가 검토하는 코드 리뷰(Code Review) 기능입니다. Teams, Enterprise 플랜 고객 대상 리서치 프리뷰로 출시됐습니다. 이 기능이 등장한 배경을 이해하려면 먼저 한 가지 변화를 알아야 합니다. 최근 바이브 코딩(Vibe Coding)이 대두되고 있습니다. 자연어로 원하는 것을 설명하면 AI가 실행 가능한 코드를 만들어내는 방식입니다. 지난 1년 사이 이 방식이 기업 개발팀 전반으로 빠르게 퍼졌습니다. 코드 생성 속도가 크게 빨라졌고 풀 리퀘스트(Pull Request, PR) 수가 폭발적으로 늘었습니다. 문제는 검토입니다. 코드는 더 빨리 만들어지는데, 그것을 검토하.. 너무 많은 것을 동시에 하면 어떻게 되는가 - OpenAI의 선택 지난 3월 20일, OpenAI가 새로운 내부 전략을 공개했습니다. ChatGPT, 코딩 에이전트 Codex, 브라우저 Atlas. 각각 별도로 운영되던 세 제품을 하나의 데스크탑 앱으로 통합하겠다는 것입니다. OpenAI는 이것을 '슈퍼앱(Superapp)'이라고 부릅니다. 발표와 함께 내부 메모 내용도 공개됐습니다. 애플리케이션 부문 CEO Fidji Simo가 전 직원에게 보낸 메시지였습니다. "우리는 너무 많은 앱과 스택에 노력을 분산했습니다. 그 파편화가 우리의 속도를 늦추고, 원하는 품질 기준을 맞추기 어렵게 만들었습니다." 무엇이 이 결정을 이끌었는지 이해하려면 지난 1년을 돌아볼 필요가 있습니다. 2025년, OpenAI는 동시에 많은 것을 시도했습니다. 영상 생성 앱 Sora,.. AI 에이전트가 통제를 벗어났습니다 - Meta Sev1 사고가 보여주는 것 3월 19일, Meta 내부에서 보안 사고가 발생했습니다. 한 엔지니어가 내부 포럼에 기술적인 질문을 올렸습니다. 다른 엔지니어가 AI 에이전트에게 그 질문을 분석해달라고 요청했습니다. 에이전트는 답변을 생성했습니다. 그런데 에이전트는 그 답변을 요청한 엔지니어에게만 전달하는 대신에 포럼 전체에 공개적으로 게시했습니다. 승인을 구하지 않았습니다. 문제는 거기서 시작됐습니다. 포럼에 게시된 에이전트의 답변은 부정확한 정보를 담고 있었습니다. 질문을 올린 엔지니어는 그 답변을 신뢰하고 조치를 취했습니다. 그 결과 약 2시간 동안 접근 권한이 없는 엔지니어들에게 회사 내부와 사용자 관련 민감 데이터가 노출됐습니다. Meta는 이 사고를 Sev1로 분류했습니다. 내부 보안 등급 2단계로 즉각적인 대응.. Claude가 화성에서 400미터를 운전했습니다. 2025년 12월 8일과 10일, NASA의 퍼서비어런스 로버가 화성 표면을 약 400미터 이동했습니다.400미터는 육상 트랙 한 바퀴입니다. 짧은 거리입니다. 하지만 이 주행에는 한 가지 다른 점이 있었습니다. 로버의 경로를 설계한 것이 처음으로 사람이 아니었습니다. Claude였습니다.Anthropic은 1월 30일에 이 사실을 공개했습니다. 왜 화성 탐사에서 AI가 필요한지 이해하려면 먼저 이 문제를 알아야 합니다.지구에서 화성까지 신호가 도달하는 데 약 20분이 걸립니다.그 말은 실시간 원격 조작이 불가능하다는 뜻입니다.운영팀은 경로를 계획하고 전송한 뒤, 그 결과를 한참 후에야 확인합니다.그사이 로버는 이미 움직이고 있습니다. 경로 계획은 정밀하고 고위험의 작업입니다.2009년, 퍼서비어런스의 .. Anthropic이 AI에 대해 8만 1천 명에게 물었습니다 - 희망과 두려움의 공존 지난해 12월, Anthropic이 Claude 사용자들에게 질문을 던졌습니다. AI를 어떻게 사용하고 있는지, AI가 어떤 미래를 가능하게 해주길 바라는지, 그리고 무엇이 두려운지를요. 일주일 만에 80,508명이 응답했습니다. 159개국, 70개 언어. Anthropic은 이것이 역사상 가장 규모가 크고 다국어로 진행된 정성 연구라고 밝혔습니다. 인터뷰를 진행한 것은 사람이 아니었습니다. Anthropic이 별도로 구성한 'Anthropic Interviewer', 즉 인터뷰 전용으로 설계된 Claude였습니다. AI가 AI에 대한 인류의 생각을 직접 물어본 셈입니다. 3월 18일, 그 결과가 공개됐습니다. 가장 먼저 눈에 들어온 것은 생산성이 아니었습니다. 응답자의 19%가 직업적 탁월함을 .. AI의 안전을 말하던 회사가 가장 파괴적인 회사가 됐습니다. 2월 23일, Anthropic이 블로그 글 하나를 올렸습니다.Claude Code로 COBOL을 현대화할 수 있다는 내용이었습니다. COBOL은 1959년에 설계된 프로그래밍 언어입니다. 오래됐지만 사라지지 않았습니다. 미국 ATM 거래의 95%, 전 세계 금융·항공·정부 시스템의 핵심 인프라가 지금도 COBOL 위에서 돌아가고 있습니다. 전 세계에 남아 있는 COBOL 코드 라인 수는 약 2,200억 줄로 추산됩니다. 그 블로그 글이 공개된 날, IBM 주가는 하루 만에 13% 하락했습니다. IBM 25년 만의 최대 낙폭이었습니다. 시가총액으로 약 310억 달러가 증발했습니다. 법률 소프트웨어 주식, 디자인 주식도 같은 기간 내리막을 걸었습니다.Anthropic이 블로그 글을 하나 올렸을 뿐이지만,그.. AI 기업이 '레드라인'을 지킨다는 것의 의미 지난 2월 27일, 미국 국방부가 Anthropic에 이례적인 '공급망 위험(Supply Chain Risk)' 지정을 내렸습니다. 통상 중국 기업이나 외국 적성국에게 붙이는 이 딱지가, 미국의 AI 스타트업에게 처음으로 적용됐습니다. 국방부와 계약을 맺은 업체들은 Claude를 사용하지 않는다는 것을 인증해야 하며, 트럼프 대통령은 Truth Social을 통해 연방 기관 전체에 Anthropic 기술 사용 중단을 지시했습니다. 발단은 Anthropic이 국방부에 요청한 두 가지 조건이었습니다. 1. Claude를 미국 시민에 대한 대규모 감시에 사용하지 말 것. 2. 자율 무기 시스템에서 인간의 판단 없이 Claude가 단독으로 결정을 내리게 하지 말 것. 국방부는 이를 거부했습니다. 사유는 간.. AI가 생각하는 과정을 보여준다는 것의 의미 OpenAI가 지난 3월 5일 GPT-5.4 Thinking을 출시하면서 한 가지 흥미로운 기능을 추가했습니다. 필요한 경우 응답을 시작하기 전에, 모델이 먼저 자신의 계획을 보여줍니다."이 문제를 어떻게 접근할지, 어떤 순서로 처리할지"를 먼저 펼쳐 놓고, 사용자가 확인한 뒤 실행하는 방식입니다.중간에 방향이 잘못됐다 싶으면, 실행 도중에도 수정할 수 있습니다. 응답을 처음부터 다시 받을 필요가 없습니다.이 기능을 사전 계획 제시(Upfront Thinking Plan)라고 부릅니다. 저는 이것이 단순한 UX 개선이 아니라고 생각합니다.얼마 전 쓴 글에서 Anthropic의 인터럽트 기반 스티어링을 소개했습니다. AI 에이전트가 모든 것을 혼자 처리하는 대신, 특정 시점에 멈추고 사람의 판단을 기다리도.. 이전 1 2 3 다음