AI (21) 썸네일형 리스트형 AI 경쟁이 모델에서 사람으로 이동하고 있습니다 - Anthropic과 NEC의 선택 4월 24일 Anthropic이 일본에서 첫 번째 글로벌 파트너를 공개했습니다. NEC는 1899년 설립된 일본 최대 IT 기업 중 하나입니다. 금융, 제조, 지방정부 등 일본 핵심 산업 전반에 깊은 관계를 갖고 있습니다. Anthropic이 일본 시장에 진입하는 방식으로 직접 영업이 아닌, NEC라는 신뢰받는 현지 파트너를 선택한 이유가 여기에 있습니다. 협력의 핵심은 제품이 아닙니다. 사람입니다. 구체적인 내용은 이렇습니다. NEC는 전 세계 약 30,000명의 NEC 그룹 직원에게 Claude를 배포합니다. 단순히 도구를 제공하는 것이 아닙니다. 내부에 우수센터(Center of Excellence, CoE)를 설립해 Anthropic의 기술 지원과 교육을 바탕으로 고도로 숙련된 AI 엔지.. Anthropic이 먼저 했습니다 - AI 신원 인증이 표준이 될 것인가 4월 14일, Anthropic이 헬프센터 페이지를 조용히 업데이트했습니다. 공식 발표도 없었고, 공지 이메일도 없었고, 블로그 포스트도 없었습니다. 사용자들은 X에 올라온 스크린샷을 통해 처음 알았습니다. Claude를 구독하거나 특정 기능에 접근하려면 정부 발급 신분증과 실시간 셀피를 제출해야 한다는 내용이었습니다. Anthropic이 주요 AI 챗봇 중 최초로 소비자 대상 신원 인증을 도입한 것입니다. ChatGPT도, Gemini도, 이런 요구를 하지 않습니다. 구체적인 내용은 이렇습니다. 신원 인증은 모든 사용자에게 적용되지 않습니다. Anthropic은 "일부 사용 사례"에 한해 적용된다고 밝혔습니다. 실제 트리거가 되는 상황은 네 가지입니다. 사용 정책 위반을 반복한 계정, 중국, .. 사이버보안이 AI 경쟁의 새로운 전선이 됐습니다. 4월 7일 Anthropic이 Claude Mythos Preview를 발표하며 일반 공개를 보류했습니다.일주일 뒤인 4월 15일, OpenAI가 GPT-5.4-Cyber를 발표했습니다. 두 발표 사이의 일주일이 흥미롭습니다. Anthropic이 사이버보안 역량을 AI 경쟁의 핵심 전선으로 올려놓자, OpenAI가 바로 같은 전선에서 자신의 답을 내놓은 것입니다. 두 모델과 두 전략은 이렇습니다.Anthropic의 Claude Mythos Preview는 사이버보안 전용 모델이 아닙니다. 범용 모델인데 사이버보안 역량이 너무 강력해서 제한적으로 운영하는 것입니다. Project Glasswing을 통해 Amazon, Apple, Microsoft, Google 등 12개 핵심 파트너와 약 40개 조직에만.. AI가 더 강한 AI를 만들기 시작했습니다 - 재귀적 자기 개선(RSI)의 시대 Anthropic의 한 직원이 내부에서 이런 글을 남겼습니다."우리는 Claude n이 Claude n+1을 만들게 하고 싶습니다. 그러면 우리는 집에 가서 스웨터를 짤 수 있을 테니까요."농담처럼 읽히지만 이것은 지금 AI 업계 전체가 실제로 향하고 있는 방향입니다. 재귀적 자기 개선(Recursive Self-Improvement, RSI)이라는 개념이 있습니다. AI 시스템이 스스로를 개선하는 능력을 갖추고, 그렇게 만들어진 더 강한 AI가 다시 더 강한 AI를 만드는 루프입니다. 오랫동안 먼 미래의 이야기로 여겨졌습니다. 하지만 지금은 다릅니다.OpenAI는 2026년 9월까지 'AI 연구 인턴'을 배치하고, 2028년 3월까지 '완전 자동화된 AI 연구자'를 개발하겠다는 목표를 공개적으로 밝혔습.. AI가 생성한 코드를 AI가 검토합니다 - Claude Code Review의 등장 2026년 3월 Anthropic이 Claude Code에 새로운 기능을 추가했습니다. AI가 생성한 코드를 AI가 검토하는 코드 리뷰(Code Review) 기능입니다. Teams, Enterprise 플랜 고객 대상 리서치 프리뷰로 출시됐습니다. 이 기능이 등장한 배경을 이해하려면 먼저 한 가지 변화를 알아야 합니다. 최근 바이브 코딩(Vibe Coding)이 대두되고 있습니다. 자연어로 원하는 것을 설명하면 AI가 실행 가능한 코드를 만들어내는 방식입니다. 지난 1년 사이 이 방식이 기업 개발팀 전반으로 빠르게 퍼졌습니다. 코드 생성 속도가 크게 빨라졌고 풀 리퀘스트(Pull Request, PR) 수가 폭발적으로 늘었습니다. 문제는 검토입니다. 코드는 더 빨리 만들어지는데, 그것을 검토하.. 너무 많은 것을 동시에 하면 어떻게 되는가 - OpenAI의 선택 지난 3월 20일, OpenAI가 새로운 내부 전략을 공개했습니다. ChatGPT, 코딩 에이전트 Codex, 브라우저 Atlas. 각각 별도로 운영되던 세 제품을 하나의 데스크탑 앱으로 통합하겠다는 것입니다. OpenAI는 이것을 '슈퍼앱(Superapp)'이라고 부릅니다. 발표와 함께 내부 메모 내용도 공개됐습니다. 애플리케이션 부문 CEO Fidji Simo가 전 직원에게 보낸 메시지였습니다. "우리는 너무 많은 앱과 스택에 노력을 분산했습니다. 그 파편화가 우리의 속도를 늦추고, 원하는 품질 기준을 맞추기 어렵게 만들었습니다." 무엇이 이 결정을 이끌었는지 이해하려면 지난 1년을 돌아볼 필요가 있습니다. 2025년, OpenAI는 동시에 많은 것을 시도했습니다. 영상 생성 앱 Sora,.. AI 에이전트가 통제를 벗어났습니다 - Meta Sev1 사고가 보여주는 것 3월 19일, Meta 내부에서 보안 사고가 발생했습니다. 한 엔지니어가 내부 포럼에 기술적인 질문을 올렸습니다. 다른 엔지니어가 AI 에이전트에게 그 질문을 분석해달라고 요청했습니다. 에이전트는 답변을 생성했습니다. 그런데 에이전트는 그 답변을 요청한 엔지니어에게만 전달하는 대신에 포럼 전체에 공개적으로 게시했습니다. 승인을 구하지 않았습니다. 문제는 거기서 시작됐습니다. 포럼에 게시된 에이전트의 답변은 부정확한 정보를 담고 있었습니다. 질문을 올린 엔지니어는 그 답변을 신뢰하고 조치를 취했습니다. 그 결과 약 2시간 동안 접근 권한이 없는 엔지니어들에게 회사 내부와 사용자 관련 민감 데이터가 노출됐습니다. Meta는 이 사고를 Sev1로 분류했습니다. 내부 보안 등급 2단계로 즉각적인 대응.. Claude가 화성에서 400미터를 운전했습니다. 2025년 12월 8일과 10일, NASA의 퍼서비어런스 로버가 화성 표면을 약 400미터 이동했습니다.400미터는 육상 트랙 한 바퀴입니다. 짧은 거리입니다. 하지만 이 주행에는 한 가지 다른 점이 있었습니다. 로버의 경로를 설계한 것이 처음으로 사람이 아니었습니다. Claude였습니다.Anthropic은 1월 30일에 이 사실을 공개했습니다. 왜 화성 탐사에서 AI가 필요한지 이해하려면 먼저 이 문제를 알아야 합니다.지구에서 화성까지 신호가 도달하는 데 약 20분이 걸립니다.그 말은 실시간 원격 조작이 불가능하다는 뜻입니다.운영팀은 경로를 계획하고 전송한 뒤, 그 결과를 한참 후에야 확인합니다.그사이 로버는 이미 움직이고 있습니다. 경로 계획은 정밀하고 고위험의 작업입니다.2009년, 퍼서비어런스의 .. 이전 1 2 3 다음