본문 바로가기

일과 생각

AI가 생각하는 과정을 보여준다는 것의 의미

OpenAI가 지난 3월 5일 GPT-5.4 Thinking을 출시하면서 한 가지 흥미로운 기능을 추가했습니다.

필요한 경우 응답을 시작하기 전에, 모델이 먼저 자신의 계획을 보여줍니다.

"이 문제를 어떻게 접근할지, 어떤 순서로 처리할지"를 먼저 펼쳐 놓고, 사용자가 확인한 뒤 실행하는 방식입니다.

중간에 방향이 잘못됐다 싶으면, 실행 도중에도 수정할 수 있습니다. 응답을 처음부터 다시 받을 필요가 없습니다.

이 기능을 사전 계획 제시(Upfront Thinking Plan)라고 부릅니다.

 

저는 이것이 단순한 UX 개선이 아니라고 생각합니다.

얼마 전 쓴 글에서 Anthropic의 인터럽트 기반 스티어링을 소개했습니다. 

AI 에이전트가 모든 것을 혼자 처리하는 대신, 특정 시점에 멈추고 사람의 판단을 기다리도록 설계하는 접근법이었습니다. 핵심은 "언제 개입할지"를 아는 것이었습니다.

GPT-5.4 Thinking의 사전 계획 제시(Upfront Thinking Plan)는 같은 흐름의 연장선입니다.

다만 방향이 반대입니다. 

에이전트가 멈추는 것이 아니라, 모델이 먼저 계획을 열어 보입니다. 

사람이 개입할 타이밍을 기다리는 것이 아니라, 사람이 개입할 수 있는 자리를 구조적으로 만들어 두는 것입니다.

 

AI를 사용하다 보면 이런 경험이 있습니다.

긴 분석 결과를 받았는데, 방향 자체가 처음부터 어긋나 있었던 경우.

수천 토큰짜리 응답을 다 읽고 나서야 "아, 이게 내가 원하던 게 아니구나"를 알게 되는 경우.

이건 모델의 능력 문제가 아닙니다. 구조의 문제입니다. 사람이 개입할 수 있는 지점이 결과 이후에만 있기 때문입니다.

사전 계획 제시(Upfront Thinking Plan)는 그 지점을 앞으로 당깁니다.

 

안전성 측면에서도 의미가 있습니다.

OpenAI는 이번 발표에서 GPT-5.4 Thinking의 Chain-of-Thought 모니터링이 유효함을 확인했다고 밝혔습니다. 

모델이 추론 과정을 숨기기 어렵다는 것을 실험에서 확인했다는 의미입니다.

생각을 보여준다는 것은, 감출 수 없다는 것이기도 합니다.

 

아직 초기 단계입니다. 

모델이 계획을 보여준다고 해서 그 계획이 항상 최선이라는 보장은 없습니다. 

사용자가 계획을 읽고 판단하려면 충분한 도메인 이해가 필요하고, 그럴듯해 보이는 계획 안에도 잘못된 전제가 숨어 있을 수 있습니다.

그래서 이 기능은 AI의 계획을 검토할 수 있는 사람일수록 더 잘 쓸 수 있는 도구입니다.

 

AI와 협업하는 방식이 달라지고 있습니다.

결과를 받고 피드백하는 방식에서, 계획을 확인하고 방향을 맞추는 방식으로. 사후 수정에서 사전 정렬로 변화하고 있습니다.

팀 안에서 이 기능을 활용하려면, 도구를 켜는 것보다 계획 단계에서 누가 어떤 기준으로 검토할지를 먼저 이야기해 보는 것이 도움이 됩니다. 

AI의 자율성이 높아질수록, 사람의 개입 지점은 자연스럽게 앞으로 이동하기 때문입니다.

생각하는 과정을 보여준다는 것은, 결국 사람이 더 일찍, 더 정확하게 함께할 수 있게 하겠다는 설계 철학입니다.