본문 바로가기

일과 생각

LLM마다 답변이 다른 이유는 사전학습과 사후학습에 있습니다.

Claude, GPT, Gemini를 함께 쓰다 보면 같은 질문에도 답변의 결이 다릅니다. 처음엔 단순히 모델 성능 차이라고 생각할 수 있습니다.

하지만 모델을 사용할수록 그 차이가 어디서 오는지 알 수 있습니다. 사전학습과 사후학습의 차이입니다.

 

사전학습(Pre-training)은 모델이 방대한 데이터를 통해 언어와 지식을 학습하는 단계입니다.

사후학습(Post-training)은 그 위에서 모델이 어떻게 대답해야 하는지, 어떤 방식으로 사람과 상호작용해야 하는지를 조정하는 단계입니다.

같은 규모의 사전학습을 거쳤더라도 사후학습의 방향에 따라 모델의 성격과 응답 방식이 달라집니다.

 

GPT는 범용성이 강합니다. 다양한 태스크에 고르게 대응하도록 사후학습이 설계된 느낌입니다.

특정 영역에서 두드러지기보다 어디서든 무난하게 작동합니다.

다만 Thinking 모드 없이 쓰면 아쉬운 구간이 생깁니다. 추론 모드를 켰을 때 비로소 사전학습의 규모가 실력으로 드러나는 구조입니다.

 

Gemini는 Google의 데이터 인프라가 사전학습에 반영된 느낌이 납니다.

실시간 정보 연결, 멀티모달 처리, 긴 컨텍스트 처리에서 체감 성능이 높습니다.

다만 응답의 결이 GPT나 Claude에 비해 다소 건조하게 느껴지는 경우가 있습니다. 사후학습에서 정확성과 효율에 무게를 둔 방향으로 보입니다.

 

Claude는 세 모델 중 사후학습의 방향이 가장 명확하게 느껴집니다. Anthropic은 Constitutional AI 방식으로 모델이 스스로 판단 기준을 갖도록 훈련합니다. 

그 결과가 응답에서 드러납니다. 단순히 답을 내놓는 것이 아니라 맥락을 파악하고, 판단 근거를 함께 제시하는 방식입니다.

구조화된 사고와 복잡한 설계 판단에서 특히 체감 차이가 큽니다. 

 

세 모델을 함께 쓰면서 자연스럽게 역할이 나뉘었습니다.

복잡한 설계 판단이나 기술적 추론이 필요한 작업에는 Claude Opus 4.6과 GPT-5.2 Thinking을 비슷한 비중으로 씁니다. 같은 문제를 두 모델에 던졌을 때 판단 근거와 접근 방식이 달라, 비교하면서 결정하는 경우도 많습니다.

실시간 정보나 멀티모달 처리가 필요한 작업은 Gemini를 씁니다. 범용적인 초안 작성이나 아이디어 탐색에는 GPT-5.2 Auto 모드를 씁니다.

 

모델마다 사후학습의 방향이 다르고, 그 방향이 강점과 약점을 만듭니다. 어떤 모델이 낫냐는 질문보다는 어떤 작업에 어떤 모델이 맞냐는 질문이 더 유용합니다.

 

사전학습은 모델이 무엇을 아는지를 결정하고, 사후학습은 모델이 어떻게 대답하는지를 결정합니다.

같은 질문에 세 모델의 답이 다른 것은 성능 차이가 아니라 방향의 차이입니다.

그 차이를 이해하고 쓰는 것이 LLM을 제대로 활용하기 위해 중요한 포인트입니다.

반응형