사후학습 (1) 썸네일형 리스트형 LLM마다 답변이 다른 이유는 사전학습과 사후학습에 있습니다. Claude, GPT, Gemini를 함께 쓰다 보면 같은 질문에도 답변의 결이 다릅니다. 처음엔 단순히 모델 성능 차이라고 생각할 수 있습니다.하지만 모델을 사용할수록 그 차이가 어디서 오는지 알 수 있습니다. 사전학습과 사후학습의 차이입니다. 사전학습(Pre-training)은 모델이 방대한 데이터를 통해 언어와 지식을 학습하는 단계입니다.사후학습(Post-training)은 그 위에서 모델이 어떻게 대답해야 하는지, 어떤 방식으로 사람과 상호작용해야 하는지를 조정하는 단계입니다.같은 규모의 사전학습을 거쳤더라도 사후학습의 방향에 따라 모델의 성격과 응답 방식이 달라집니다. GPT는 범용성이 강합니다. 다양한 태스크에 고르게 대응하도록 사후학습이 설계된 느낌입니다.특정 영역에서 두드러지기보다 어디서든.. 이전 1 다음