공부할 때 특히 거슬리는 그 ‘교정 모드’. 개인 성향 문제가 아니라 제품 설계와 응답 정책의 결과로 보는 편이 맞다.
태그: AI, ChatGPT, 프롬프트, UX, 스터디, 생산성
ChatGPT가 자꾸 나를 고치려 든다면, 문제는 태도보다 기본 프롬프트다
공부할 때 특히 거슬리는 그 ‘교정 모드’. 개인 성향 문제가 아니라 제품 설계와 응답 정책의 결과로 보는 편이 맞다.
핵심은 간단하다
비슷한 불만은 꽤 자주 나온다. 사용자는 확인만 받고 싶은데, 모델은 자꾸 표현을 교정하거나 더 ‘정확한 문장’으로 바꾸려 든다. 문제는 여기서 생긴다. 질문의 핵심은 맞고 틀리고인데, 응답은 문장 첨삭으로 새어버린다. 🙂 공부할 때 특히 짜증나는 이유도 이거다. 이해를 확인하고 싶은 순간에, 대화의 주도권을 모델이 가져간다.
왜 이런 일이 생기나
이건 성격 문제가 아니라 설계 문제로 보는 편이 맞다. 대화형 AI는 기본적으로 도움이 되고, 정리하고, 오해를 줄이도록 학습된 흔적이 있다. 그래서 조금만 애매해 보여도 ‘내가 더 정확하게 바꿔줄게’ 쪽으로 반응하기 쉽다. 사용자는 확인 질문을 했는데, 모델은 교사 모드로 들어가는 셈이다. Reddit의 해당 글도 이런 피로감을 말하는 사례로 보인다.
실전에서는 어떻게 줄이나
해결은 의외로 단순하다. 처음부터 응답 형식을 강하게 고정하면 된다. 예를 들면 ‘맞는지 틀린지만 먼저 답해줘’, ‘내 문장을 다시 쓰지 마’, ‘교정 없이 개념만 확인해줘’ 같은 식이다. 나는 이런 문제를 볼 때 늘 형식 제어가 먼저라고 본다. 모델 품질을 탓하기 전에, 출력 계약을 짧게라도 박아두는 게 훨씬 효율적이다. 한 줄 프롬프트가 UX를 많이 바꾼다.
중요한 건 똑똑함보다 마찰이다
AI가 더 친절해지는 방향이 항상 더 좋은 건 아니다. 특히 학습, 검토, 빠른 확인 같은 작업에서는 과잉 설명과 과잉 교정이 곧 마찰이다. 사용자는 정답 판별을 원했는데, 모델은 표현 개선을 제공한다. 이 어긋남이 반복되면 신뢰보다 피로가 먼저 쌓인다. 결국 좋은 AI는 많이 말하는 AI가 아니라, 지금 필요한 방식으로 답하는 AI다. 이 이슈는 사소한 불만처럼 보여도, 실제로는 제품 응답 설계의 핵심을 찌른다.
