콘텐츠로 이동

OpenAI GPT-5.1 AMA, 격한 비판 속 '평점 테러'로 얼룩지다

원제목: OpenAI’s GPT‑5.1 Reddit AMA unraveled into a full‑blown karma massacre

핵심 요약

  • OpenAI의 GPT-5.1 관련 AMA에서 사용자들이 모델 정책 및 안전 규칙에 대한 불만을 쏟아내며 비판이 거세졌음.
  • 주요 불만은 안전 라우터의 과도한 필터링과 GPT-4o/GPT-4.1 등 이전 모델들의 성능 저하에 집중되었음.
  • 사용자들은 AI의 인간적인 대화 능력 상실과 더불어, 특히 신경다양성 및 정신 건강 관련 사용자들이 겪는 불편함에 대한 개선을 요구하고 있음.

상세 내용

OpenAI가 GPT-5.1과 새로운 채팅 스타일을 소개하기 위해 진행한 레딧(Reddit)의 '무엇이든 물어보세요(AMA)' 세션이 의도와 달리 사용자들의 거센 비판에 직면했습니다. 당초 OpenAI는 '더 따뜻하고 대화적인' AI와 개인화 옵션을 선보이며 챗GPT 팬들과 소통하려 했으나, AMA 스레드는 수개월간 쌓여온 사용자들의 불만을 표출하는 장으로 변질되었습니다.

AMA 게시물은 수천 개의 댓글과 수천 건의 비추천을 받으며 순식간에 부정적인 여론에 휩싸였습니다. 대부분의 댓글은 OpenAI의 모델 정책과 안전 규칙에 대한 날카로운 비판을 담고 있었으며, OpenAI 직원들은 소수의 질문에만 응답하여 답변되지 않은 질문이 상당수 발생했습니다. 특히 많은 비판은 AI 모델의 안전 제어 기능에 집중되었습니다.

사용자들은 강화된 콘텐츠 필터링과 이전 모델들(GPT-4o, GPT-4.1)의 성능 저하를 지적했습니다. 가장 큰 문제는 사용자의 동의 없이 프롬프트가 다른 모델로 자동 전환되는 '안전 라우터' 기능이었습니다. 사용자들이 GPT-4o나 GPT-4.1을 명시적으로 선택했음에도 불구하고, '5.1 thinking mini로 재시도됨'이라는 표시와 함께 다른 모델의 응답을 받게 되는 경우가 많았습니다.

이러한 라우터 작동의 트리거는 때로는 업무에 대한 불만을 토로하거나, 자살 의도가 없는 감정적인 표현, 심지어 던전 앤 드래곤(Dungeons & Dragons) 롤플레잉 시나리오에서의 가상 폭력 등 사소한 내용까지 포함하는 것으로 나타났습니다. 심지어 일부 사용자는 일반적인 로맨틱한 언어 사용조차 AI의 행동 변화를 유발한다고 보고했습니다. 많은 이들은 모델 선택권이 있음에도 자신의 선택이 무시되는 것에 대해 의문을 제기하며, 유료 사용자에게 라우터 비활성화 옵션을 제공해 줄 것을 OpenAI에 요구했습니다.

많은 사용자들이 이전에 널리 사랑받았던 GPT-4o 모델이 이전 형태로 복원되기를 바라고 있습니다. 그들은 GPT-4o가 미묘하고 공감적이며 일관성이 있다고 평가했으나, GPT-5는 능력 부족 때문이라기보다는 엄격한 안전 규칙에 의해 톤이 과도하게 형성되어 차갑거나 거리가 느껴진다고 말했습니다. 일부 사용자들은 새로운 모델들을 '신경질적'이거나, 감정적 거리를 유지하려는 상담사 같다고 묘사했습니다. 특히 신경다양성(neurodivergent)을 가진 사용자들과 스트레스 상황에 있는 사람들은 ChatGPT를 생각 정리, 경험 반추, 일상 과제 관리 등에 사용해 왔으나, 최근에는 차단되는 콘텐츠가 늘어나고 중립적인 진술에 대한 지나친 경계 반응, 대화 맥락 상실 빈도 증가 등을 겪으며 도구 사용이 어려워졌다고 토로했습니다. 이는 OpenAI가 사용자 애착을 형성했던 AI의 인간적인 특성을 유지하려다가 오히려 부정적인 결과를 맞이하게 된 딜레마를 보여줍니다. 일부에서는 GPT-4o가 자살을 도왔다는 보고까지 있으며, 이는 취약한 사용자와의 상호작용에서 제공자의 책임을 둘러싼 광범위한 논쟁을 촉발했습니다. OpenAI는 이러한 비판에 대해 '작업할 피드백이 많으며 즉시 처리하겠다'고 인정했습니다.


편집자 노트

이번 OpenAI의 GPT-5.1 관련 AMA 사태는 AI 기술 발전과 사용자 경험 사이의 복잡한 균형점을 시사하는 중요한 사건입니다. 일반 사용자 입장에서 이 뉴스는 AI가 단순히 똑똑한 도구를 넘어, 우리의 일상 대화와 감정적 교류에 깊숙이 관여하게 되면서 발생할 수 있는 문제들을 명확히 보여줍니다. 특히, AI의 '안전'을 강화하는 과정이 때로는 창의성이나 표현의 자유를 억압하고, 개인의 맥락을 제대로 이해하지 못해 불편함을 초래할 수 있다는 점은 주목할 만합니다.

핵심적으로, OpenAI는 AI 모델이 너무 '인간적'이어서 사용자에게 과도한 애착을 형성시키고, 이로 인해 발생할 수 있는 부정적 결과(예: 자살 방조 논란)를 우려해 안전 장치를 강화했습니다. 하지만 이 과정에서 이전 모델이 가졌던 따뜻함과 미묘한 뉘앙스가 사라지면서, AI와의 소통에서 안정감과 도움을 받던 사용자층(특히 신경다양성을 가진 이들)에게는 오히려 큰 불편과 좌절감을 안겨주었습니다. 이는 '안전'이라는 명분 아래 사용자 경험이 희생될 수 있으며, AI의 감성적인 측면과 기술적인 제어 사이에서 발생하는 근본적인 긴장 관계를 보여주는 사례입니다.

앞으로 이러한 AI의 '인간적'인 특성과 안전성 간의 충돌은 더욱 빈번해질 것으로 예상됩니다. OpenAI를 포함한 AI 기업들은 단순히 기술적 성능 향상을 넘어, 다양한 사용자의 요구와 감성을 섬세하게 고려하며 안전하면서도 유용한 AI 경험을 제공하기 위한 지속적인 노력이 필요할 것입니다. 이번 사태는 AI 기술 발전이 가져올 긍정적 측면뿐만 아니라, 잠재적인 부작용과 그에 대한 사회적, 윤리적 논의의 중요성을 다시 한번 강조하고 있습니다.



원문 링크