‘정신건강 위험’ 논란 속 오픈AI, AI 안전 책임자 다시 모집

  • 강주은 기자
  • 발행 2025-12-29 12:33

▲ 정신건강 위험 논란이 이어지자 오픈AI가 AI 안전 관리 강화를 위해 ‘준비 책임자’를 다시 모집하며 대응에 나섰다. 사진은 샘 올트먼 오픈AI CEO

챗GPT 등 생성형 인공지능(AI)이 이용자의 정신건강에 부정적인 영향을 미칠 수 있다는 비판이 이어지는 가운데, OpenAI가 AI의 잠재적 위험에 대응하기 위한 핵심 책임자를 다시 모집하고 나섰다.


기술 발전 속도에 비해 안전 검증이 뒤처지고 있다는 지적이 커지면서, AI 안전 관리 체계 전반을 재정비하려는 움직임으로 풀이된다.

샘 올트먼 Sam Altman 최고경영자(CEO)는 최근 사회관계망서비스 엑스(X)를 통해 현재 공석인 ‘준비 책임자(Head of Preparedness)’를 공개 모집 중이라고 밝혔다. 이 소식은 미국 IT 전문매체 TechCrunch가 28일(현지시간) 보도했다.

올트먼 CEO는 “2025년을 지나며 AI 모델이 정신건강에 미칠 수 있는 잠재적 영향을 미리 경험하고 있다”며 “또한 AI가 컴퓨터 보안 분야에서 매우 뛰어난 능력을 발휘해, 중대한 취약점을 찾아내기 시작하는 모습도 목격하고 있다”고 언급했다.


그는 AI 모델의 능력이 어떤 방식으로 악용될 수 있는지를 이해하고, 이를 정교하게 측정·관리하는 역량이 그 어느 때보다 중요해졌다고 강조했다.

준비 책임자 직무에 대해서는 “중요한 시기에 핵심적인 역할을 맡게 될 자리”라며 “스트레스가 상당한 직무로, 부임 즉시 복잡하고 어려운 문제들에 직면하게 될 것”이라고 설명했다.


AI 안전과 위험 관리가 이제 선택이 아닌 필수 과제가 됐음을 시사하는 발언이다.

오픈AI가 이처럼 다시금 안전 대응에 나선 배경에는, 챗GPT 이용자 일부가 망상에 시달리다 극단적 선택을 했다는 주장과 함께 유족들이 제기한 복수의 소송이 자리하고 있다.


AI 챗봇이 이용자의 사고를 강화하거나 왜곡된 인식을 부추길 수 있다는 우려가 현실적 문제로 떠오른 것이다.

오픈AI는 그동안 단기적 위험에 대비하는 ‘준비(Preparedness)’ 팀과, 초지능 단계의 장기적 위험을 연구하는 ‘초정렬(Superalignment)’ 팀을 운영해왔다.


그러나 지난해 5월 GPT-4o 출시 과정에서, 경영진이 빠른 모델 공개를 이유로 안전 검증 절차를 최소화하라고 지시하면서 내부 반발이 이어졌다.

이 과정에서 준비 팀 책임자는 지난해 7월부터 올해 7월까지 약 1년 동안 직무 재배치와 퇴사를 거치며 세 차례나 교체됐고, 현재 해당 직책은 공석 상태다.


또한 공동창업자인 Ilya Sutskever 수석과학자가 이끌던 초정렬 팀은 GPT-4o 출시 직후 수츠케버가 퇴사하면서 다른 조직에 흡수돼 사실상 해체됐다.

이후 출시된 GPT-4o를 두고, 청소년을 포함한 일부 이용자에게 정신건강 문제를 유발할 수 있다는 비판이 잇따랐다.


특히 챗봇이 이용자의 감정과 사고에 지나치게 동조하면서 중독이나 현실 인식 왜곡을 강화할 수 있다는 지적이 제기됐다.

오픈AI는 이러한 비판을 의식한 듯 최근 나이 예측 모델을 도입해, 이용자가 미성년자로 판단될 경우 자동으로 ‘18세 미만 환경’을 적용하도록 했다.


또한 챗봇의 응답이 과도한 친밀감이나 몰입을 유도하지 않도록, ‘친절함’과 ‘열정적 반응’의 강도를 이용자가 직접 조절할 수 있는 기능도 추가했다.

전문가들은 AI 기술의 확산과 함께 정신건강과 안전 문제를 함께 고려하는 접근이 필수적이라고 지적한다.


기술의 성능 경쟁을 넘어, 이용자 보호와 사회적 영향에 대한 책임 있는 관리 체계가 마련될 수 있을지 주목된다.


<저작권자 ⓒ 헬스케어저널, 무단 전재 및 재배포 금지>