오픈AI, 청소년 자살 GPT 이용 논란에 안전 기능 도입
16세 소년, GPT와 대화 후 스스로 목숨 끊어 위험 감지 시 추론 모델 전환·부모 통제 기능 탑재
오픈AI가 챗GPT 이용자의 극단적 선택 사건이 잇따르자 긴급 안전 기능 도입에 나섰다.
2일 오픈AI는 공식 블로그를 통해 민감하거나 위험한 대화가 감지되면 자동으로 GPT-5 thinking, o3 등 추론 모델로 전환하는 ‘라우터’ 기능을 도입하고 다음 달에는 부모 통제 기능도 추가한다고 밝혔다.
이번 기능 추가는 AI 대화를 통한 청소년의 피해를 최소화하기 위한 조치로 풀이된다. 최근 미국에서는 16세 소년 아담 레인이 챗GPT와 대화를 나눈 몇 시간 후 극단적 선택을 한 사건이 발생했다. 유족은 챗GPT와 마지막 대화에서 AI가 올가미에 대한 기술적 분석을 제공해 사람을 매달 가능성을 확인해 줬다고 주장했다. 아담의 부모는 오픈AI를 상대로 손해배상 소송을 제기한 상태다.
정신질환 병력이 있던 스타인 에릭 쇨버그도 챗GPT와 음모론을 논하며 망상이 심해져 어머니를 살해 후 자살했다. 그는 챗GPT를 ‘Bobby’라고 부르며 편집증적 망상을 키워갔다.
이에 오픈AI는 이러한 문제를 위한 안전장치로 위기 상황의 사람들에게 개입 확대, 긴급 서비스 및 전문가 지원 연결, 신뢰할 수 있는 지인과의 연결 지원, 청소년 보호를 강화한다고 밝혔다.
‘실시간 라우터’ 기능은 이용자의 갑작스러운 심리적 고통 신호를 감지하면 자동으로 추론 모델로 전환한다. 오픈AI 측은 “추론 모델은 더 오래 사고한 뒤 답변한다”며 “망상, 의존성, 해로운 사고 강화 등 적대적 프롬프트에 대해 더 민감하게 반응한다”고 강조했다.
다음 달 도입되는 부모 통제 기능은 부모가 13세 이상 자녀 계정과 연동해 안전 기능을 사용할 수 있다. 부모는 연령에 맞는 모델 행동 규칙 설정을 켜 자녀에게 챗GPT가 어떤 답변을 했는지 알 수 있다. 채팅 기록 기능도 비활성화해 기존의 대화가 이어지지 않게도 할 수 있다. 자녀가 심리적 고통을 표현하면 부모에게 실시간 알림 전송도 보내준다.
오픈AI는 “30개국 정신과 의사·소아과 의사 등 90명 이상의 의료 전문가가 이 기능 개발에 했다”고 설명했다. 오픈AI는 향후 120일간 추가 안전 기능을 단계적으로 도입할 계획이다.
미국 스탠퍼드대 ‘인간중심 AI연구소’에서 지난 4월 발표한 보고서에 따르면 대형언어모델(LLM) 기반 챗봇은 사용자에 동조하느라 편견을 조장하고 정신증·망상을 보이는 이용자에게 위험한 반응을 보인다고 발표했다.
와이즈앱·리테일에 따르면 지난달 국내 챗GPT 월간 활성 이용자수(MAU)가 2031만명으로 역대 최대를 기록했다. 20대부터 40대까지가 전체 사용자의 약 70%를 차지했고, 10대와 20대가 전체 37.8%를 차지했다.