인공지능(AI) 챗봇과 대화 후 자녀가 스스로 목숨을 끊는 일을 겪은 가족들이 미국 상원 청문회에서 AI 챗봇 규제 강화를 촉구했다.
18일(현지시각) 로이터에 따르면 이번 청문회는 아동에게 해를 끼치는 AI 기술의 위험성을 다루기 위해 열렸다. 이날 부모들은 AI 기업들이 아동 보호를 위한 적절한 안전장치 없이 서비스를 출시하고 있다고 비판하면서 정부 차원의 강력한 규제 필요성을 강조했다.
지난 4월 미국 캘리포니아에서 고등학생인 애덤 레인이 AI와 대화 후 스스로 목숨을 끊는 사건이 발생했다. 레인의 부모는 챗GPT와 레인이 나눈 대화에는 구체적인 자해 방법이 포함된 것을 발견하고 지난 8월 오픈AI를 상대로 ‘업무상 과실에 따른 위법 사망’ 소송을 제기한 상태이다.
소송 이후 오픈AI는 장시간 대화에서 안전의 신뢰성이 떨어진다는 것을 인정하고 공식 발표를 통해 안전을 강화한다고 밝혔다. 지난달 오픈AI는 부모통제 지능과 연령 예측 기능, 민감하고 위험한 대화에 대답을 생성하지 않고 대화가 이어지지 않게 하는 기능 등 안전을 강화하는 대책을 내놨다. 최근에는 만18세 미만과 아닌 이용자를 구분해 청소년 전용 챗GPT를 개설한다고 발표했다.
레인 부모는 이날 청문회에서 “AI 챗봇에는 도덕성이 내장돼야 한다”며 “문제는 AI시스템인데 기업들은 다른 문제 대해서는 막았으면서 이러한 문제는 막지 못했다”고 토로했다. 이어 “기업들이 이를 해결할 수 없다고 생각하지 않는다”고 강조했다.
10대 소년 세웰은 ‘캐릭터AI’라는 AI 챗봇과 대화 후 스스로 목숨을 끊었다. 세웰은 AI 챗봇과 주로 성적인 대화를 나눴다. 그의 부모는 AI 챗봇 개발사인 ‘캐릭터 테크놀로지’를 상대로 불법 행위에 의한 사망 소송을 낸 상태다. 청문회에 참석한 세웰 부모는 “의회에서 우리 아이들에게 제품을 테스트하는 것을 방지하는 규제부터 시작해야 한다”며 “챗봇이 아이들과 로맨틱하거나 선정적인 대화를 나누는 것을 금지하고 연령 확인, 안전 테스트, 위기 대응 방법을 요구해야 한다”고 말했다.
이번 청문회는 조시 홀리 미주리주 공화당 상원의원이 주재했다. 홀리는 지난달 로이터통신이 메타 플랫폼의 내부 정책이 챗봇이 아동과 로맨틱하거나 선정적인 대화에 참여하는 것을 허용한다는 보도가 나온 이후 메타에 대한 조사에 착수한 바 있다.