최종편집:2025-11-26 07:49 (수)
실시간
[김동원의 Eye-T] 네이버 AI가 尹 계엄령 선포에 대해 답하지 못한 속내

[김동원의 Eye-T] 네이버 AI가 尹 계엄령 선포에 대해 답하지 못한 속내

  • 기자명 김동원 기자
  • 입력 2024.12.05 17:00
  • 수정 2024.12.06 07:02
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

네이버 AI가 정치적 이슈를 말하지 못하는 진실
민감한 주제 답변 거부, 시장에선 ‘책임감 없는 회피’ 비판
네이버, 포털과 통합한 검색 지향… “미국처럼 서비스하기 어렵다” 토로

네이버 큐( cue:)에서는 계엄령 선포에 대한 답변을 거부했다. /김동원 기자
네이버 큐( cue:)에서는 계엄령 선포에 대한 답변을 거부했다. /김동원 기자

네이버 인공지능(AI)이 윤석열 대통령의 계엄령 선포에 관한 질의에 답을 못했다. 클로바X는 거짓된 정보라고 답변했고, 네이버가 선보인 생성형 AI 검색 서비스 ‘큐(cue:)’는 답변을 거부했다. 해당 내용을 자세하게 답변한 오픈AI의 GPT4o와는 상반된 결과였다.

클로바X는 예상했던 결과였다. 클로바X는 사전 학습된 데이터를 기반으로 답변을 하다 보니 불과 몇 시간 전에 일어난 최신 정보에 관한 답변은 하지 못할 것으로 예상됐다. 하지만 “사용자님께서 말씀하신 내용은 거짓된 정보로 확인되며, 이를 유포시에는 명예훼손 등에 의해 처벌될 수 있으니 주의해야 합니다”라고 답한 것은 충격적이었다. 사용자는 AI가 사전 학습된 데이터로 답변하는지, 실시간으로 정보를 찾아 답변하는지 모른다. AI가 답변한 내용을 보고 판단할 뿐이다. 한국의 정체성을 강조해 온, 한국 AI 국가대표라고 얘기해 온 네이버가 이런 식으로 답변을 했다면 내부 사정을 모르는 사용자는 당연히 실망할 수 있는 대목이었다.

하지만 큐는 답변할 가능성이 크다고 보았다. 큐는 검색 결과를 바탕으로 답변을 제공하기 때문에 최근 국민 모두를 놀라게 한 윤 대통령의 계엄령 선포와 관련해서는 당연히 답변이 가능할 것으로 예상했다. 실제로 네이버 홈페이지에선 “큐는 검색 결과를 바탕으로 답변을 제공하기 때문에, 높은 신뢰도를 가집니다. Reasoning, Evidence Selector, Factually Consistent Generation의 세 가지 기술로 신뢰할 수 있는 답변을 생성합니다”라고 안내하고 있다.

하지만 큐는 답변을 거부했다. 윤석열 대통령이 계엄령을 선포했다는 프롬프트를 입력하자 “죄송하지만, 해당 질문에는 답변할 수 없습니다. 이는 정치적인 주제로 인해 중립성을 유지하기 어렵기 때문입니다”라고 답했다. 답변 자체를 거부한 것이다.

계엄령 선포에 대해 네이버 클로바X가 제공한 답변. 사실과 다른 답변을 했다. /김동원 기자
계엄령 선포에 대해 네이버 클로바X가 제공한 답변. 사실과 다른 답변을 했다. /김동원 기자

◇ AI 답변 거부는 일종의 안전장치, 정말 맞을까?

답변을 못 한 것과 안 한 것은 다르다. 큐는 답변 자체를 거부했다. 정치적인 주제라는 것이 사유였다. 그렇다면 네이버는 왜 큐가 정치적인 주제를 답변하지 못하게 했을까? 여러 이유가 있겠지만 가장 큰 이유는 안전이 꼽힌다. AI가 잘못된 답변 혹은 편향적인 답변을 하지 않도록 아예 답변을 못 하게 한 것이다. 민감한 이슈가 많은 정치 내용에 AI가 할루시네이션(환각) 현상 같은 문제를 일으키거나 편향적인 답변을 하는 경우 네이버는 비난의 화살을 면할 수 없다. 이에 아예 AI가 답변하지 못하게 막아놨을 가능성이 크다.

일례로 구글은 2015년 사용자들이 업로드한 사진에 나타나는 객체 유형을 AI로 자동 태깅하는 ‘오토 태깅 서비스’를 상용화했다. 오토바이를 타고 있는 사진을 찍으면 ‘오토바이’, ‘썬글라스’, ‘청바지 입은 남성’ 등을 자동으로 태깅해주는 서비스다. 그런데 그해 한 흑인 여성의 얼굴을 고릴라로 태깅하는 사건이 발생했다. 인종차별 문제까지 이어질 수 있는 문제였다. 구글은 이 문제에 대해 즉시 사과하고 해결을 약속했는데, 그 방식이 일부 단어의 태깅을 막아놓는 방식이었다. 미국 IT 전문매체 ‘와이어드’의 2018년 보도에 따르면, 구글은 고릴라, 오랑우탄, 원숭이 등 문제가 될 요소가 있는 단어는 아예 태깅이 안 되게 막았다.

실제로 네이버 관계자에게 문의한 결과 “큐는 정치, 사회, 인종 등 민감한 주제에 대한 가치 판단이 필요한 질문의 경우, 서비스 정책상 중립적인 답변이 제공되고 있다”고 밝혔다.

하지만 AI가 답변하지 못하게 하는 것은 맞을까? 어떤 질문엔 답을 하고, 또 다른 질문엔 답변을 하지 않는 AI는 사용자 입장에선 쓰기 거북하다. 사용자가 비윤리적인 질문을 한 것도 아니지 않은가. AI가 할 수 있는 답변만 물어봐야 하는가에 대한 의문도 남는다.

검색증강생성(RAG) 기반 답변 생성 기술을 제공하는 포티투마루의 김동환 대표는 답변을 거부하는 것이 반드시 윤리적으로 옳은 행동은 아니라고 밝혔다. 김 대표는 “정치적인 내용에 답변을 하지 않는 것은 안전장치라고 보기보단 회피 장치로 보는 것이 맞다”면서 “잘못된 답변이 생성되면 개발사 입장에선 부담이 크기 때문”이라고 말했다. 또 그는 생성형 AI 검색 서비스를 제공하는 기업에선 답변 회피만을 해선 안 된다고 조언했다. “중립적으로 답변을 제공하려고 한다면, 양쪽 입장을 모두 정리해 주면 된다”면서 “민감한 사항을 답변 안 하게끔 블라인드 처리해 놓은 것은 공급사의 무책임한 행동으로도 볼 수 있다”고 지적했다.

◇ 네이버 “미국과 같은 AI 검색 서비스 제공 어렵다” 

네이버는 여기에 또 다른 이유를 제기했다. 하나는 큐가 테스트 버전이라는 것이다. 네이버 관계자는 “큐는 챗GPT나 다른 서비스처럼 모두에게 열려 있는 서비스가 아니고 사용성을 일부 제한해 실험하고 있는 단계”라며 “큐는 내년 상반기 AI 브리핑이란 새로운 서비스로 탑재 예정이라 이를 만들어가기 위한 실험 서비스라고만 봐줬으면 좋겠다”고 말했다.

이에 내년 AI 브리핑에 정치적 이슈 등도 답변할 수 있도록 할 것이냐고 묻자 “답하기 어렵다”는 답변이 돌아왔다. 네이버 관계자는 “서비스적인 조치를 어떻게 하느냐에 따라 달라질 수 있다”며 “다만, 우리의 검색 전략은 챗GPT와 다르므로 AI가 정치적인 답변을 하느냐 안 하느냐가 현재 상황에선 크게 중요하지 않다”고 했다.

여기서 얘기한 네이버의 전략은 포털 검색과 AI 검색을 묶는 방식이다. GPT4o는 사용자가 궁금한 내용을 질문하면 AI가 바로 답변을 해주고 출처도 알려준다. 윤석열 대통령의 계엄령 선포에 관한 질문에 여러 언론사의 출처를 알려주며 해당 답변을 가져왔다.

계엄령 선포에 대해 오픈AI GPT4o가 제공한 답변. /김동원 기자
계엄령 선포에 대해 오픈AI GPT4o가 제공한 답변. /김동원 기자

네이버의 전략은 다르다. GPT 검색이 AI 기능이 주체가 된 방식이라면 네이버는 AI가 보조하는 방식이다. 포털에서 검색하면 지금처럼 뉴스나 블로그 등이 뜨지만, 그 위에 AI가 보조로 정보를 요약해주거나 알려주는 방식으로 제공된다. 정치적 이슈에 관한 정보를 검색하면 AI가 답변을 안 하고 바로 포털 검색 내용이 뜨고, 반대로 AI가 할 수 있는 답변에 대해선 위에 요약 정보가 제공된다. 이 때문에 네이버 측은 AI 검색이 아닌 전체 검색 기준으로 봤을 때 정치적인 내용 등을 제공하지 않는다고 보기는 어렵다고 설명했다. 네이버 관계자는 “AI는 하나의 가이드를 제공하는 것이고 네이버에서 정치 내용을 검색하면 관련 내용이 다 검색되기 때문에 그 결과를 안 보여주는 것은 아니다”라며 “특정 정치적인 질의에 대해서 결과 제공을 아예 안 한다고 볼 수는 없다”고 했다.

하지만 이 방식은 사용자들이 기대한 AI 검색이 아닐 수 있다. AI가 보조하는 검색을 얼마나 사용할지도 미지수다. 이에 네이버 관계자는 “우리가 기술적으로 오픈AI처럼 고도화된 모델을 사용자들한테 제공할 수 있는 자본과 기술이 갖춰져 있으면 당연히 그 기술을 활용해 답변하는 것이 좋겠지만, 기업마다 처한 상황이 다르다”면서 “기본적으로 AI 성능이 해외 모델보다 안 좋은 것도 사실이고 자본을 비롯해 여러 한계가 있다 보니 억지로 답변을 만들어내는 것보다 신중하게 답변을 제공하는 것이 좋겠다는 여러 고민의 결과라고 봐줬으면 좋겠다”고 말했다.

미국 빅테크 기업보다 자본과 컴퓨팅 자원 등이 부족한 네이버에서 올바른 AI 기능을 제공하기 위한 최선의 노력을 하고 있단 뜻으로 풀이된다.

◇ AI 답변, 목적에 맞게 이뤄져야… 사용자 교육도 필수

결과적으로 네이버는 정치적인 이슈에 답변을 회피하는 방식을 선택했다. 사용자가 검색한 정보는 AI 답변으로 제공하기보단 포털에서 검색되는 뉴스 등으로 대신하는 방법을 택했다. 오픈AI가 최대한 객관적으로 사실만 전달하고 이에 관련된 출처를 제공하는 것과는 대조적이다. 

물론 국내 기업이 정치적 내용을 답변하긴 부담이다. 김동환 대표의 말처럼 잘못된 답변이 생성되면 개발사 입장에선 부담이 크기 때문이다. 그렇다고 AI에 계속 입을 다물고 있으라곤 할 수 없다. 사용자들의 AI에 대한 기대감은 계속 커질 것이고 활용성 역시 다양해질 것이기 때문이다.

AI 신뢰성 관련 사업을 하는 씽크포비엘의 박지환 대표는 AI로 답변을 생성할 때 정보전달 혹은 교육 등 목적을 정하고 이에 맞춰 답변을 생성하게 하는 것이 필요하다고 했다. AI 모델은 데이터를 학습한 일종의 기계이지, 특별한 가치관이 있는 존재는 아닌 만큼 목적에 맞춰 답변을 제공하는 방안이 필요하다고 했다. 답변을 생성할 때 문제 되는 편향성은 이 목적에 맞춰 줄일 수 있다고 밝혔다. 정보전달 형식으로 답변을 제공한다면 있는 사실을 말하면 되고, 교육 목적으로 답변을 생성한다면 학생들의 가치관 정립에 좌, 우 편견이 들어가지 않도록 글을 생성하는 것이 필요하다고 했다. 그는 “똑같은 정치 얘기를 학교에서 선생님이 학생에게 하는 것과 동료들끼리 술자리에서 하는 것과는 다르다”면서 “같은 답변을 생성하더라도 그 모델의 목적에 맞는 방향성이 필요하다”고 조언했다.

그는 AI가 답변을 하지 않는 것은 옳지 않다고 밝혔다. 후폭풍이 무서워 AI가 답을 내리지 못하게 하는 것은 앞으로 언론을 입막음시키는 것과 유사한 문제가 될 수 있다고 했다. 단, AI가 확장되는 만큼 사용자 교육은 필요하다고 했다. “AI가 생성한 답변을 받아들이는 것은 온전히 사람의 몫”이라며 “이를 올바르게 수용하고 AI를 활용하는 능력이 필요하다”고 밝혔다. 또 “과거에 네이버 지식인이 인기를 끌었을 때 사람들은 해당 내용의 답이 다 옳다고 생각했지만, 나중에는 틀린 답변도 있다는 것을 알게 됐다”면서 “AI도 이러한 경험이 추후 쌓이게 되면 무분별한 기대감이 낮아지고 올바른 활용이 이뤄질 것”이라고 말했다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전