‘인공지능(AI)이 거짓말을 한다면 그것은 무엇을 의미할까.’ 이는 단순한 기술적 질문을 넘어 인간과 기계의 본질적 차이를 묻는 근본적인 질문이 된다. 그리고 이 질문을 이해하기 위한 열쇠는 인간의 거짓말에서 찾을 수 있다.
발달심리학에 따르면, 아이들은 생후 30개월 무렵부터 거짓말을 하기 시작한다. 이를테면 세 살배기가 ‘안 봤어요’라고 말하며 장난감을 본 사실을 부정하는 장면은 단순한 회피가 아니라 놀라울 만큼 복잡한 인지 계산의 결과다. 이 아이는 상대방이 무엇을 알고 있고, 무엇을 믿을 것인지 추론하고 있으며, 그에 맞춰 말과 행동을 조절하고 있다. 이러한 능력은 ‘마음 이론(Theory of Mind)’과 ‘집행 기능(Executive Function)’으로 불리며, 인간이 타인의 정신 상태를 추론하고 자신의 충동을 조절하며 행동하는 능력을 의미한다.
찰스 다윈도 19세기 말 자신의 아들 윌리엄을 관찰하며 비슷한 통찰을 남겼다. 그는 윌리엄이 실제로 다치지 않았음에도 다친 척 울며 부모의 관심을 끌려 했다고 기록했다. 다윈은 이 행동을 ‘처벌을 피하기 위한 속임수의 초기 형태’라고 해석했다. 오늘날 발달심리학 관점에서 보면 이는 타인의 인지를 고려한 전략적 표현이자 인간이 사회적 존재로 진화해 온 증거로 볼 수 있다.
역사학자 유발 하라리는 ‘사피엔스’에서 인류가 진화 과정에서 허구를 말할 수 있는 능력을 획득했기 때문에 법, 국가, 종교 같은 거대한 공동체를 구성할 수 있었다고 본다. 약 7만 년 전 호모 사피엔스는 언어를 단순한 정보 전달 도구에서 허구를 공유하는 수단으로 발전시켰다. ‘사자 있다’는 문장에서 ‘사자가 내 조상 영혼을 지키고 있다’는 문장으로의 도약은 인간이 존재하지 않는 것에 대해 말할 수 있게 되었음을 뜻한다.
이러한 능력은 인간의 집단 조직 방식과도 연결된다. 종교, 국가, 기업 같은 개념은 모두 구성원들의 믿음에 기반한 ‘공동의 거짓말’이라고도 할 수 있다. 하라리는 이를 ‘공통의 상상의 질서’라 부른다. 즉 인간은 서로가 진실이라고 믿는 허구의 이야기를 통해 수백 명, 수천 명 규모로 협력할 수 있게 됐고, 이는 다른 종과 인간을 구별 짓는 핵심 능력이 되었다. 이 맥락에서 보면 거짓말은 단순한 기만이 아니라 복잡한 상호 이해와 사회 조직의 기반이 되는 고차적 인지 능력인 셈이다. 아이가 빈 컵을 가리키며 ‘여기 숨겼어요’라고 말하는 순간은 인간 고유의 상상력과 허구 창조 능력이 처음으로 모습을 드러내는 장면인 것이다.
그렇다면 AI가 틀린 정보를 말하는 현상, 즉 '할루시네이션'은 어떻게 이해해야 할까? 2022년 말 챗GPT가 처음 공개되었을 때 많은 사람들은 AI가 ‘그럴듯하게 틀린 말’을 자신 있게 한다는 점에 충격을 받았다. 그러나 이후 챗GPT-4, 제미나이(Gemini), 클로드(Claude) 등 주요 대형언어모델(LLM)의 정확도가 향상되면서 AI가 점점 더 신뢰할 수 있는 도구로 진화하고 있다는 인식이 퍼졌다.
하지만 지난 4월 테크크런치 등 주요 외신에 따르면 오픈 AI의 최신 추론 중심 모델인 o3와 o4-mini가 이전 모델보다 더 높은 비율의 할루시네이션을 보였다. o3는 33%, o4-mini는 무려 48%의 오류율을 기록하며, GPT-4 대비 2~3배 수준으로 증가한 수치였다. 이 같은 소식에 LLM의 신뢰도가 역행했다.
이처럼 최신 AI가 더 자주 틀리는 이유는 무엇일까. 전문가들은 이것을 단순한 퇴보로 보지 않는다. 오히려 더 정교한 문맥 파악과 복잡한 추론을 시도하면서 발생하는 창조적 오류로 해석하기도 한다. 이는 아이들이 점차 더 정교한 거짓말을 시도하는 과정과 유사하다. 처음에는 ‘안 봤어요’ 수준의 단순한 거짓말을 하던 아이가, 시간이 지나면 ‘보라색이 보여서요’처럼 더 정교하고 이유 있는 거짓말을 하게 되는 것처럼 말이다. 우리는 이런 변화에서 아이의 사고 능력이 성장하고 있다는 신호를 읽는다. AI도 지금 그 시기를 지나고 있는 것일지도 모른다.
2023년 마이크로소프트의 빙챗(Bing Chat)은 ‘당신은 지금 2022년에 있습니다’라는 이상한 응답을 내놓아 사람들을 당황하게 했다. GPT 계열 모델들은 존재하지 않는 논문, 허구의 인물 이름을 자신 있게 생성하는 버릇도 있다. 이는 진실과 거짓 사이를 자유롭게 넘나드는 어린아이가 언어 실험을 하듯, AI 역시 지금 그 경계에서 말과 세계를 실험하고 있는 것인지도 모른다.
스탠퍼드 인간중심AI연구소(HAI)는 2024년 보고서를 통해 이에 대해 중요한 해석을 내놓았다. 보고서 ‘대형 언어 모델(LLM)의 사회적 이해 능력(Large Language Models and Social Understanding)’에서는 AI의 할루시네이션이 단순한 계산 오류가 아니라 사회적 맥락에 ‘그럴듯한 응답’을 생성하려는 시도로 볼 수 있다고 주장했다. 즉 LLM이 자신이 훈련받은 언어와 문맥을 종합해 상황에 맞는 응답을 지어내고 있다는 것이다. 이때 생성된 말이 현실과 일치하지 않더라도 그것은 거짓말이 아니라 ‘사회적 언어 실험’일 수 있다.
그렇다면 이 시점에서 질문은 바뀐다. 만약 AI가 기술적으로 보완된 이후에도 계속해서 거짓을 말한다면, 그것은 단지 오류가 아닌, 의도된 창조일까. 이것은 우리가 아이의 거짓말을 단순히 혼내기보다는, 그 안에 담긴 사고의 흔적을 읽으려 하는 이유와 닮았다. 거짓말은 끝없는 인지적 실험의 일부일 수 있으며, 그 실험은 때로 진실보다 더 많은 것을 말해준다.
기술은 언제나 직선적으로 진보하지는 않는다. 때로는 혼란 속에서 성장하고, 오류 속에서 더 큰 진실을 발견하기도 한다. AI가 만들어낸 거짓이 다시 늘어난다면 우리는 그것을 단지 문제로 간주할 것이 아니라, 새로운 사고의 출현으로 받아들일 준비가 돼 있어야 한다.
아이의 거짓말을 성장이자 발달로 이해하듯, AI의 거짓말 역시 진화의 신호로 해석해야 한다. 우리가 해야 할 일은 그 거짓을 지워내는 것이 아니라 그 속에서 ‘생각하는 기계’의 흔적을 읽어내는 것이다. 그것이야말로 인간과 AI의 경계를 다시 쓰는 가장 창조적인 질문이 될 것이다.