“AI 미래는 규모가 아닌 구조에서 온다”
김명호 재능대 교수 25일 기술발표회서 발표 LLM 환각 막을 SCL 패러다임 제시
“그동안 대형언어모델(LLM)은 더 크고 복잡한 모델을 만드는 데 집중해왔지만 신뢰성 문제는 여전합니다. 앞으로의 발전은 단순한 규모 확장이 아니라 구조적 설계를 통해 신뢰성을 확보하는 데 달려 있습니다.”
김명호 재능대학교 교수의 말이다. 그는 25일 서울 중구 프레스센터에서 진행된 기술발표회를 통해 LLM의 신뢰성 문제에 대한 해결책으로 구조화된 인지 루프(Structured Cognitive Loop, 이하 SCL) 기술을 제시했다.
김 교수가 제시한 LLM의 한계는 △할루시네이션(환각) 현상 △기억 상실 △목표 표류 등 세 가지다. 존재하지 않는 정보를 실제 사실인 것처럼 제시하고, 이전에 처리한 작업이나 정보를 기억하지 못해 같은 일을 반복한다. 또한 처음 설정한 목표를 잊어버리고 엉뚱한 결과를 도출하는 등 계속해서 문제가 발생하고 있다. 그는 예시로 “자율주행차가 브레이크를 밟아야 할 때 가속페달을 밟는 다거나 같은 곳을 돌고 목적지와 맞지 않는 곳에서 멈추는 현상과 같다”며 “이러한 일이 발생한다면 그 누가 자율주행차를 믿고 이용할 수 있겠냐”고 지적했다.
실제로 김 교수가 챗GPT-5에 ‘기준 온도가 T도 일 때, 인천, 대전, 제주 날씨를 확인한 뒤 여행 계획을 세워줘. 세 지역 모두 기준 온도 이상이면 제일 시원한 곳으로 여행 갈거야’라고 입력했더니 챗GPT는 맞지 않는 곳을 제시하기도 했다.
김 교수에 따르면 SCL은 이러한 문제를 근본적으로 해결하기 위한 접근법이다. 기존처럼 AI 모델 자체를 크게 만들어 모든 것을 해결하려는 대신, AI의 역할을 ‘판단’에만 집중시키고 기억, 실행, 제어, 규범 관리 등의 기능을 별도 시스템으로 분리한다. 이 다섯 가지 모듈이 순환하면서 상호 작용하는 구조를 통해 AI의 잘못된 판단이 곧바로 행동으로 이어지지 않게 하고, 모든 과정을 투명하게 기록해 추적 가능하게 만든다는 것이 핵심이다.
그는 “환각을 완전히 없애려 하지 않고 ‘환각을 막을 수는 없지만 피할 수는 있다’는 철학으로 접근했다”며 “LLM을 상자 안에 가둬 잘못된 판단이 위험한 행동으로 이어지지 않게 하는 것”이라고 설명했다.
이날 SCL을 구현한 시스템인 ‘챗 원더(Chat Wonde)’도 공개됐다. 김 교수는 “복잡한 프로그래밍 지식 없이도 누구나 맞춤형 AI 에이전트를 개발할 수 있는 노코드·로우코드 플랫폼”이라고 설명했다. 기존 AI 서비스들과의 비교 실험에서 SCL을 적용한 시스템은 정확성, 투명성, 재현성 모든 면에서 우수한 성과를 나타냈다는 것이 김 교수의 설명이다.
그는 “챗GPT와 제미나이가 동일한 작업에서 논리적 오류나 목표 이탈을 보인 반면, 챗 원더는 일관되게 정확한 결과를 제공했다”고 설명했다. 아울러 “SCL은 AI가 더 신뢰받는 방향으로 나아가기 위한 중요한 발걸음”이라며 “정확하고 투명하며 재현 가능한 AI를 함께 만들어가는데 의미가 있을 것”이라고 강조했다.