[창간 5주년 특집] AI 권위자 토비 월시 교수 “똑똑한 AI보다 어리석은 AI가 더 중요”
“AI 규제, 인공지능이 세상을 지배해서 필요한 것 아냐” AI 알고리즘의 책임성·투명성·공정성 파악하는 프레임워크 필요
[편집자 주] 조선미디어그룹이 설립한 인공지능 전문 매체, ‘더에이아이(THE AI)’가 창간 5주년을 맞이했습니다. THE AI는 생성형 AI 열풍이 불기 전부터, AI 가능성과 한계를 탐구하며 깊이 있는 취재와 분석을 이어왔습니다. 이번 5주년 특집에서는 국내외 AI 석학 및 전문가들과의 인터뷰를 통해 AI 기술의 현재와 미래를 조망합니다. AI 혁명의 최전선에 서 있는 여러 전문가의 통찰과 비전을 독자 여러분께 전합니다. 많은 관심과 성원 부탁드립니다.
“인공지능(AI) 발전을 위해선 아주 똑똑한 ‘초스마트 AI’보다 ‘어리석은 AI’에 관심을 가져야 합니다.”
AI 분야 세계적인 권위자인 토비 월시(Toby Walsh) 호주 뉴사우스웨일스대 교수의 말이다. 그는 AI 기술이 활성화된 지금, 더 똑똑한 AI 만들기에 집중하기보다 어리석은 AI를 경계하는 태도가 더 중요하다고 조언했다. 사회 전반에서 AI가 중요한 결정을 내리는 데 쓰이는 빈도가 많아지는 만큼, AI가 어리석은 결정을 하지 않는지 확인하는 것이 필요하다는 주장이다. 이를 위해선 알고리즘의 책임성과 투명성, 공정성을 파악할 수 있는 프레임워크가 필요하다고 강조했다.
그는 “지금까지 AI 규제가 필요하다고 계속해서 주장해 왔는데, 이는 AI가 전 세계를 장악할 것을 염려해서가 아니다”라며 “이른바 빅테크라 불리는 대형 기술 기업들이 자신들의 이익에 너무 몰두해 있기 때문”이라고 말했다. 이어 “기업들이 더 똑똑한 AI를 만들기 위해 경쟁하고 있는데, AI가 어리석은 결정을 하지 않는지 파악하고 조치할 수 있는 기술 경쟁은 크지 않은 편”이라며 “AI 안전을 위한 기술 경쟁이 이뤄져야 한다”고 덧붙였다.
월시 교수는 AI의 윤리적 사용과 무기화 반대 운동에 적극적인 AI 석학이다. AI 기술 발전이 사회에 미칠 영향을 연구하며 안전과 규제를 강조해 왔다. 국내에선 2019년 KAIST와의 연구 교류를 중단하겠다는 보이콧 선언을 하며 이름을 알렸다. 당시 그는 KAIST가 한화시스템과 함께 세운 국방AI융합연구센터를 통해 AI 무기화를 추진한다는 이유로 세계 29개국 AI 전문가 57명과 함께 KAIST와의 연구 교류 중단을 선언한 바 있다. AI 기술 발전과 안전성을 모두 높인 성과로 2023년 THE AI가 주최한 Good AI Awards에서 개인 부문 수상자로 이름을 올리기도 했다.
그는 AI 규제를 기술의 진보를 막는 것이 아니라 인류에게 이익이 되는 AI를 만드는 방향으로 조성해야 한다고 주장했다. 이를 위해선 각국 정부가 AI로 인해 예상되는 문제가 아니라, 현재 실존하는 구체적인 문제에 집중해야 한다고 했다. 그와 자세한 이야기를 나눠봤다.
토비 월시 교수는 AI 기술 발전과 안전성을 모두 높인 공로로 2023년 THE AI가 주최한 Good AI Awards를 수상했다. /THE AI
- 저서인 ‘2062: The World that AI Made’에선 2062년을 AI 해로 예측했다. 지금 기술 수준을 보면 훨씬 빨라질 것 같다.
“지금의 AI 발전 속도는 놀랍다. 많은 사람이 예상했던 것보다 훨씬 빠르게 진행되고 있다. 2062년을 예측한 것은 내 생각이 아닌 AI 분야에서 일하는 동료 300명의 예측이었다. 이들에게 지금 같은 질문을 던진다면 2042년까지 인간 수준의 AI 혹은 범용인공지능(AGI)에 도달할 것이라고 답할 것이다. 그렇다고 AGI에 대해 너무 쉽게 생각해선 안 된다. 지금의 AI는 아직 좁은 영역에서 뛰어난 능력을 낼 뿐이다. AGI를 만드는 데 있어 근본적인 도전 과제가 남아 있다.”
- 인간 수준의 AI를 만들기 위해선 어떤 과제가 남아 있나.
“현재 놀랄만한 수준의 AI가 많이 나오고 있다. 높은 수준의 언어 모델부터 이미지 생성 AI 등이 출현했다. 하지만 이 AI 모델들을 사람의 지능과 혼동해서는 안 된다. 언어나 인식을 처리하는 시스템 1이 사고하는 문제를 일부 해결했더라도 추론이나 의식 등 일반적인 문제 해결 능력은 여전히 해결되지 않았다. 시스템 1이 높은 수준으로 발전했어도 시스템 2는 여전히 대부분 해결되지 않은 상태다.”
- 지금의 AI 기술 발전을 이끈 동력은 무엇이라고 보나. 앞으로 한계도 있을 것 같은데.
“지금의 AI 발전을 이룬 원동력은 방대한 양의 데이터와 향상된 컴퓨팅 성능, 고도화된 머신러닝 알고리즘 이 3가지 핵심 요소의 융합이다. 하지만 우리는 상당한 한계에 직면해 있다. 무어의 법칙은 공식적으로 사라졌고 인텔은 더 이상 18개월마다 트랜지스터 수를 두 배로 늘리려고 하지 않는다. 컴퓨팅 성능의 물리적 한계에 부딪힌 것이다. 진정한 과제는 더 많은 컴퓨팅 성능이나 데이터뿐만 아니라 지능 자체를 이해하는 것이다. 패턴 일치뿐만 아니라 진정으로 이해할 수 있는 기계를 만들려면 어떻게 해야 할까, AI는 어떻게 상식적이고 논리적으로 추론할 수 있을까? 이러한 근본적인 과제는 여전히 남아 있다.”
- 현재 AI 연구에서 주목할 만한 트렌드는 무엇인가.
“투자 속도와 규모다. 현재 매일 10억 달러가 AI에 지출되고 있다. 전 세계 연구개발(R&D) 예산의 20%에 해당하는 금액이다. 한 기술에 이 정도 규모가 투자되는 것은 기술 역사상 전례가 없는 일이다.”
- 기술 발전에 따라 유럽연합(EU) 등 많은 국가가 AI 규제를 준비하고 있다. 한국도 AI 기본법에 속도를 내고 있다. 규제 마련에 조언해 줄 내용이 있다면.
“AI 규제를 개발하는 정부는 미래의 실존적 위협보다는 현재 발생하고 있는 구체적인 문제에 집중해야 한다. 알고리즘 편향, 데이터 프라이버시, 책임성에 대한 명확한 지침이 필요하다. GDPR과 AI 법에 대한 EU의 접근 방식은 좋은 출발점을 제공한다. 그러나 규제는 기술이 발전함에 따라 적응할 수 있을 만큼 유연해야 하며, 책임 있는 발전을 위한 명확한 경계를 제공해야 한다.”
- 연구자와 개발자가 가져야 할 ‘책임감 있는 AI 개발’의 핵심 요소는 무엇일까?
“책임감 있는 AI 개발은 단순히 기술적 안전장치에 관한 것이 아니다. 우리가 구축하고 있는 것의 사회적 영향을 이해하는 것이다. AI 연구자들은 단순한 기술적 역량을 넘어 그들의 연구가 가져올 광범위한 영향을 고려해야 한다. AI를 언제, 어떻게 배포해야 하는지에 대한 다양한 관점과 명확한 원칙이 필요하다. 기본 원칙은 AI가 인류를 대체하거나 해치는 것이 아니라 인류를 증강하고 이롭게 하기 위해 존재한다는 것이어야 한다.”
- AI 무기화에 반대하는 입장으로 알고 있다. 하지만 최근 자율 무기 시스템이 발전하는 상황이다.
“지금까지 자율 무기 위험성에 대해 목소리를 높여왔다. AI 무기화는 단순한 군사 기술이 아니라 전쟁의 근본적인 혁명을 의미한다. 치명적인 결정에서 인간의 판단을 제거하는 능력은 심각한 문제가 있다. 화학 무기를 금지했던 것과 마찬가지로 자율 무기에 대한 국제적인 금지가 필요하다.”
- 최근 러시아-우크라이나 전쟁에서는 AI나 드론 등이 전쟁에서 큰 역할을 하고 있다. 그만큼 AI 무기화는 자연스럽게 될 것 같다.
“우크라이나 전쟁과 같은 분쟁 상황에서 AI를 사용하는 것은 우려스럽지만 놀라운 일은 아니다. 현재 우리가 보고 있는 것은 주로 인간이 통제하고 있는 반자율적 군사 시스템입니다. 진정한 위험은 완전 자율 무기로 나아갈 때 발생한다. 완전 자율 무기는 알라딘이 가진 램프와 같다. 램프 속 지니가 나오면 다시 넣긴 어려워질 것이다. 이 때문에 국가들은 완전 자율 무기 개발에 매우 신중해야 한다.”
- 2030년 전 세계 국방에서 AI 활용도는 얼마나 될까.
“2030년까지 AI가 방위 시스템에 깊이 통합될 것으로 예상한다. 그 결과까지 도달하기 전에 적절한 인간 감독이 필요하다. 핵심은 치명적인 힘과 중요한 결정에 인간의 의미 있는 통제력이 유지돼야 한다는 점이다. 특히 전쟁 속도에 대해선 주의해야 한다. 일례로 AI 시스템이 기계 속도로 매우 빠르게 작동할 때 인간의 의사결정이 병목 현상처럼 느껴질 수 있다. 이에 인간의 결정을 완전히 배재해야 한다는 압박이 발생할 수 있다. 그렇게 된다면 여러 문제가 발생할 수 있다. 적대적인 환경에서 알고리즘이 서로 대적할 수 있고, 주식 시장에서 플래시 충돌이 발생하는 것처럼 플래시 전쟁이 일어날 수 있다. (플래시 충돌은 초단기적으로 주식, 통화, 선물 등 금융 상품의 가격이 급락했다가 곧바로 회복되는 현상을 의미한다)
- 그렇다면, 2030년 우리 일상은 AI로 인해 어떤 변화를 맞이할까?
2030년까지 AI는 우리 일상생활에 깊숙이 자리 잡을 것으로 예상된다. 그 변화는 사람들이 알지 못하게 이뤄질 것이다. 사람들이 상상하는 공상과학 로봇이 아니라 눈에 보이지 않는 AI가 교통 관리부터 의료 진단, 에너지 분배에 이르기까지 인류의 시스템을 더 효율적으로 만들어 줄 것이다. 2030년 우리는 더 정교한 언어 인터페이스, 더 나은 자율 주행 차량, 더 개인화된 서비스를 보게 될 것이다. 하지만 프라이버시, 직업 이동, 알고리즘 편향과 관련된 도전 과제도 계속 늘어날 것이다. 핵심은 이러한 전환을 신중하게 관리하는 것이다.”
- 현재 주력하는 연구가 있다면.
“현재 AI 개발이 인류에게 해를 끼치기보다는 이익이 되도록 하는 데 집중하고 있다. 여기에는 AI 안전, 윤리, 거버넌스에 관한 작업도 포함된다. 특히 AI 투명성과 책임성을 위한 프레임워크를 개발하는 데 관심이 있다. 점점 복잡해지는 AI 시스템을 어떻게 하면 이해할 수 있고 통제 가능하게 유지할 수 있을까? 이 문제를 해결한다는 것은 AI를 다양한 사회적 재화로 활용할 수 있게 한다는 것을 뜻한다. 이 때문에 프레임워크 개발에 주력하고 있다. 더불어 Surf Life Saving Australia와 협력해 바다 위험 지역을 식별해 수영을 하지 말라고 경고하는 AI 애플리케이션(앱)을 개발하고 있다. 또 노숙자 자선 단체와 함께 대형언어모델(LLM)을 사용해 도움을 요청하는 사람에게 조언도 제공하고 있다.”
- 끝으로 AI 시대를 준비하는 지금 세대 사람들에게 조언하고 싶은 말이 있다면.
“강조하고 싶은 핵심 메시지는 우리의 AI 미래는 미리 정해져 있지 않다는 것이다. 기술은 운명이 아니다. 이제 이 기술이 어떻게 발전하는지를 결정할 수 있는 선택을 해야 한다. 문제는 AI가 너무 강력해지는 것을 막는 것이 아니라 AI가 더 유능해질수록 인간의 가치에 부합하고 인류 전체에 이익이 되도록 하는 것이다. AI는 인류 역사상 가장 중요한 기술 변화 중 하나다. 막연한 두려움을 갖고 기술 진보를 막으려고 노력해야 하는 것이 아니라 신중하고 책임감 있게 AI를 개발하도록 보장해야 한다. 앞으로 몇 년 동안 우리가 내리는 결정은 증기 기관을 발명했을 때 산업 혁명이 그랬던 것처럼 앞으로 수십 년, 어쩌면 수 세기 동안 인류의 미래를 형성할 것이다.”