최종편집:2025-11-26 07:49 (수)
실시간
UNIST, AI 모델 실행 속도 최대 2.5배 높여

UNIST, AI 모델 실행 속도 최대 2.5배 높여

  • 기자명 구아현 기자
  • 입력 2025.08.12 14:20
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다

이슬기 교수팀, 코드 유사성 기반 ‘확산’ 방식 적용

(왼쪽부터) 이슬기 UNIST 교수, 정이수 연구원(제1저자). /UNIST
(왼쪽부터) 이슬기 UNIST 교수, 정이수 연구원(제1저자). /UNIST

딥러닝 인공지능(AI) 모델을 실행 가능한 프로그램 형태로 바꾸는 데 걸리는 시간을 절반 이상 줄이는 기술이 개발됐다.

UNIST 이슬기 컴퓨터공학과 교수팀은 오토튜닝 과정을 최대 2.5배 빠르게 할 수 있는 기법을 개발해 컴퓨터 시스템 분야 권위 학회인 ‘OSDI(Operating Systems Design and Implementation)’에 채택됐다고 12일 밝혔다. 올해는 338편의 논문이 제출돼 이 중 48편만이 채택됐다. OSDI에 한국인 주저자의 연구가 채택된 사례는 학회 20여 년 동안 12건뿐이다.

AI 모델이 실제로 작동하려면 사람이 설계한 고수준 프로그램인 AI 모델을 컴퓨터 연산장치가 이해할 수 있는 형태로 다시 바꾸는 ‘컴파일’ 과정이 필요하다. 예를 들어 ‘고양이 사진을 구분해줘’라는 명령도 수천 줄에 이르는 복잡한 계산 코드로 바꿔야 연산장치인 GPU나 CPU가 실제로 실행할 수 있다.

오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연상 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다. 하지만 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모도 많다는 문제가 있었다.

연구팀은 딥러닝 모델 안에 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다. 코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것이다.

실제 이 방식을 기존 오토튜닝 프레임워크(Ansor)에 적용한 결과, 동일한 성능의 실행 코드를 생성하는 데 걸리는 시간이 CPU 기준 평균 2.5배, GPU 기준 평균 2배 단축됐다.

이슬기 UNIST 교수는 “컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다”고 말했다.

한편 OSDI는 SOSP(Symposium on Operating Systems Principles)와 함께 컴퓨터 시스템 분야의 양대 학회로 꼽힌다. 구글의 ‘텐서플로’와 같은 AI 기술도 이 학회에서 공개된 바 있다. 학회는 지난 7월 7일부터 3일간 미국 보스톤에서 열렸다.

저작권자 © THE AI 무단전재 및 재배포 금지
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전