머신러닝 모델 학습 시, 기존 방식 대비 최대 2배의 학습 속도 향상

서울대 공대 전병곤 교수 연구진
서울대 공대 전병곤 교수 연구진

 

[시사프라임/ 박시나기자'] 서울대학교 공과대학(학장 차국헌)은 컴퓨터공학부 전병곤 교수팀이 데이터 증강(Data Augmentation) 과정을 최적화해 머신러닝 학습 수행 시 기존 시스템 대비 최대 2배 빠른 속도로 수행하는 리뱀퍼(Revamper) 시스템을 개발했다고 13일 밝혔다.

해당 시스템을 통해 다양한 분야에서 보다 효율적인 인공지능 학습 수행이 가능할 것으로 기대한다.

데이터 증강은 학습 데이터에 임의의 변환 연산을 적용함으로써 실질적인 학습 데이터의 수를 증가시키는 것을 말한다. 데이터 증강은 인공지능 학습 모델의 정확도를 높이지만 학습의 속도를 저하시킨다는 문제가 있다.

학습 속도 저하 문제를 해결하기 위해 전병곤 교수 연구진은 새로운 데이터 캐싱 시스템인 리뱀퍼를 개발했다. 구글에서 제안한 기존 방식은 최종 증강한 표본을 일정 횟수 재사용해 학습 속도를 향상시켰지만 모델의 정확도는 저하됐다.

이와 달리 전병곤 교수 연구진은 학습된 모델의 정확도 저하 없이 표본을 재사용하는 데이터 리퍼비싱(Data Refurbishing) 기법을 제안했다. 데이터 리퍼비싱은 데이터 증강 과정을 두 부분으로 나눠 부분적인 데이터 증강 연산이 적용된 표본들을 일정 횟수 재사용하고, 학습에 사용하기 전에 나머지 증강 연산을 수행하는 방식으로 모델 정확도 저하 문제를 해결했다.

연구진은 리버비싱 방식을 효율적으로 지원하기 위해 재사용하는 표본들을 여러 학습 스텝에서 고르게 사용하는 새로운 캐싱 시스템인 리뱀퍼를 구현했다. 리뱀퍼는 파이토치(PyTorch) 데이터 로더 대비 최대 2배 빠른 인공지능 학습 속도를 제공한다. 리뱀퍼는 개발 시 사용자의 편의성을 고려해 설계했으며 기존에 사용하던 파이토치 모델을 리뱀퍼를 이용해 빠르게 수행할 수 있다. 연구진은 리뱀퍼를 파이토치 사용자들이 활용할 수 있도록 공개할 계획이다.

이 연구 결과는 7월 컴퓨터 시스템 분야에서 권위 있는 학회 USENIX ATC(Annual Technical Conference)에서 발표될 예정이다.

전병곤 교수는 이번 개발에 대해 “세계를 선도하는 인공지능 플랫폼 기술을 연속해서 발표하게 돼 기쁘다. 앞으로 프렌들리에이아이(friendli.ai)를 통해 초대형 인공지능을 만들어 서비스로 제공하겠다”고 소감을 밝혔다.

저작권자 © 시사프라임 무단전재 및 재배포 금지