올해 6월 10일부터 15일까지 캘리포니아 롱비치, 롱비치 컨벤션센터에서 개최되는 ICML은 대표적인 국제 머신러닝 학회 중 하나로, 매년 인공지능 분야의 다양한 머신러닝 알고리즘의 이론적 기반에 관한 내용을 다루고 있어 관련 분야의 연구자들에게 새로운 이론적 접근 방법을 제시한다. 올해는 총 3424편의 논문이 제출됐으며 그 중 774편이 채택되었다.
AITRICS는 이번에 “Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks” 논문을 통해 3차원 물체 인식이나 소수샷 분류 등 객체집합을 입력 데이터로 받는 문제들에 적합한 알고리즘인 세트-트랜스포머를 제안했다. 세트-트랜스포머는 기존의 트랜스포머에서 부호화 및 복호화 계층에 ‘어텐션 메커니즘’을 적용한 것으로, 그룹 내 객체들의 순서와 상호관계까지 고려하도록 설계되었다. 또한 이는 희소 가우시안 프로세스에서 주로 사용하는 유도점 학습 기법으로 기존 ‘셀프 어텐션’의 계산 복잡도를 낮춰 더 많은 데이터를 효율적으로 처리할 수 있다.
AITRICS 유진규 대표는 “전 세계적으로 AI 분야 인재 확보 경쟁이 치열한 상황에서 이렇게 훌륭한 인재들과 함께 할 수 있어 영광이다. 글로벌 학회를 통해 다시 한번 AITRICS의 인공지능 기술력을 인정받게 되어 기쁘다. 앞으로도 연구진들이 연구에 매진할 수 있는 환경과 문화를 조성하여 더욱 좋은 성과를 낼 수 있도록 계속해서 힘쓸 계획이다”라고 말했다.
★정보보안 대표 미디어 데일리시큐!★