삼성전자가 4일부터 5일까지 삼성 AI 포럼 2019를 개최한다. 첫째 날은 삼성전자 종합기술원 주관으로 삼성전자 서초사옥에서, 둘째 날은 삼성리서치 주관으로 삼성전자 서울R&D캠퍼스에서 각각 진행된다. 올해로 3회째를 맞는 삼성 AI 포럼은 세계적 AI 석학들을 초청해 최신 연구 동향을 공유하고 미래 혁신 전략을 모색하는 자리다. 올해는 AI 분야 전문가와 교수, 학생 등 1,700여명이 참석할 것으로 예상된다.
3년째 개최, 최신 연구 동향과 전략 교류
온디바이스 AI 통역 기술 등 현장 시연
국내 우수 논문 포스터 세션도 마련
삼성전자가 4일부터 5일까지 '삼성 AI 포럼 2019'를 개최한다.
▲김기남 부회장이 개회사를 하고 있다
(사진=삼성전자)
삼성 AI 포럼 2019 첫째 날은 삼성전자 종합기술원 주관으로 삼성전자 서초사옥에서, 둘째 날은 삼성리서치 주관으로 삼성전자 서울R&D캠퍼스에서 각각 진행된다.
올해로 3회째를 맞는 삼성 AI 포럼은 세계적 AI 석학들을 초청해 최신 연구 동향을 공유하고 미래 혁신 전략을 모색하는 자리다.
올해는 AI 분야 전문가와 교수, 학생 등 1,700여명이 참석할 것으로 예상된다.
삼성전자 김기남 대표이사 부회장은 개회사에서 “AI 기술은 이미 사회 전반에 광범위한 영향을 미치고 있다”라며, “이번 포럼을 통해 AI 기술의 미래 발전 방향을 제시하고, 세상을 이롭게 할 수 있는 전략을 고민할 수 있었으면 좋겠다”라고 말했다.
진화되고 확장된 AI 기술 발표된 1일 차
포럼 첫째 날은 딥 러닝 분야 최고 권위자들이 참여해 딥 러닝 기반 세계 이해, 자율형 시스템 등 진화되고 확장된 AI 기술 연구 성과를 발표했다.
포럼 첫째 날 연사로는 ▲캐나다 몬트리올대학 요슈아 벤지오(Yoshua Bengio) 교수 ▲미국 UC버클리대학 트레버 대럴(Trevor Darrell) 교수 ▲미국 뉴욕대학 조경현 교수 ▲삼성전자 종합기술원 몬트리올 AI 랩장인 캐나다 몬트리올대학 사이먼 라코스테줄리앙(Simon Lacoste-Julien) 교수 등이 참여했다.
▲몬트리올대학 요슈아 벤지오 교수
(사진=삼성전자)
벤지오 교수는 '딥러닝에 의한 조합적 세계 이해(Towards Compositional Understanding of the World by Deep Learning)'라는 주제의 세미나에서 어린 아이가 경험을 통해 세상을 이해해 나가는 것과 같이 메타 러닝과 강화 학습 등 AI 에이전트가 세계를 이해하기 딥러닝 분야 핵심 기술들을 제안했다. 메타 러닝(Meta Learning)은 새로운 문제가 주어져도 효과적으로 풀 수 있는 모델을 학습하는 방법이다.
대럴 교수는 '자율형 시스템을 위한 딥러닝 기반 적응 및 설명(Adapting and Explaining Deep Learning for Autonomous Systems)'을 주제로 강연했다. 그는 자율주행차량과 같이 센서 정보를 바탕으로 스스로 계획하여 작동되는 시스템이 예측하지 못한 복잡한 상황에 처했을 때, 스스로 분석하여 판단하는 기술에 대한 최신 연구 동향을 소개했다.
조경현 교수는 '신경망 기반 문장 생성을 위한 세 가지 방안(Three Flavors of Neural Sequence Generation)'을 주제의 세미나에서 병렬 디코딩(Parallel decoding), 삽입기반 문장 생성(Insertion-based generation) 등 기계 번역시 문장 생성 속도를 향상시키는 기술을 제안했다.
라코스테줄리앙 교수는 '생성적 적대신경망에 대한 새로운 시각(New Perspectives on Generative Adversarial Networks)'이라는 주제로 발표했다. 생성적 적대신경망이란 생성자(Generator)와 구분자(Discriminator) 간 경쟁을 통해 데이터를 생성 및 학습하는 딥 러닝 알고리즘이다. 또 이미지와 같은 고차원 데이터에 생성적 적대신경망이 적합한 이유를 제시하고, 생성적 적대신경망 학습의 어려움을 해결할 수 있는 최적화 이론을 소개했다.
삼성전자는 딥 러닝 기술을 현장에서 시연했다. 2017년은 기계 번역, 2018년은 엔드투엔드 음성인식 기술을 시연했는데, 올해는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 ‘온디바이스 AI(On-Device AI) 통역 기술’을 선보였다.
특색 있고 다양한 AI 기술 발표할 2일 차
삼성리서치가 주관하는 둘째 날은 세계 각국의 AI 전문가들의 다양한 강연을 만날 수 있다. 기조연설은 미국 워싱턴대학 노아 스미스(Noah Smith) 교수와 카네기멜론대학 압히나브 굽타(Abhinav Gupta) 교수가 맡는다.
▲1일 차에 강연을 듣는 참관객들
(사진=삼성전자)
스미스 교수는 기조연설에서 "실험적 자연어 처리를 위한 합리적인 순환신경망 (Rational Recurrences for Empirical Natural Language Processing)"을 주제로 발표한다. 기존 자연어 처리 딥 러닝 모델들이 가지고 있는 취약점에 대해 설명하며, 언어적인 이해가 가능하면서도 심도 깊은 언어 처리가 가능한 새로운 모델로 합리적인 순환신경망(Recurrent Neural Networks; RNN)을 소개할 예정이다.
굽타 교수는 "시각/로봇 학습의 규모 확장과 강화 방안 (Supersizing and Empowering Visual and Robot Learning)" 강연에서 기존 지도 학습의 한계를 넘어선 대규모 자기 시각 학습 방법을 제안하고 미래 에이전트에 적용하는 방안에 대해 공유한다.
영국 에든버러대학교 바이샥 벨(Vaishak Belle) 교수는 사람들의 일상 속 더욱 다양한 분야에 AI를 적용시키기 위한 인간의 지식과 데이터 기반 학습의 통합 방안에 대해 소개한다.
이어 미국 뉴욕대학 조안 브루나(Joan Bruna) 교수는 범용 AI(Artificial General Intelligence; AGI) 실현을 위한 돌파 기술로 인식되고 있는 그래프 신경망 (Graph Neural Network; GNN)에 대한 연구 성과 및 개인화 등 다양한 활용 연구에 대한 견해를 발표한다.
오후에는 '비전과 이미지(Vision & Image)'와 '온디바이스, IoT와 소셜 (On-Device, IoT & Social)'을 주제로 한 두 트랙이 동시에 진행된다.
비전과 이미지 트랙에서는 △딥 네트워크 기능을 중심으로 인간의 인식과 딥 러닝의 인식 격차를 줄일 수 있는 프로젝트 △사실적인 3D 텔레프레전스 구축을 위한 딥 러닝 기반의 실시간 추적 및 합성 기술 △기존 모바일 기기 영상 캡처의 한계를 해결하기 위한 최근 연구 동향과 딥러닝 기반의 새로운 이미징 파이프라인 △데이터의 일부분을 토대로 전체적인 흐름을 유추하고 다양한 관점에서 상황을 해석해 활용할 수 있는 AGI 기반 객체 인식 및 상황 묘사 기술 강연이 진행된다.
온디바이스, IoT와 소셜 트랙에서는 △범용인공지능 시대에서 모바일 임베디드 기기가 온디바이스 컴퓨팅을 위해 극복해야할 딥 러닝 기술 △딥 러닝과 와이파이 기반 고해상도로 위치 추적이 가능한 방식 △5G와 IoT 무선 시스템의 여러 문제를 해결하기 위한 딥러닝 기반 추론 및 제어 기술을 적용하는 방법 △컴퓨터 연산 사회과학 분야에서 주목받고 있는 대화형 모델링에 관한 최근 동향 강연이 이어진다.
한편 이번 포럼에는 석학들의 강연 이외에도, AI 분야 글로벌 주요 학회에서 선정된 국내 대학 및 대학원의 우수 논문을 선별해 전시하는 포스터 세션도 마련됐다.