The Institute of Electronics and Information Engineers
(사)대한전자공학회 연구회 행사
|
사전등록기간 : ~ 2022. 7. 12.(화) 18시 까지
초대의 글
여름학교 개요
프로그램 (세부일정)
첫째날 : 2022년 7월 18일(월)
둘째날 : 2022년 7월 19일(화)
* 주최측의 사정으로 프로그램이 일부 변경될 수 있습니다.
* 각 발표 시간은 50분~ 70분 (Q&A 포함) 입니다. * 각 발표시간 강의 사이트와 ID/PW는 추후 강의시작 1일 전에 등록자 이메일로 공지됩니다. * 발표 자료는 인쇄본이 아니라 온라인 형태로 제공됩니다. 여름학교 등록안내
o 등록기간 : ~ 2022년 7월 12일(화) 18시 까지 o 여름학교 자료는 책자인쇄 제공은 하지 않으며, 파일형태로 제공됩니다. (PDF파일 제공 - 행사전일 E-메일 안내) o 카드결제가 불가하신 분께서는 계좌시, 아래 계좌정보로 이체하여 주시기 바랍니다. - 입금계좌(영상처리연구회) : o 대한전자공학회 사업자등록증 사본 (클릭 다운로드 -PDF) 영수증 및 계산서 발급안내
o 계산서는 온라인에서 신청해 주시기 바랍니다. 카드결제시 계산서 발급은 불가능합니다.
o 웹 카드결제시, 전표출력 웹사이트 : 모빌페이(구 KG올앳) 바로가기-클릭 후 (중간 상자 오른쪽 "결제고객전용 > 신용카드결제조회") 문의처
|
코로나19로 인해 비대면 산업 환경이 지속되면서 메타버스 및 자율주행을 실현하기 위한 딥러닝 기술에 대한 관심이 증가하고 있습니다. 개인을 넘어서 사회 전반적으로 언택트 방식의 미디어 수요가 증가하고 있고, 자율주행 택시가 대도시에서 시범 운영되는 등 우리 사회는 지능형 미래 사회로 숨가쁘게 달려가고 있습니다. 이러한 산업계 상황에 발맞추어 영상이해연구회와 영상처리연구회에서는 본 합동 여름학교를 통해 기초부터 응용까지 알찬 교육 프로그램을 연구자분들께 제공하고자 합니다. 특히, 생성 모델과 3D 모델링의 이론을 프로그래밍 실습과 함께 심도 있게 살펴보고자 하며, 산업계 및 학계 전문가로 구성된 심화 응용 세션을 통해 딥러닝 기술의 실적용 사례를 살펴볼 수 있는 기회를 마련하였습니다. 이번 합동 여름학교는 기나긴 코로나19 펜데믹 기간을 지나고 전면 대면 행사로 진행되기에 많은 분들이 참석하시어 연구 교류의 뜻깊은 장이 될 수 있길 기대합니다. 또한, 본 합동 여름학교를 통해 지능형 미래 사회 실현을 위한 인공지능 기술에 대해 새로운 성장 동력을 발견할 수 있는 좋은 기회가 되길 희망합니다.
영상이해연구회 위원장 김원준 영상처리연구회 위원장 이채은 인공지능 신호처리소사이어티 회장 송병철 대한전자공학회 회장 서승우 |
시간 | 프로그램 | 강연자 |
---|---|---|
9:30 - 9:40 | 인사말 및 개회사 송병철 회장 (인공지능 신호처리소사이어티) |
이채은 위원장 (영상처리연구회) 김원준 위원장 (영상이해연구회) |
생성모델 | ||
9:40 – 10:50 (70’) |
GAN Tutorial | 백성용 교수 (한양대학교) |
10:50 – 12:00 (70’) |
Neural radiance fields and 3D-aware GANs | 어영정 교수 (연세대학교) |
12:00 – 13:30 | 점심 및 네트워킹 | |
13:30 – 14:40 (70’) |
영상처리 역문제를 위한 생성 인공지능 모델 | 진경환 교수 (DGIST) |
자율 주행을 위한 영상처리/ 딥러닝 | ||
14:40 – 15:40 (60’) |
인공지능과 자율주행 | 김진규 교수 (고려대학교) |
15:40 – 15:50 | Coffee break | |
15:50 – 16:50 (60’) |
A unified representations for maneuvering autonomous machines in real-world | 정성균 리더 ( 포티투닷 ) |
16:50 – 17:50 (60’) |
자율주행을 위한 영상인식 기술 | 최진욱 파트장 (현대자동차) |
둘째날 : 2022년 7월 19일(화)
시간 | 프로그램 | 강연자 |
---|---|---|
3D Reconsturction | ||
09:40 – 10:50 (70’) |
다중 시점 기하학 기초 및 전통/학습기반 스테레오 매칭 방법 소개 | 임성훈 교수 (DGIST) |
10:50 – 12:00 (70’) |
차세대 3차원 이미징 | 백승환 교수 (포항공과대학교) |
12:00 – 13:30 | 점심 및 네트워킹 | |
13:30 – 14:40 (70’) |
A Deep Dive into 3D Human Pose Estimation | 주한별 교수 (서울대학교) |
멀티모달 응용을 위한 영상처리/딥러닝 | ||
14:40 – 15:40 (60’) |
영상, 소리, 텍스트 기반 표현학습 및 질의응답 | 김건희 교수 (서울대학교) |
15:40 – 15:50 | Coffee break | |
15:50 – 16:50 (60’) |
멀티모달러닝과 그 응용 | 오태현 교수 (포항공과대학교) |
16:50 – 17:50 (60’) |
Multimodal Deep Learning for Human-level AI | 김성태 교수 (경희대학교) |
17:50 – 18:00 | 맺음말 |
연사 | 강연 요약 및 연사정보 |
![]() 백성용 교수 (한양대학교) |
GAN Tutorial
Email: dsybaik@hanyang.ac.kr
GAN은 Generative Adversarial Network 의 줄임말로 AI로 새로운 콘텐츠 생성의 가능성을 획기적으로 향상 시키고 최근 많은 발전을 이룬 AI 생성모델이다. GAN은 generator 그리고 discriminator 두 개의 모델로 이루어져 있으며 discriminator 모델은 주어진 정보가 진짜인지 혹은 generator 모델이 만든 가짜 정보인지 구분하도록 학습되며 generator모델은 discriminator을 속일 수 있는 가짜 정보를 생성하도록 학습한다. 이런 경쟁구도로 두 모델이 학습되면서 discriminator가 구별하기 어려울 정도로 generator모델이 진짜 같은 가짜 정보를 생성하게 되는 것을 GAN 학습 목표로 한다. 이 강연에서는 GAN 이론과 함께 간단한 코드 예제로 GAN 학습하는 법을 익히며 가상인간/avatar 같이 GAN의 실제 응용예제에 대해서도 알아보도록 한다.
Bio : Facebook Reality Labs Research Intern (2020) 한양대학교 데이터사이언스학부 (2022~현재) |
![]() 어영정 교수 (연세대학교) |
Neural radiance fields and 3D-aware GANs
Email: yj.uh@yonsei.ac.kr
이미지는 격자형태의 색상으로 표현되며, 3차원 공간상의 물체는 point cloud, mesh, voxel 등의 좌표와 색상으로 표현된다. 이는 연속공간을 이산공간으로 표현하기 위한 필수요소로 여겨졌으나, 최근 implicit neural representation의 능력이 재평가되며 이미지의 / 3차원 물체의 새로운 표현방식이 대두되고있다. 이 강의에서는 implicit neural representation으로 이미지를 표현하는 방법과 이를 3차원으로 확장시킨 neural radiance fields를 소개한다. Implicit neural representation은 이미지를 표현함에 있어서 픽셀의 좌표와 그 위치의 색상을 기존의 look up table 형태 대신 연속함수로 구현한다. Neural radiance fields는 3차원상의 각 점의 radiance를 좌표의 함수로 표현한다. 강의의 후반부에서는 3D-aware GANs를 간략하게 소개한다.
Bio : NAVER CLOVA AI Research Researcher (2018-2020) 연세대학교 글로벌인재대학 응용정보공학전공원 (2020~현재) 연세대학교 인공지능융합대학 인공지능대학 (겸직, 2020~현재) |
![]() 진경환 교수 (DGIST) |
영상처리 역문제를 위한 생성 인공지능 모델
Email: kyong.jin@dgist.ac.kr
본 연구실에서 진행 중인 다양한 영상처리 역문제(super resolution, denoising, inpainting, 등)들을 생성모델 기반 인공지능으로 해결하는 연구들에 대해 소개한다. 컴퓨터 비전, 특히 low level 비전 문제들에서 발생하는 영상 역문제들을 해결하면 그에따른 high-level 비전 문제들(물체인식, segmentation 등) 의 문제들의 향상을 불러올수 있다. 본 강연에서는 생성 인공지능망 모델을 통해, 비지도학습으로도 역문제의 해를 구할 수 있다는 것을 코드로 살펴본다. 특히, 이미지 인페인팅, 디노이징 등의 예제로 살펴보고, 최신의 논문들을 리뷰해본다.
Bio : DGIST 전기전자컴퓨터공학과 조교수 (2021~현재) 삼성전자 Samsung Research 책임연구원 (2019~2021) EPFL 박사후 연구원 (2016-2019) KAIST 바이오 및 뇌공학과 박사 졸업(2015) |
![]() 김진규 교수 (고려대학교) |
인공지능과 자율주행
Email: jinkyukim@korea.ac.kr
최근 정보통신기술(ICT)의 급격한 발전으로 자율주행 자동차의 상용화가 본격화되고 있다. 각국의 완성차 업체 및 구글, 아마존 등 Tech 기업들이 자율주행 자동차 시장에 적극적으로 진출하고 있다. 완전 자율주행을 위해서는 스스로 도로 상황, 장애물 등 주변 환경을 인식하고 이를 바탕으로 차량을 제어할 수 있어야 한다. 이를 위해 시스템은 보통 객체 인식 및 예측, 차량 모션 제어 등 모듈화 된 구조를 가지며, 각 모듈은 최근 빠르게 딥러닝 모델로 대체되고 있다. 본 강연에서는 최근 부상하고 있는 자율주행차의 기술 개발 동향을 소개하고 자율주행에 사용되는 인공지능 기술들을 소개하고자 한다.
Bio : [학력]: 2010 고려대 학사 (전기전자공학) 2010 고려대 석사 (전자컴퓨터공학) 2019 UC Berkeley 박사 (컴퓨터과학) [경력] 2010-2014 LG Display 연구센터 주임연구원 2014-2015 서울대학교 자동화연구센터 보조연구원 2015 Samsung SDS 연구인턴 2017 Phantom AI 연구인턴 2018 Honda Research Institute USA 연구인턴 2019 Waymo LLC 연구인턴 2020 Waymo LLC Research Scientist 2021- 고려대학교 컴퓨터학과 조교수 [연구분야] 자율주행을 위한 인공지능 모델, 설명 가능 및 사용자 조언 내재화 인공지능 모델 |
![]() 정성균 그룹리더 (포티투닷 (주)) |
A unified representations for maneuvering autonomous machines in real-world
Email: seonggyun.jeong@42dot.ai
자율주행 시스템은 주변 환경을 인식한 결과를 이용하여 차량을 제어하는 명령을 생성한다. 보다 정확한 인식 결과를 생성하기 위해 정교한 알고리즘과 시스템 개발이 진행되고 있으나, 인식 결과를 단순 통합하는 방식은 실제 도로의 환경적인 변화에 취약하다. 본 발표에서는 자율주행을 위한 인식 결과를 하나의 통합된 특징 공간으로 표현함으로써 기존 방식의 한계 상황을 극복하는 내용을 설명한다. 또한 최근 로보틱스 및 컴퓨터비전 분야에서 최근 발표된 유사한 기술들을 리뷰하고 앞으로 자율주행 인식 기술 개발 방향을 제시한다.
Bio : 포티투닷, 자율주행 그룹장 (2019 – 현재)
NAVER LABS, Perception Tech Lead (2016 – 2019) Inria Sophia-Antipolis, 연구원 (2012 – 2015) |
![]() 최진욱 파트장 (현대자동차) |
자율주행을 위한 영상인식 기술
Email: cjw0512@hyundai.com
차량에 장착된 다수의 카메라 영상 정보를 기반으로 차량 주변의 객체와 환경을 인식할 수 있고, 인식된 정보를 실제 거리 값으로 계산하여 차량의 판단/제어에 중요한 정보로 활용할 수 있다. 초음파, 레이더, 라이다 등 다양한 센서가 존재하지만 카메라는 객체의 종류 구분이나 주변 환경의 의미를 분석할 수 있다는 측면에서 장점을 갖는다. 당 팀에서 개발 중인 영상인식 기술이 적용된 자율주행/주차 기능에 대해 소개한다. 또한, 딥러닝 영상인식을 위한 개발 인프라와 인식 성능 고도화를 위해 앞으로 연구가 필요한 기술들에 대해 소개한다.
Bio : 연세대학교 전기전자공학과 학사졸업 (2004~2008) 연세대학교 전기전자공학과 박사졸업 (2008~2014) 현대자동차 자율주행사업부 책임연구원 (2014~현재) |
![]() 임성훈 교수 (DGIST) |
다중 시점 기하학 기초 및 전통/학습기반 스테레오 매칭 방법 소개
Email: sunghoonim@dgist.ac.kr
본 강의에서는 다중 시점 기하학(Multiple view geometry)에 대한 기초적인 개념 및 스테레오 매칭 방법론에 대해 소개한다. 카메라 내부, 외부(Camera intrinsic, extrinsic) 파라메터에 대한 기본 개념 설명을 시작으로 다중 시점 기하학을 통해 다중 카메라 정보 추정 방법 및 3차원 복원 기술에 대해 소개하고자 한다. 이어서 깊이 지도(depth map)를 추정하는 스테레오 매칭 (Stereo matching) 기본 원리에 대해 설명하고, 전통적인 기법에서부터 딥러닝을 활용한 학습기반의 매칭 기법에 이르기까지 기술 발전사에 대해 소개하고자 한다.
Bio : 2019. 09. – 현재: 조교수, 대구경북과학기술원 전기전자컴퓨터공학과
2019.06. - 2019.08.: Visiting Scholar, Carnegie Mellon University 2018.02. – 2018.08.: Research Intern, Microsoft Research Asia |
![]() 백승환 교수 (포항공대) |
차세대 3차원 이미징
Email: shwbaek@postech.ac.kr
본 연구실에서 진행했던 차세대 3차원 이미징 방법론에 대해서 소개한다. 빛의 유한한 속도를 기반으로한 time-of-flight 이미징, 빛의 편광 성분을 이용한 polarization 이미징, 다시점 이미징의 기본적인 원리에 대하여 설명한다. 이러한 다양한 이미징 기법들이 어떻게 3차원 이미징 및 복원을 하는데 사용되는지 이해하고 최신 기술의 문제점을 살펴본다. 이를 바탕으로 제안된 차세대 3차원 이미징 시스템들을 소개하고 관련 내용을 살펴본다. 이 강연을 통하여 청자는 기존에 존재하는 3차원 이미징 시스템과 차세대 3차원 이미징 방법들의 다양한 특징을 이해할 수 있으리라 기대한다.
Bio : KAIST박사 학위 취득 (2019.2)/KAIST 박사 후 연구원 근무(2019.3~2020.1)
Princeton University, Postdoctroal Research Associate 근무(2020.2~2021.12) 포항공과대학교 조교수 (2021.12~현재) |
![]() 주한별 교수 (서울대학교) |
A Deep Dive into 3D Human Pose Estimation
Email: hbjoo@snu.ac.kr
본 강의에서는 영상에서 사람의 움직임을 3차원으로 복원하기 위한 다양한 기술들에 대해 소개한다. 본 강연에서는 사람의 움직임을 표현하기 위한 다양한 representation 들에 대해 소개하고, 사람의 움직임정보를 2차원/3차원으로 추출하기 위한 다양한 방법론들에 대해 탐구한다.
Bio : 2022. 03. – 현재: 전임교수, 서울대학교 컴퓨터공학부 2019 – 2022. 02.: Research Scientist, Facebook AI Research (FAIR), Menlo Park 2017: Research Intern, Facebook Reality Labs, Pittsburgh 2015: Research Intern, Disney Research Zurich 2009 – 2012: 연구원, ETRI |
![]() 김건희 교수 (서울대학교) |
영상, 소리, 텍스트 기반 표현학습 및 질의응답
Email: gunhee@snu.ac.kr
본 강연에서는 서울대학교 시각 및 학습 연구실에서 진행된 영상, 소리, 텍스트 기반 표현학습 및 질의응답 연구에 대해서 소개한다. 첫번째로, 소리-영상 표현 학습을 위한 데이터셋인 ACAV100M에 대해서 소개한다. 특히, 대용량의 영상을 자동으로 획득하기 위한 최적화 방식에 대해서 다룬다. 두 번째로, 360도 영상에서 질의응답을 수행하기 위한 새로운 데이터셋 PanoAVQA과 Transformer 기발 모델에 대해서 설명한다. 마지막으로, 스토리 기반 질의응답을 더 잘 풀기위해, 사전 학습된 영상 인코더와 언어 모델을 조화롭게 학습할 수 있는 방법론에 대해 소개한다.
Bio : 2015 – 현재: 부교수, 서울대학교 컴퓨터공학부 2018 – 현재: 대표, 리플에이아이 2013 – 2014: Disney Research, Postdoctoral Researcher 2013: Carnegie Mellon University, Ph.D. in Computer Science 2008: Carnegie Mellon University, M.S. in Robotics 2001 – 2006: 연구원, 한국과학기술연구원 지능로봇연구센터 |
![]() 오태현 교수 (포항공대) |
멀티모달러닝과 그 응용
Email: taehyun@postech.ac.kr
사람은 오감을 통해 들어오는 신호를 통해 세상과 상호작용을 하며 살아간다. 궁극적으로 사람과 같은 레벨에서 공감하고 소통을 위한 인공지능 개발을 위해서는, 사람과 마찬가지로 다양한 모달리티의 입력 데이터를 고려한 멀티모달 기계지각능력 연구가 선행되어야한다. 그중에 가장 주된 신호원인 시각지각능력을 중심으로, 청각신호 또는 자연어 등 다른 멀티모달 정보를 뉴럴넷을 이용한 합성, 변환, 참조 등의 기법으로 보조하여 기존에 도전적이었던 새롭고 실용적인 응용 사례들을 등장하고 있다.
본 강의에서는 시각정보를 중심으로 멀티모달 학습의 주요 개발 패턴을 살펴보고, 흥미로운 최근 응용 사례들을 소개한다. Bio : 포항공과대학교 전자전기공학과 조교수 (인공지능대학원 겸임) (2020~현재)
POSCO-RIST 오픈랩 연구단장 겸직 (2021~현재) Facebook AI Research 방문연구원 (2019~2020) MIT CSAIL 박사후과정연구원 (2017~2019) Microsoft Research 연구인턴 (2016) Microsoft Research Asia 연구인턴 (2014~2015) Associate Editor, The Visual Computer Journal (TVCJ), Springer |
![]() 김성대 교수 (경희대학교) |
Multimodal Deep Learning for Human-level AI
Email: st.kim@khu.ac.kr
본 강연에서는 멀티모달 데이터를 분석하는 기법에 대해 소개하고, 이를 통해 인간수준 AI를 달성하기 위한 최신 연구에 대해 소개한다. 최근 딥러닝 기술의 발전으로 컴퓨터 비전 및 자연어처리 분야에서 성공적인 연구가 발표되고 있다. 이와 같은 성능을 바탕으로, 다양한 모달리티의 데이터를 융합하는 연구에서부터, 시각-언어 모델을 같이 사용하는 연구까지, 인간과 같이 멀티모달 데이터를 분석하는 인공지능 기술이 발표되고 있다. 본 강연에서는 멀티모달 데이터를 분석하는 기본 개념에 대해 소개하고 이와 관련된 최근 연구를 소개하려고 한다.
Bio : 2021년~현재: 경희대학교 컴퓨터공학과 조교수
2019년~2021년: 독일 Technical University of Munich 박사후연구원 2015년: 캐나다 University of Toronto 방문연구원 2022년~현재: Associate Editor of IEEE Transactions on Circuits and Systems for Video Technology 2022년: MICCAI Area Chair 2018년: SPIE Medical Imaging 학회 Best Student Paper Award 수상 2017년: 삼성전자 휴먼테크논문상 수상 |
(우 : 06130) 서울특별시 강남구 테헤란로7길 22 (역삼동, 과학기술회관 1관 907호)
사업자등록번호 : 220-82-01685/(사)대한전자공학회 대표 : 백광현
TEL. 02-553-0255~7/ FAX. 02-562-4753 /EMAIL. ieie@theieie.org
COPYRIGHT ⓒ IEIE ALL RIGHTS RESERVED.