The Institute of Electronics and Information Engineers
❒ 초대의 글
심층신경망(DNN) 모델의 사용은 많은 AI 애플리케이션에서 성공적인 결과를 이끌고 있습니다. AI의 성능 향상을 위해 DNN 모델 자체에 관련된 연구가 활발히 진행되고 있으나 DNN 모델을 효율적으로 실행할 수 있는 컴퓨팅 시스템 측면에서의 연구는 상대적으로 미흡한 실정입니다. DNN 모델의 엄청난 양의 MAC(Multiple-Accumulate) 연산과 메모리 요구로 인해 IoT 장치와 같은 리소스가 제약된 시스템에서 최신 DNN 모델을 적용하는 것은 여전히 어렵습니다. 이러한 문제를 해결하기 위해 딥러닝을 경량화하고 리소스 한정적인 디바이스에 최적화하기 위한 다양한 접근 방식이 제안되었습니다. 이 워크숍에서는 메모리 내 컴퓨팅을 위한 ReRAM 기술과 재귀 양자화를 통한 메모리 사용량 감소 기술에 대하여 검토하고 논의합니다. 더불어 하이퍼 파라미터 최적화 및 비전 트랜스포머와 같은 고급 주제에 대해서도 다룹니다. 또한, AI 개발 프로세스를 가속화하여 출시 기간을 단축시킬 수 있는 쿠버네티스 기반의 오픈 소스 플랫폼을 소개합니다. 마지막으로, 기존의 모델 중심의 AI를 보완할 수 있는 새로운 연구 방향으로 데이터 중심의 AI를 소개합니다.
AI응용연구회 위원장 김명선
인공지능 및 보안 연구회 위원장 황성운
컴퓨터소사이어티 회장 황성운
대한전자공학회 회장 서승우
❒ 행사 개요
o 행사명: 2022년도 대한전자공학회 AI 응용연구회/ 인공지능 및 보안연구회 합동 워크샵
- System-level core technologies for AI realization
o 일 시 : 2022년 10월 27일 (목)
o 장 소 : 온라인
o 주 최 : 대한전자공학회 AI 응용연구회, 대한전자공학회 인공지능및보안연구회
o 주 관 : 대한전자공학회
o 후 원 :
가천대학교 BK21 FAST인공지능융합센터
홍익대학교 BK21 초분산 자율 컴퓨팅 서비스 기술 연구팀
고려대학교 BK21 IoT 데이터사이언스
한성대학교 지능형컴퓨팅연구실
인천대학교 현장맞춤형 실전문제연구단
서울대학교 자율로봇지능연구실
가천대학교 지능형모바일에지컴퓨팅연구실
IEEE Seoul Section Sensors Council Chapter
IEEE Student Branch at Gachon University
IEEE Sensors Council Student Branch Chapter at Gachon University
❒ 운영위원
o 프로그램 위원장 : 김명선 교수 (한성대), 황성운 교수 (가천대)
o 프로그램 위원 :
Hyung Jin Chang 교수 (University of Birmingham, 영국)
고병철 교수 (계명대)
Wai Kong Lee 박사 (가천대)
안현식 교수 (동명대)
김병서 교수 (홍익대)
조민호 교수 (고려대)
이주형 교수 (가천대)
❒ 세부 프로그램
* 주최측의 사정으로 프로그램이 일부 변경될 수 있습니다.
* 모든 강의는 영어로 진행되며, 각 발표 시간은 50분 입니다.
* 발표 자료는 인쇄본이 아니라 온라인 형태로 제공됩니다.
* 강의 접속 사이트는 강의 시작 1일 전에 등록자 이메일로 공지됩니다.
* 최신 정보는 ai-security.org에서 얻을 수 있습니다
- 2022년 10월 27일 목요일
시간 | 프로그램 | 강연자 |
10:00~10:50 | Vision Transformers: A New Computer Vision Paradigm | 고병철 교수 (계명대) |
11:00~11:50 | Data-Centric Artificial Intelligence: A New Engineering Discipline | Abdul Majeed 박사 (가천대) |
12:00~13:00 | 점 심 | |
13:00~13:50 | Electronic Design Automation for a Next Generation Intelligent Semiconductor Device and Circuit | 정성엽 박사 (차세대융합기술연구원) |
14:00~14:50 | Hyper-parameters Optimization of Deep Neural Networks | 김신규 박사 (Intel Korea) |
15:00~15:50 | Open-source AI/ML Platform based on Kubernetes | 박용석 박사 (RedHat) |
16:00~16:50 | Scalable Precision via Recursive Quantization | 오지훈 박사 (Neubla) |
❒ 강연요약
강연자 | 강연 내용 |
고병철 교수
(계명대) |
Vision Transformers: A New Computer Vision Paradigm |
Transformer structures, which have recently led to successful results in natural language processing (NLP), have also been applied to computer vision. In the same manner in which NLP divides a sentence into several words and allows the transformer to learn the association between each word, a vision transformer (ViT) learns the association between image patches. Consequently, it has been proven that the ViT structure performs better in the field of vision than a convolutional neural network (CNN) structure. This lecture introduces the basic algorithm of ViT, which is emerging as a new issue in computer vision. In addition, I will give a detailed introduction on how the ViT is different from the transformer used in NLP and how it is applied to images. | |
정성엽 박사
(차세대융합기술연구원) |
Electronic Design Automation for a Next Generation Intelligent Semiconductor Device and Circuit |
The advent of artificial intelligence calls for more energy-efficient and high-performance computing hardware. Yet, modern computers employ the von-Neumann architecture in which computation and storage are physically separated so that wasteful power consumption and fundamental time delay exist for the data transfer between two remote components. In-memory computing is an approach to break this bottleneck by conceiving systems that compute within the memory. A resistive switching memory (ReRAM) was proposed as an area- and energy-efficient device for in-memory computing due to their two-terminal structure, resistive switching properties, and direct data processing in the memory. In this talk, I will first introduce the use of a crossbar array (CBA) of ReRAM devices as a neural network hardware. Then, I will examine the state-of-the-art electronic design automation (EDA) environment for the design technology to co-optimize ReRAM devices and their crossbar array. To this end, we will explore technology computer aided design (TCAD) tools for describing the microscopic physical mechanisms involved in the resistive switching of ReRAM. In addition, I will discuss the compact modeling of ReRAM devices, its applications in their CBA design, and the challenges in accurate and fast SPICE simulation. I hope that this seminar would be helpful for those who wonder how next-generation intelligent semiconductor device and circuit are developed. | |
김신규 박사 (Intel Korea) |
Hyper-parameters Optimization of Deep Neural Networks |
As deep neural networks become more complex, it is very challenging to find optimal hyper-parameters that can train deep neural networks well. This is because not only the number of hyper-parameters to be set increases, but also the resources required for training increase as the neural network becomes huge. To solve this problem, the “Hyper-parameters Optimization” (HPO) technique was introduced, and many researchers and companies have developed various HPO techniques. In this talk, I will explain various HPO techniques that have been studied so far, and the problems to be solved in the future. | |
박용석 박사 (RedHat) |
Open-source AI/ML Platform based on Kubernetes |
AI/ML applications have a long and tedious lifecycle that involves many steps such as data collection, pre-processing, model learning, validation, deployment, optimization, upgrade, and termination. Containers and Kubernetes have become a key to accelerate the AI/ML lifecycle as these technologies provide data engineers and scientists with the much needed agility, flexibility, portability, and scalability to the lifecycle. In this talk, I will discuss AI/ML platforms that take advantage of the latest open-source container technologies with integrated DevOps and accelerator technologies. | |
오지훈 박사 (Neubla) |
Scalable Precision via Recursive Quantization |
Uniform quantization with low precision often causes severe performance degradation. Mixed-precision quantization addresses this problem but requires dedicated hardware and instruction set supporting multiple bit-widths, which is less efficient than single-precision hardware. We propose a novel learning-based recursive quantization framework with single precision that compensates consecutively for the quantization error of weights. | |
Abdul Majeed 박사 (가천대) |
Data-Centric Artificial Intelligence: A New Engineering Discipline |
The advent of AI has transformed the IT industry with a significant impact on nations and societies across the globe. In this talk, I will introduce a brand new and big concept related to AI, named Data-Centric AI. Specifically, I will present fundamentals, use cases, and opinions of industry experts related to Data-Centric AI, which is a promising research area with a lot of potential than the conventional Model-Centric AI. I will discuss the advantages of this new engineering discipline that can pave the way in rectifying the unsustainable research trajectories in the AI domain. Lastly, some enabling technologies targeting Data-Centric AI will be discussed. |
❒ 등록비 안내
구분 | 학생 | 일반 |
사전등록 |
150,000원 | 300,000원 |
결제방법 | 카드영수증 | 계산서(전자) | 거래명세서 |
카드결제 | 가능(온라인 출력) | 불가능(이중발급) | 기본발행 |
계좌이체무통장 결제 | 불가능 | 가능(전자) | 기본발행 |
(우 : 06130) 서울특별시 강남구 테헤란로7길 22 (역삼동, 과학기술회관 1관 907호)
사업자등록번호 : 220-82-01685/(사)대한전자공학회 대표 : 백광현
TEL. 02-553-0255~7/ FAX. 02-562-4753 /EMAIL. ieie@theieie.org
COPYRIGHT ⓒ IEIE ALL RIGHTS RESERVED.