7월 29일 월요일

강의시간강의내용연사
09:30~12:30Introduction to Information Theory 1: Fundamentals of Information Theory홍송남 교수
(한양대)
본 강의에서는 정보 이론의 기본 개념 및 이론들에 대해 살펴본다. 특히, 정보 이론의 핵심 개념인 Information Measures (Entropy, Divergence, Mutual Information), Fundamental Inequalities (Data processing inequality, Fano inequality) 및 AEP (Asymptotic equipartition property)에 대해서 알아보고 기계학습 및 통신 연구에서 이를 응용하는 사례를 소개한다.
12:30~14:00중식
14:00~17:00Introduction to Information Theory 2: Information Theory in Communication and Data Compression이시현 교수
(KAIST)
본 강의에서는 통신 및 데이터 압축 분야에서 정보 이론적 결과에 대해 살펴본다. 특히, 통신 및 데이터 압축의 최적 성능에 대한 channel coding theorem, rate-distortion theory, source-channel separation theorem에 대해 다루고, 주요 네트워크 모델에서의 정보 이론적 결과에 대해 소개한다.

7월 30일 화요일

강의시간강의내용연사
09:30~12:30Introduction to Graph Learning 1: Graph Signal Processing for ML신원용 교수
(연세대)
그래프 신호 처리 관점에서 그래프 필터링은 기계학습 문제 해결 시 매우 낮은 계산 복잡도와 함께 state-of-the-art 성능을 보이는 것으로 알려져 왔다. 본 강의에서는 그래프 필터링과 그래프 학습 간 방법 간 연결을 짓는 것을 목적으로 한다. 먼저, 잘 알려진 graph convolutional network (GCN)의 기본 원리가 그래프 필터로 해석될 수 있음을 설명한다. 그리고, 복잡한 모델 학습 과정 없이 low-pass filter만을 사용하는 그래프 필터 방법을 소개한다. 구체적으로, 추천 시스템을 위해 학습을 필요로 하지 않는 그래프 필터링 기반 협업 필터링 방식을 보이고, 실세계 추천 영역에 어떻게 응용될 수 있는지를 토의한다.
12:30~14:00중식
14:00~17:00Introduction to Graph Learning 2: Graph Matching: Fundamental Limits and Efficient Algorithms정혜원 교수
(KAIST)
본 강의는 그래프 매칭 문제에 대한 포괄적인 개요를 제공한다. 그래프 매칭 문제는 데이터 과학, 생물 의학 응용, 검색 가능한 암호화 등 다양한 분야에서 중요한 과제로 다루어진다. 그래프 매칭은 NP-complete 문제이지만, 랜덤 그래프로 효과적으로 모델링된 많은 실제 네트워크에서는 점근적 한계에서 상전이 현상이 관찰되어 이에 대한 연구가 활발히 진행되고 있다. 본 강의는 그래프 매칭 연구에 사용되는 주요 기술 도구와 정보 이론적 한계, 효율적인 알고리즘 개발에 관한 최근 발견을 다룬다.

7월 31일 수요일

강의시간강의내용연사
09:30~12:30Transformer for Communications김용준 교수
(POSTECH)
트랜스포머(transformer)는 기존의 심층 신경망 구조를 대체하여, 자연어 처리(NLP), 컴퓨터 비전, 그리고 생성형 AI 등 대부분의 분야에서 표준적인 모델로 광범위하게 사용 되고 있다. 본 강연에서는 1) 트랜스포머의 기본 구조 및 특징, 2) 트랜스포머의 어텐션을 활용한 시맨틱 통신, 3) 트랜스포머를 사용한 채널 코딩의 범용 복호 등에 대해 살펴본다.
12:30~14:00중식
14:00~17:00Resource Management for AI-Native Networks곽정호 교수
(DGIST)
본 강의에서는 최근 6G Open-RAN 네트워크의 주요 특징으로 이야기되고 있는 AI-native network에 대해 소개하고, 해당 네트워크에서 동적 최적화 및 학습이론을 적용한 자원관리방안에 대해 알아본다. 전반부에는 OpenRAN 구조의 주요 특징 및 AI for network, network for AI의 주요 개념에 대해 살펴보고, 컴퓨팅, 스토리지, 네트워크 자원의 정의에 대해 알아본다. 후반부에는 AI-native 네트워크 구조에서 Lyapunov 최적화와 강화학습이론을 적용하여 컴퓨팅, 스토리지, 네트워크 자원을 효율적으로 관리하면서 AI 어플리케이션의 성능을 향상시키기 위한 최근 연구 결과 및 동향에 대해 살펴본다.

8월 1일 목요일

강의시간강의내용연사
09:30~12:30Federated Learning소진현 교수
(DGIST)
본 강의에서는 분산 시스템에서 인공지능 모델을 학습하기 위한 방법으로 많이 사용되고 있는 federated learning (FL)에 대해 알아본다. 전반부에서는 FL의 기본 동작 방법 및 원리를 설명하고, 주요 논문들과 함께 FL에서 고려되어야 할 중요한 문제들에 대해서 생각해본다. 후반부에서는 FL의 Key design principle 중 하나인 데이터 프라이버시에 대해서 살펴본다. 데이터 프라이버시를 위협하는 model inversion attack과 이를 방어하기 위해 구글에서 제안한 secure aggregation 기법을 소개하고, 프라이버시 강화를 위한 최근 연구 결과 및 동향에 대해서 살펴본다.
12:30~14:00중식
14:00~17:00Gradient Sign Information is All You Need for Distributed Learning이남윤 교수
(고려대)
분산 학습은 여러 엣지 컴퓨팅 및 데이터를 활용하여 대규모 학습 모델 훈련을 가속화하는 효과적인 접근법이다. 본 강의에서는 고전적인 오류 정정 부호 이론을 통해 다수결 원칙을 사용하는 signSGD-MV 알고리즘을 통신 문제로 재해석하는 방식에 대해 소개한다. 이를 통해 기존 signSGD-MV 분산 최적화 알고리즘의 단점을 극복하는 soft majority voting 방식의 새로운 signSGD 최적화 기법에 대해 설명한다. 새로 제안한 방식을 통해 edge worker들이 이기종 데이터 분포나 연산 능력 차이가 있거나 적대적 작업자가 존재하는 경우에도 local gradient 부호 정보만으로 모델 최적화를 수행할 수 있음을 이론적으로 실험적으로 보인다.