7월 28일 (월요일): Fundamentals of Information Theory
강의시간 | 강의내용 | 연사 |
09:30~12:30 | Introduction to Information Theory 1: Fundamentals of Information Theory | 이시현 교수(KAIST) |
본 강의에서는 정보 이론의 핵심 개념인 정보 측도(entropy, divergence, mutual information)와 이들의 주요 성질 및 부등식(data processing inequality, Fano’s inequality, asymptotic equipartition property 등)을 소개한다. 이러한 이론적 기반을 바탕으로, 통신 시스템에서 달성 가능한 최적 성능을 규명하는 channel coding theorem에 대해 다룬다. | ||
12:30~14:00 | 중식 | |
14:00~17:00 | Introduction to Information Theory 2: Distortion Theory and Extensions | 서대원 교수(DGIST) |
Part 1에서 다룬 개념을 이용해서 데이터 압축의 핵심 이론인 rate-distortion을 이해하는 것을 목표로 한다. 기본적인 스칼라 양자화 이론부터 시작해서 벡터 양자화 이론인 rate-distortion 이론을 소개한다. 이후 정보이론 연구자들이 기본적인 rate-distortion 결과를 어떤 시나리오로 확장하고 연구하는지 폭넓게 소개한다. |
7월 29일 (화요일): Fundamentals of Machine Learning
강의시간 | 강의내용 | 연사 |
09:30~12:30 | Introduction to Scientific Machine Learning | 손휘재 교수(건국대) |
Physics-Informed Neural Networks(PINNs)를 필두로 다양한 딥러닝 기반 방법론들이 제안되었으며, 이는 과학 계산 분야에서 큰 성과를 거두고 있다. 본 강연에서는 인공신경망의 학습 이론 기초부터 PINNs, Operator Learning 방법론에 이르기까지, 현대 과학 기계학습 전반의 발전 방향과 그 응용에 대해 살펴본다. | ||
12:30~14:00 | 중식 | |
14:00~17:00 | Mathematical Theory of Neural Network Approximation | 고승찬 교수(인하대) |
최근 심층 신경망을 활용한 현대 기계학습 기법들은 다양한 분야에서 놀라운 성과를 이루어냈다. 수학적인 관점에서 보면, 딥러닝은 본질적으로 목표 함수를 근사하는 과정이며, 따라서 고차원에서 신경망의 근사 및 일반화 특성을 이해하는 것이 중요하다. 이 강의의 주요 목적은 고전적인 수치해석(numerical analysis) 이론의 틀 안에서 신경망의 근사 능력을 수학적으로 분석하는 것이다. 우리는 신경망 근사에 적합한 목표 함수의 적절한 정칙성(regularity)을 탐구하고, 이러한 특성들이 신경망의 근사 및 학습 복잡도에 어떻게 반영되는지를 살펴볼 것이다. 또한 이러한 이론들을 작용소 학습 (operator learning) 방법에 적용하여 어떻게 기계학습 기반 방법들을 이론적으로 분석할 수 있는지를 확인할 것이다. |
7월 30일 (수요일): Emerging Topics in Generative AI
강의시간 | 강의내용 | 연사 |
09:30~12:30 | Introduction to Trustworthy LLMs | 박상돈 교수(POSTECH) |
LLM이 우수한 성능을 보임에 따라 LLM의 신뢰성 문제가 화두가 되어 왔다. 그 대표적인 사례로 환각 효과, 편향성, 안전성 등을 꼽을 수 있다. 본 강연에서는 기본이 되는 LLM의 구조 및 대표적인 학습 방법(e.g., LoRA)을 소개한 후, LLM의 신뢰성 문제를 발견(e.g., AutoDAN-turbo) 및 평가하는 방법(e.g., HarmBench)을 알아 볼 것이다. 마지막으로 신뢰성 문제를 완화하는 다양한 방법(e.g., RLHF, Safeguard 모델, selective generation)을 소개할 것이다. | ||
12:30~14:00 | 중식 | |
14:00~17:00 | Introduction to Diffusion Models and Their Applications: From Theory to Video and 3D Generation | 유재준 교수(UNIST) |
최근 생성형 AI(Generative AI)의 핵심 기술로 주목받고 있는 확산모델(Diffusion Model)은 영상, 음성, 3D 데이터 등 다양한 도메인에서 뛰어난 생성 성능을 보이며 전기전자공학 분야에도 빠르게 확산되고 있습니다. 본 강연에서는 확산모델의 작동 원리를 수학적 관점에서 조망하고, score-based model과의 이론적 연관성을 다룹니다. 이러한 이론적인 이해를 바탕으로 실제 연구 사례로서 확산모델 기반의 영상 생성(Video Generation) 및 3차원 생성(3D Generative Modeling)에 대한 연구 결과도 소개합니다. 본 강연은 확산모델의 이론적 기초와 실전 응용을 아우르며, 확산모델을 처음 접하는 대학원생부터 이를 실제 연구에 활용하고자 하는 연구자까지 모두에게 유익한 시간이 될 것입니다. |
7월 31일 (목요일): Emerging Topics in Machine Learning for 6G
강의시간 | 강의내용 | 연사 |
09:30~12:30 | Large Language Model as Knowledge-Free Network Optimizer | 이훈 교수(UNIST) |
차세대 통신 네트워크의 다양한 요구사항을 만족하기 위해서는 하드웨어 결함, 전파 환경, 네트워크 구조 등 복합적인 요소를 고려하여 최적화를 수행해야 한다. 기존의 최적화 방식 및 AI/ML 기법은 사전에 정의된 모델과 데이터집합에 과적합되어 일반화 능력에 한계가 있다. 본 강연에서는 시스템에 대한 사전 지식 없이 최적화를 수행하는 대규모 언어 모델 방법을 소개한다. 최신 연구 동향을 통해 그 유효성을 살펴보고, 한계점과 향후 연구 주제들을 논의한다. | ||
12:30~14:00 | 중식 | |
14:00~17:00 | Introduction to Semantic Communication | 전요셉 교수(POSTECH) |
시맨틱 통신은 비트의 정확한 전달을 중시하던 기존 통신 개념을 넘어, 주어진 과제 수행에 필수적인 핵심 정보를 효율적으로 전달하는 새로운 통신 패러다임이다. 본 강의에서는 시맨틱 통신의 기본 원리부터 최신 연구 동향 및 향후 발전 방향까지 포괄적으로 소개하는 것을 목표로 한다. 먼저, 시맨틱 통신의 핵심 기술들을 설명하고, 이를 구현하기 위해 해결해야 할 주요 도전 과제들을 살펴본다. 이어서, 이러한 과제들을 해결하기 위한 채널 적응형 학습 기법과 물리계층 설계 기술 등을 소개한다. 마지막으로, 시맨틱 통신의 향후 발전 가능성과 주요 연구 과제들에 대해 논의한다. |