7월 28일 (월요일): Fundamentals of Information Theory

강의시간강의내용연사
09:30~12:30Introduction to Information Theory 1: Fundamentals of Information Theory이시현 교수(KAIST)
본 강의에서는 정보 이론의 핵심 개념인 정보 측도(entropy, divergence, mutual information)와 이들의 주요 성질 및 부등식(data processing inequality, Fano’s inequality, asymptotic equipartition property 등)을 소개한다. 이러한 이론적 기반을 바탕으로, 통신 시스템에서 달성 가능한 최적 성능을 규명하는 channel coding theorem에 대해 다룬다.
12:30~14:00 중식
14:00~17:00Introduction to Information Theory 2: Distortion Theory and Extensions서대원 교수(DGIST)
Part 1에서 다룬 개념을 이용해서 데이터 압축의 핵심 이론인 rate-distortion을 이해하는 것을 목표로 한다. 기본적인 스칼라 양자화 이론부터 시작해서 벡터 양자화 이론인 rate-distortion 이론을 소개한다. 이후 정보이론 연구자들이 기본적인 rate-distortion 결과를 어떤 시나리오로 확장하고 연구하는지 폭넓게 소개한다.

7월 29일 (화요일): Fundamentals of Machine Learning

강의시간강의내용연사
09:30~12:30Introduction to Scientific Machine Learning손휘재 교수(건국대)
Physics-Informed Neural Networks(PINNs)를 필두로 다양한 딥러닝 기반 방법론들이 제안되었으며, 이는 과학 계산 분야에서 큰 성과를 거두고 있다. 본 강연에서는 인공신경망의 학습 이론 기초부터 PINNs, Operator Learning 방법론에 이르기까지, 현대 과학 기계학습 전반의 발전 방향과 그 응용에 대해 살펴본다.
12:30~14:00 중식
14:00~17:00Mathematical Theory of Neural Network Approximation고승찬 교수(인하대)
최근 심층 신경망을 활용한 현대 기계학습 기법들은 다양한 분야에서 놀라운 성과를 이루어냈다. 수학적인 관점에서 보면, 딥러닝은 본질적으로 목표 함수를 근사하는 과정이며, 따라서 고차원에서 신경망의 근사 및 일반화 특성을 이해하는 것이 중요하다. 이 강의의 주요 목적은 고전적인 수치해석(numerical analysis) 이론의 틀 안에서 신경망의 근사 능력을 수학적으로 분석하는 것이다. 우리는 신경망 근사에 적합한 목표 함수의 적절한 정칙성(regularity)을 탐구하고, 이러한 특성들이 신경망의 근사 및 학습 복잡도에 어떻게 반영되는지를 살펴볼 것이다. 또한 이러한 이론들을 작용소 학습 (operator learning) 방법에 적용하여 어떻게 기계학습 기반 방법들을 이론적으로 분석할 수 있는지를 확인할 것이다.

7월 30일 (수요일): Emerging Topics in Generative AI

강의시간강의내용연사
09:30~12:30Introduction to Trustworthy LLMs 박상돈 교수(POSTECH)
LLM이 우수한 성능을 보임에 따라 LLM의 신뢰성 문제가 화두가 되어 왔다. 그 대표적인 사례로 환각 효과, 편향성, 안전성 등을 꼽을 수 있다. 본 강연에서는 기본이 되는 LLM의 구조 및 대표적인 학습 방법(e.g., LoRA)을 소개한 후, LLM의 신뢰성 문제를 발견(e.g., AutoDAN-turbo) 및 평가하는 방법(e.g., HarmBench)을 알아 볼 것이다. 마지막으로 신뢰성 문제를 완화하는 다양한 방법(e.g., RLHF, Safeguard 모델, selective generation)을 소개할 것이다.
12:30~14:00 중식
14:00~17:00Introduction to Diffusion Models and Their Applications: From Theory to Video and 3D Generation유재준 교수(UNIST)
최근 생성형 AI(Generative AI)의 핵심 기술로 주목받고 있는 확산모델(Diffusion Model)은 영상, 음성, 3D 데이터 등 다양한 도메인에서 뛰어난 생성 성능을 보이며 전기전자공학 분야에도 빠르게 확산되고 있습니다. 본 강연에서는 확산모델의 작동 원리를 수학적 관점에서 조망하고, score-based model과의 이론적 연관성을 다룹니다. 이러한 이론적인 이해를 바탕으로 실제 연구 사례로서 확산모델 기반의 영상 생성(Video Generation) 및 3차원 생성(3D Generative Modeling)에 대한 연구 결과도 소개합니다. 본 강연은 확산모델의 이론적 기초와 실전 응용을 아우르며, 확산모델을 처음 접하는 대학원생부터 이를 실제 연구에 활용하고자 하는 연구자까지 모두에게 유익한 시간이 될 것입니다.

7월 31일 (목요일): Emerging Topics in Machine Learning for 6G

강의시간강의내용연사
09:30~12:30Large Language Model as Knowledge-Free Network Optimizer이훈 교수(UNIST)
차세대 통신 네트워크의 다양한 요구사항을 만족하기 위해서는 하드웨어 결함, 전파 환경, 네트워크 구조 등 복합적인 요소를 고려하여 최적화를 수행해야 한다. 기존의 최적화 방식 및 AI/ML 기법은 사전에 정의된 모델과 데이터집합에 과적합되어 일반화 능력에 한계가 있다. 본 강연에서는 시스템에 대한 사전 지식 없이 최적화를 수행하는 대규모 언어 모델 방법을 소개한다. 최신 연구 동향을 통해 그 유효성을 살펴보고, 한계점과 향후 연구 주제들을 논의한다.
12:30~14:00 중식
14:00~17:00Introduction to Semantic Communication전요셉 교수(POSTECH)
시맨틱 통신은 비트의 정확한 전달을 중시하던 기존 통신 개념을 넘어, 주어진 과제 수행에 필수적인 핵심 정보를 효율적으로 전달하는 새로운 통신 패러다임이다. 본 강의에서는 시맨틱 통신의 기본 원리부터 최신 연구 동향 및 향후 발전 방향까지 포괄적으로 소개하는 것을 목표로 한다. 먼저, 시맨틱 통신의 핵심 기술들을 설명하고, 이를 구현하기 위해 해결해야 할 주요 도전 과제들을 살펴본다. 이어서, 이러한 과제들을 해결하기 위한 채널 적응형 학습 기법과 물리계층 설계 기술 등을 소개한다. 마지막으로, 시맨틱 통신의 향후 발전 가능성과 주요 연구 과제들에 대해 논의한다.