- 2025년 3월 7일 오전 11:50
- 조회수: 140
INFORMATION
- 2025년 3월 7일
- 오후 12시 ~
- 온라인 비디오 시청 (YouTube)
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
청취자 후기

이번 세미나는 Federated Learning를 주제로 진행되었다. 데이터가 부족하다기 보다 다양한 곳에서 여러 형태의 데이터로 존재 할 수 있다. 이렇게 퍼져있는 데이터를 활용해서 좋은 성능의 모델을 만드는 것이 Federated Learning의 핵심이다.
글로벌 모델을 Servse, 로컬 모델을 Client로 정의한 뒤 미니 배치를 활용한 FedSGD, FedAvg 등의 알고리즘을 이용해 점진적으로 학습 한다. 이 때 업데이트를 round라고 하는데 round 마다 몇 개의 Clinent를 사용할지, epoch을 몇으로 할지, 배치를 몇으로 할지에 따라 성능의 변화가 생긴다. 두 알고리즘에 통계적 이질성을 개선한 FedProx와 자세한 설명이 가능하게된 Convergence of FedAvg에 대해서도 설명해 주었다.
실제 Client마다 데이터 형태가 다른 경우에도 적용되는 연구가 있는지 궁금했고, 어떤 클라이언트를 먼저 학습하는지에 따라서 성능 차이가 존재 할 것 같고 이런 부분은 어떻게 해결하는지 궁금해졌다.
흥미로운 분야에 대해서 잘 설명해준 지형이에게 고맙다는 말 전하고 싶다.

이번 세미나는 데이터 프라이버시 문제와 여러 디바이스를 사용하여 분산된 학습 상황인 Federated learning(연합 학습)에 대한 개념과 baseline으로 주로 사용되는 방법론들에 대해 소개되었다.
첫 번째 방법론인 FedAvg는 local update에서 학습한 파라미터를 평균하여 글로벌 업데이트를 대체하는 방법론이다. 베이스라인으로 사용된 FedSGD는 local update마다 서버와 소통하는 communication 횟수가 FedAvg보다 높은 방법론이다. 이와 달리 FedAvg는 local epoch 횟수를 두어 communication 횟수를 1/local epoch으로 하여 cost를 줄였다는 강점을 보인다.
두 번째 방법론인 FedProx는 local 학습 시 서버와 너무 멀어진다면 local optima에 빠질 수 있다는 통계적 이질성, 디바이스 사양에 따라 epoch수를 조정해야 한다는 시스템 이질성을 개선하는 방법론이다. FedAvg보다 수렴성이 높다는 실험결과를 보인다.
마지막 방법론은 FedAvg 수렴에 대한 수학적 증명을 보여주는 방법론이다. Local update 하이퍼파라미터에 대한 중요성에 대해 수학적, 실험적으로 입증한 논문이다.
개인 연구로 연합학습 스터디를 지형이와 진행하고 있는데, 수학적인 부분과 기초 이론을 탄탄하게 이해하고 다음 스텝으로 넘어가고자 하는 부분이 같이 공부하는 입장에서 매우 도움이 되고 본 받을 점이 많은 후배라고 생각한다. 앞으로 지형이가 하고자 하는 연구가 매우 기대되며, 좋은 세미나 준비하느라 고생 많았다는 말을 전하며 세미나 후기를 마친다.

연합학습에 관한 세미나를 청취하였다. 분산학습과 연합학습 사이의 차이, 연합학습의 필요성 및 주요 개념, 알고리즘에 관한 내용들을 주로 이해할 수 있었다. FedSGD --> FedAvg --> FedProx까지 알고리즘 개발 흐름과 주요 내용들을 이해하고 정리하는데 특히 많은 도움이 되었다. 연합학습을 잘 모르는 입장에서도 쉽게 이해할 수 있으니, 많은 연구원들이 청취해보면 좋을 것 같다. 개인적으로 인상 깊었던 부분은 연합학습 분야에서의 통계적 및 시스템적 이질성 문제였고, 이에 대해 앞으로 얼마나 더 복잡한 문제 상황을 가정해가며 미래 알고리즘들이 어떤 방법으로 해결해갈지 궁금하였다. 실무적인 관점에서는 연합학습 알고리즘들에 대한 하이퍼파라미터 부분 설명이 재밌었다. 글로벌 모델의 수렴 속도를 빠르게 하기 위해서는 로컬 모델들이 얼마만큼 학습을 해야 하고 의사 소통 해야 할 지 결정하는 내용들이었는데, 해당 부분들 앞으로 써먹기들 위해서 잘 기억해두려 한다.

이번 세미나는 연합학습에 대해 진행되었다. 연합학습은 데이터가 분산 되어있는 상황에서 데이터를 확보하지 않고 오직 모델 가중치만을 활용하여 마치 이들을 함께 활용하는 듯한 효과를 얻는 학습 방법이다. 하지만, 모델 가중치만을 활용하여 모든 데이터를 갖고 있는 것처럼 학습하는 것은 쉽지 않다. 이에, 본 세미나에서는 Communication Cost, Partial Participation, Non-IID, 데이터 불균형을 대표적인 연합학습에서 해결해야 할 문제로 든다. 대표적인 연합학습 방법론은 FedAvg다. 이는 Communication Cost, Partial Participation 및 데이터 불균형을 고려하기 위해 Local 모델을 여러 번 업데이트 후 Global 모델을 업데이트하여 Communication Cost를 줄이고, 일부 Local 모델만 참여시키며, Global 모델 업데이트 시 Local 모델에서 활용한 데이터 개수를 고려한다. 하지만 여전히 Non-IID에 대해서는 해결되지 않는다. 이를 FedProx에서 통계적 이질성 및 시스템적 이질성을 고려하여 해결하였다. 마지막으로, 수렴성에 대한 증명은 3번째 논문에서 입증한다.
연합학습에 대해 대략적으로만 알고 있었지만, 이번 세미나를 계기로 어느정도 이해할 수 있었다. 증명까지는 정확히 이해하진 못했지만, 대략적으로 어떤 문제를 해결하고자 하는지 이해할 수 있어서 재밌게 청취하였다. 향후 인공지능이 나아가야 할 방향성 중 하나로 생각되었고, 업데이트 횟수나 모델 별 성능 차이 등을 고려한 실험도 꽤나 재미있게 다가왔다. 유익한 세미나를 준비해준 최지형 연구원님께 고맙다는 말을 전하며 세미나 후기를 마친다.