Pursuing Overall Welfare in Federated Learning through Sequential Decision Making


Seok-Ju Hahn, Gi-Soo Kim, 이정혜 (2024) · icml 2024

AAggFF (Adaptive Aggregation for Federated Fairness) — federated learning 의 client-level fairnessonline convex optimization + sequential decision making frame 으로 통합. 이정혜 의 ICML 2024 — 최상위 학회. Cross-device + cross-silo 변종 — sublinear regret bounds O(TlogK)\mathcal{O}(\sqrt{T \log K}), O(KlogT)\mathcal{O}(K \log T). 기존 fairness-aware aggregation 방법들이 server 의 sequential decision 으로 통일 가능함을 보임.

  • RQ: Federated learning 의 fairness-aware aggregation 전략을 통일된 이론 frame 으로 표현 가능한가? Cross-device + cross-silo 모두에서 최적 regret bound?
  • 방법론: online-convex-optimization (OCO) frame + adaptive aggregation + cross-device/cross-silo 변종 + theoretical analysis
  • 데이터: 비IID 시나리오, fairness benchmark federated datasets
  • 주요 발견: (1) 기존 fairness-aware aggregation 이 OCO frame 으로 통일. (2) Cross-device regret O(TlogK)\mathcal{O}(\sqrt{T \log K}), cross-silo O(KlogT)\mathcal{O}(K \log T). (3) AAggFF 가 기존 방법보다 우수한 client-level fairness. (4) Theoretical guarantees + practical performance.
  • 시사점: Fairness in FL 의 theoretical foundation. Cross-device (모바일, 수천 clients) vs cross-silo (병원, 수십 silos) 의 practical 구분 + 각각 최적 방법. ICML 발표로 international recognition.

AAggFF 의 federated fairness 를 online convex optimization 으로 통합한 cross-device·cross-silo 프레임 도식.

요약

이 paper 는 이정혜3 기 SNU TEMEP 의 FL 이론 정점ICML 2024 (최상위 학회) 발표. Seok-Ju Hahn (SuPerFed 의 같은 제 1 저자) + Gi-Soo Kim (UNIST 산업공학, AI Graduate School) 의 협업. junghye-lee-2022-superfed (KDD 2022) 의 fairness 측면 확장.

방법론적 핵심: Federated fairness 의 OCO 통일. 기존 fairness-aware aggregation:

  • FedAvg — 단순 weighted average (fairness 무시)
  • q-FFL — power-q mean 으로 unfairness 페널티
  • FairFed — fairness gap 기반 weight 조정
  • Ditto — local-global trade-off

이들이 모두 central server 의 sequential decision making (online convex optimization) 으로 표현 가능함을 발견. 즉 매 round 에서 aggregation weight λt\lambda_tover time adapt.

AAggFF:

  • Cross-device (수천 clients, 일부만 active per round): regret O(TlogK)\mathcal{O}(\sqrt{T \log K}) — FTRL (Follow-The-Regularized-Leader) 류
  • Cross-silo (수십 silos, 모두 always active): regret O(KlogT)\mathcal{O}(K \log T) — Exp3 류 (multi-armed bandit)

핵심 발견: AAggFF 가 기존 방법 outperform — client-level fairness 지표 우월. Theoretical regret bound 가 fast convergence 보장.

이정혜연구 궤적 안에서 이 paper 는 실타래 2 (FL) 의 이론 정점 + 3 기 ICML 발표. Connecting Low-Loss Subspace for Personalized Federated Learning 의 자매 / 동일 제 1 저자 박사 연구 시리즈.

핵심 결과

SettingRegret BoundAlgorithm
Cross-deviceO(TlogK)\mathcal{O}(\sqrt{T \log K})FTRL-style
Cross-siloO(KlogT)\mathcal{O}(K \log T)Exp3-style
  • ICML 2024 발표 (최상위 학회)
  • Theoretical + practical performance
  • Existing fairness aggregation 의 OCO 통일

방법론 노트

OCO formulation: 매 round tt 에 server 가 aggregation weights πtΔK\pi_t \in \Delta^K (probability simplex) 선택. Loss t(πt)\ell_t(\pi_t) = unfairness measure.

Regret(T)=t=1Tt(πt)minπt=1Tt(π)\text{Regret}(T) = \sum_{t=1}^T \ell_t(\pi_t) - \min_{\pi^*} \sum_{t=1}^T \ell_t(\pi^*)

FTRL update:

πt+1=argminπsts(π)+1ηtΨ(π)\pi_{t+1} = \arg\min_\pi \sum_{s \leq t} \ell_s(\pi) + \frac{1}{\eta_t} \Psi(\pi)

Ψ\Psi = regularizer (e.g. entropy).

식별 가정: (i) Loss function 의 convexity, (ii) Gradient access (sub-gradient), (iii) Cross-device 의 partial participation, cross-silo 의 full participation.

연구 계보

이 paper 는 (i) Cesa-Bianchi & Lugosi (2006) online learning 정통, (ii) Li et al. (2020) q-FFL 직접 선행, (iii) Connecting Low-Loss Subspace for Personalized Federated Learning 의 personalization 라인 연결 — 의 결합. 이정혜연구 궤적 실타래 2 의 이론 정점.

See also

인접 그래프

1-hop 이웃 5
  • 인물 3
  • 논문 2
이정혜Gi-Soo KimSeok-Ju Hahn Pursuing Overall Welf…
휠 = 확대/축소 · 드래그 = 이동 · hover = 라벨 · 클릭 = 페이지 이동