Connecting Low-Loss Subspace for Personalized Federated Learning


Seok-Ju Hahn, Minwoo Jeong, 이정혜 (2022) · kdd ‘22:505-515 · DOI ↗

이정혜연합학습 연구 대표작 — KDD 2022 (25 회 인용, KDD 최상위 학회). SuPerFed (Connecting Low-Loss Subspace) — hypernetwork 기반 모델 혼합 + 로컬-글로벌 모델 간 low-loss subspace 연결성 (cosine 유사도) 정규화. SuPerFed-MM (모델 혼합), SuPerFed-LM (레이어 혼합). 비IID (pathological, Dirichlet) 환경에서 우수 성능. “파라미터 공간이 아닌 loss landscape 에서의 모델 혼합이 개인화에 효과적” — 이론적 기여.

  • RQ: Non-IID 데이터 환경의 federated learning 에서 개인화 (personalization) 어떻게 효과적으로? 로컬 모델과 글로벌 모델의 적절한 혼합 은?
  • 방법론: SuPerFed — hypernetwork 으로 mixing constant λ\lambda 생성 + 로컬-글로벌 low-loss subspace 연결성 cosine 정규화. 변종: SuPerFed-MM (model mixing), SuPerFed-LM (layer mixing)
  • 데이터: 비IID benchmarks (pathological partition, Dirichlet partition) + 표준 federated learning datasets
  • 주요 발견: (1) SuPerFed > 기존 personalized FL 방법 — 비IID 환경에서 우수. (2) Loss landscape 에서의 모델 혼합이 핵심 — 파라미터 공간 보다 효과적. (3) Layer mixing > Model mixing — 더 세밀한 개인화. (4) Low-loss subspace 의 연결성 이 ID 와 개인화의 균형.
  • 시사점: KDD 최상위 학회 발표 → 국제적 인지도. Personalization 의 이론적 정밀화 — 단순 fine-tuning 또는 multi-task learning 의 한계 극복. 이정혜 2 기 UNIST 시기 의 시그니처 작업.

SuPerFed 의 low-loss subspace 기반 로컬·글로벌 모델 혼합 도식.

요약

이 paper 는 이정혜 의 *2 기 UNIST 시기 의 연합학습 대표작 — KDD 2022 (KDD 최상위 학회) 발표. Seok-Ju Hahn (제 1 저자, UNIST 박사) 의 D3M Lab 의 시그니처 작업. 이정혜 author page 의 전환점 2 (SuPerFed @ KDD).

방법론적 핵심: Low-loss subspace 개념 활용. 일반적으로 loss landscape 가 high-dim non-convex 인데, 동일 task 의 여러 minimalow-loss subspace (e.g. linear interpolation 또는 quadratic Bezier curve) 으로 연결 가능 함이 보고됨 (Garipov et al. 2018).

SuPerFed 아이디어: 로컬 모델 θklocal\theta_k^{local} 과 글로벌 모델 θglobal\theta^{global} 사이의 low-loss subspace 에서 mixing — 두 모델이 같은 task 의 다른 good solution. Mixing constant λ\lambdahypernetwork (작은 NN) 가 생성.

Loss:

LSuPerFed=Ltask((1λ)θglobal+λθklocal;datak)+αCosineSimilarity(θglobal,θklocal)\mathcal{L}_{\text{SuPerFed}} = \mathcal{L}_{\text{task}}((1-\lambda)\theta^{global} + \lambda \theta_k^{local}; \text{data}_k) + \alpha \cdot \text{CosineSimilarity}(\theta^{global}, \theta_k^{local})

Cosine similarity 정규화가 low-loss subspace 의 연결성 강제 — 두 모델이 같은 ridge 위에 머물도록.

변종:

  • SuPerFed-MM (Model Mixing): 전체 모델 파라미터에 λ\lambda 적용
  • SuPerFed-LM (Layer Mixing): 레이어별 λ\lambda — 더 세밀한 개인화

핵심 발견: 비IID benchmark (pathological — 각 client 가 1-2 class 만 보유; Dirichlet — Dirichlet distribution 기반 partition) 에서 SuPerFed > 기존 personalized FL (FedPer, pFedMe, Per-FedAvg 등). Layer mixing 이 더 우수 — 일부 layer 는 global 정보, 일부는 local 적응.

이정혜연구 궤적 안에서 이 paper 는 실타래 2 (Privacy-preserving / FL) 의 정점. 전환점 2. 후속 seok-ju-hahn-2024-aagffl (2024 ICML 공정성) 으로 FL theory line 발전.

핵심 결과

방법비IID 성능
FedAvg (baseline)평균
FedPer중간
pFedMe중간
Per-FedAvg중간
SuPerFed-MM우수
SuPerFed-LM최고
  • KDD 2022 발표 (최상위 학회)
  • 인용 수 25 (2 년 내)
  • Low-loss subspace 개념의 federated learning 적용

방법론 노트

hypernetwork: 작은 신경망 hϕ(ck)λkh_\phi(c_k) \to \lambda_k, ckc_k = client context (data 통계 또는 ID).

SuPerFed update:

For each client k:
  Compute λ_k = h_φ(c_k)
  Mixed model θ_k^mix = (1-λ_k)*θ^global + λ_k*θ_k^local
  Compute loss on local data using θ_k^mix
  Update θ_k^local via SGD
  Send Δθ_k to server

Server: 
  Aggregate Δθ → update θ^global (FedAvg-style)
  Update φ (hypernetwork)

Cosine similarity 정규화 αcos(θglobal,θklocal)\alpha \cdot \cos(\theta^{global}, \theta_k^{local}) 가 두 모델 간 거리 유지.

식별 가정: (i) Low-loss subspace 의 task connectivity, (ii) hypernetwork 의 적절한 capacity, (iii) cosine similarity 의 직접적 alignment.

연구 계보

이 paper 는 (i) Garipov et al. (2018) low-loss connectivity 본가, (ii) Ha et al. (2017) hypernetwork 정통, (iii) McMahan et al. (2017) FedAvg 본가, (iv) Privacy-Preserving Patient Similarity Learning in a Federated Environment: Development and Analysis 직접 선행 — 의 결합. 이정혜연구 궤적 실타래 2 의 정점, 전환점 2.

See also

인접 그래프

1-hop 이웃 7
  • 인물 3
  • 방법론 1
  • 논문 3
이정혜Minwoo JeongSeok-Ju Hahn기계학습 Connecting Low-Loss S…
휠 = 확대/축소 · 드래그 = 이동 · hover = 라벨 · 클릭 = 페이지 이동