FT-MixE: Fourier transform-based efficient mixing of knowledge graph embeddings for improved link prediction


MyoungHoon Lee, 이정혜 (2026) · applied-soft-computing 191:114627 · DOI ↗

FT-MixEKnowledge Graph Completion (KGC) 의 효율적 모형. Triple = “short sentence” 패러다임 + 2D DFT (Fourier Transform) + 2D inverse DFTparameter-free mixing + lightweight Conv1D 확장. FB15k-237, YAGO3-10 에서 MRR + Hit@k 우월, WN18RR 비등. 적은 parameters 로 대규모 KG 처리. 이정혜 · MyoungHoon LeeTOD KG (2022) → FT-MixE (2026) KG 라인 성숙.

  • RQ: Knowledge Graph 의 expressiveness vs efficiency trade-off적은 parameters복잡한 entity-relation 관계 포착 가능한가?
  • 방법론: FT-MixE = 2D Discrete Fourier Transform + 2D inverse DFT + lightweight Conv1D + special tokens (triple as sentence)
  • 데이터: FB15k-237, YAGO3-10, WN18RR (KG benchmark)
  • 주요 발견: (1) FB15k-237, YAGO3-10 MRR + Hit@k 우월 vs baselines. (2) WN18RR 비등 또는 우월. (3) Parameter efficiency — 적은 size큰 KG 처리. (4) Triple 을 “문장 (sentence)” 으로 처리 (LM 의 special token 도입).
  • 시사점: Knowledge Graph Completion (KGC) 의 scalable + promising model. 대규모 KG 응용 (Freebase, WordNet, YAGO, BioKG 등) 에 적합.

요약

이 paper 는 이정혜 의 *3 기 SNU TEMEP 의 KG 라인 성숙 — 2026 최신. MyoungHoon Lee (TOD 의 같은 제 1 저자, Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph) 의 KG 후속 작업. Applied Soft Computing 발표.

방법론적 핵심: 3 가지 결합.

(i) Triple-as-sentence paradigm: KG triple (h,r,t)(h, r, t) (head entity, relation, tail entity) 을 짧은 sentence 로 처리. Language Model 의 special tokens 도입 (e.g. [CLS], [SEP]). 문맥적 의미 (contextual meaning) 포착.

(ii) 2D DFT (Discrete Fourier Transform): Triple embedding 을 2D 공간 에 배치 후 2D DFT + 2D inverse DFTnon-parametric mixing. Parameter 추가 없이 complex frequency-domain 표현. FT-MixE encoder 의 핵심.

(iii) Lightweight Conv1D 확장: 2D DFT 이후 gentle parametric refinement. Total parameter size 가 기존 KGC 모델 보다 작음.

핵심 발견: 3 benchmark 비교:

  • FB15k-237: MRR + Hit@1/3/10 모두 우월 (vs ConvE, RotatE, TuckER 등)
  • YAGO3-10: 우월
  • WN18RR: 비등 또는 우월

Parameter efficiency: FT-MixE 의 parameter count 가 baselines 의 fraction — 대규모 KG (BioKG, Freebase 등) scaling 에 유리.

이정혜연구 궤적 안에서 이 paper 는 실타래 5 (Graph-based methods) 의 정점 — 2026 최신. Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph (KG construction) → 본 paper (KG completion) 의 4 년 발전.

핵심 결과

DatasetFT-MixE vs baselines
FB15k-237MRR + Hit@1/3/10 우월
YAGO3-10우월
WN18RR비등 또는 우월
효율성FT-MixE
Parameter countfraction of baselines
Scalability대규모 KG 우호

방법론 노트

FT-MixE encoder:

Input: triple (h, r, t) with special tokens
Embedding: e_h, e_r, e_t → arranged in 2D matrix E ∈ R^{H×W}
2D DFT: F = DFT2(E)  (parameter-free)
Mixing in frequency domain
2D inverse DFT: E' = IDFT2(F)  (parameter-free)
Conv1D expansion: E'' = Conv1D(E')  (lightweight params)
Score: f(E'')  (link prediction score)

식별 가정: (i) Triple 의 sentence-like 구조, (ii) Frequency domain 의 expressiveness, (iii) Conv1D 의 충분한 capacity.

연구 계보

이 paper 는 (i) Bordes et al. (2013) TransE KGE 본가, (ii) Dettmers et al. (2018) ConvE 정통, (iii) Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph (TOD KG) 직접 선행, (iv) Vaswani et al. (2017) Transformer 의 special tokens — 의 결합. 이정혜연구 궤적 실타래 5 의 정점, 2026 최신.

See also

인접 그래프

1-hop 이웃 4
  • 인물 2
  • 방법론 1
  • 논문 1
이정혜MyoungHoon Lee기계학습 FT-MixE: Fourier tran…
휠 = 확대/축소 · 드래그 = 이동 · hover = 라벨 · 클릭 = 페이지 이동