FT-MixE: Fourier transform-based efficient mixing of knowledge graph embeddings for improved link prediction
MyoungHoon Lee, 이정혜 (2026) · applied-soft-computing 191:114627 · DOI ↗
FT-MixE — Knowledge Graph Completion (KGC) 의 효율적 모형. Triple = “short sentence” 패러다임 + 2D DFT (Fourier Transform) + 2D inverse DFT 의 parameter-free mixing + lightweight Conv1D 확장. FB15k-237, YAGO3-10 에서 MRR + Hit@k 우월, WN18RR 비등. 적은 parameters 로 대규모 KG 처리. 이정혜 · MyoungHoon Lee 의 TOD KG (2022) → FT-MixE (2026) KG 라인 성숙.
- RQ: Knowledge Graph 의 expressiveness vs efficiency trade-off — 적은 parameters 로 복잡한 entity-relation 관계 포착 가능한가?
- 방법론: FT-MixE = 2D Discrete Fourier Transform + 2D inverse DFT + lightweight Conv1D + special tokens (triple as sentence)
- 데이터: FB15k-237, YAGO3-10, WN18RR (KG benchmark)
- 주요 발견: (1) FB15k-237, YAGO3-10 MRR + Hit@k 우월 vs baselines. (2) WN18RR 비등 또는 우월. (3) Parameter efficiency — 적은 size 로 큰 KG 처리. (4) Triple 을 “문장 (sentence)” 으로 처리 (LM 의 special token 도입).
- 시사점: Knowledge Graph Completion (KGC) 의 scalable + promising model. 대규모 KG 응용 (Freebase, WordNet, YAGO, BioKG 등) 에 적합.
요약
이 paper 는 이정혜 의 *3 기 SNU TEMEP 의 KG 라인 성숙 — 2026 최신. MyoungHoon Lee (TOD 의 같은 제 1 저자, Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph) 의 KG 후속 작업. Applied Soft Computing 발표.
방법론적 핵심: 3 가지 결합.
(i) Triple-as-sentence paradigm: KG triple (head entity, relation, tail entity) 을 짧은 sentence 로 처리. Language Model 의 special tokens 도입 (e.g. [CLS], [SEP]). 문맥적 의미 (contextual meaning) 포착.
(ii) 2D DFT (Discrete Fourier Transform): Triple embedding 을 2D 공간 에 배치 후 2D DFT + 2D inverse DFT 로 non-parametric mixing. Parameter 추가 없이 complex frequency-domain 표현. FT-MixE encoder 의 핵심.
(iii) Lightweight Conv1D 확장: 2D DFT 이후 gentle parametric refinement. Total parameter size 가 기존 KGC 모델 보다 작음.
핵심 발견: 3 benchmark 비교:
- FB15k-237: MRR + Hit@1/3/10 모두 우월 (vs ConvE, RotatE, TuckER 등)
- YAGO3-10: 우월
- WN18RR: 비등 또는 우월
Parameter efficiency: FT-MixE 의 parameter count 가 baselines 의 fraction — 대규모 KG (BioKG, Freebase 등) scaling 에 유리.
이정혜 의 연구 궤적 안에서 이 paper 는 실타래 5 (Graph-based methods) 의 정점 — 2026 최신. Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph (KG construction) → 본 paper (KG completion) 의 4 년 발전.
핵심 결과
| Dataset | FT-MixE vs baselines |
|---|---|
| FB15k-237 | MRR + Hit@1/3/10 우월 |
| YAGO3-10 | 우월 |
| WN18RR | 비등 또는 우월 |
| 효율성 | FT-MixE |
|---|---|
| Parameter count | fraction of baselines |
| Scalability | 대규모 KG 우호 |
방법론 노트
FT-MixE encoder:
Input: triple (h, r, t) with special tokens
Embedding: e_h, e_r, e_t → arranged in 2D matrix E ∈ R^{H×W}
2D DFT: F = DFT2(E) (parameter-free)
Mixing in frequency domain
2D inverse DFT: E' = IDFT2(F) (parameter-free)
Conv1D expansion: E'' = Conv1D(E') (lightweight params)
Score: f(E'') (link prediction score)
식별 가정: (i) Triple 의 sentence-like 구조, (ii) Frequency domain 의 expressiveness, (iii) Conv1D 의 충분한 capacity.
연구 계보
이 paper 는 (i) Bordes et al. (2013) TransE KGE 본가, (ii) Dettmers et al. (2018) ConvE 정통, (iii) Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph (TOD KG) 직접 선행, (iv) Vaswani et al. (2017) Transformer 의 special tokens — 의 결합. 이정혜 의 연구 궤적 실타래 5 의 정점, 2026 최신.
See also
- 이정혜
- MyoungHoon Lee
- 2d-dft
- knowledge-graph-embedding
- knowledge-graph-completion
- link-prediction
- applied-soft-computing
- Technology Opportunity Discovery using Deep Learning-based Text Mining and a Knowledge Graph
인접 그래프
- 인물 2
- 방법론 1
- 논문 1