→ 推論時における検索対象数との大きな差が検索性能に影響 ◦ クエリと文書間の関係のみモデル化 → 文書間同士の類似関係を考慮しない ◦ ハード負例文書を語のマッチングにより作成 → false negative 文書が負例となる可能性あり • ベクトルのメモリ効率化 : [Izacard+’20; Yamada+’21; Zhan+’21; Santhanam+’21; Ma+’21; Zhan+’22] ◦ 検索対象の文書数が膨大 → メモリコストが大きい • クエリとのマッチング強化 : [Sciavolino+’21; Liu+’21; Khattab+’21; Gao+’21; Wang+’21; Wu+’22] ◦ CLS トークンによるマッチング → トークンレベルなど粒度の高いマッチングが難しい • 汎化性能の向上: [Zhuang+’21; Ni+’21; Liu+’21; Chen+’21; Wang+’21] • データ・クエリ拡張: [Lee+’19; Guu+’20; Qu+’21; Izacard+’21; Mao+’21] • アーキテクチャの工夫 :[Izacard+’20; Cheng+’21; Lee+’21; Tay+’22] DPR の問題点と改善案 2022.03.11 第2回AI王最終報告会 8 BPR