IR Reading 2023 春にて紹介した "Making Pre-trained Language Models End-to-end Few-shot Learners with Contrastive Prompt Tuning (WSDM 2023)" の概要スライドです.従来の prompt-based learning ではタスクごとに適切な prompt (pattern, verbalizer) を作成する必要がありましたが,提案手法ではタスクごとに個別の verbalizer を設定する必要のない(verbalizer-free な)手法である Contrastive Prompt Tuning (CP-Tuning) を提案しています.また,サンプルの難易度を考慮した contrastive learning である Pair-wise Cost-sensitive Contrastive Loss (PCCL) も提案しています.不適切な記述などがあればご指摘頂ければ幸いです .