ResSys 2024 流し読みメモ(Session 5: Cross-domain and Cross-modal Learning)

recsys.acm.org

Improving Adversarial Robustness for Recommendation Model via Cross-Domain Distributional Adversarial Training

https://dl.acm.org/doi/10.1145/3640457.3688116

  • 四川大。対象は推薦一般。評価はDouban, Amazon(tv, CD)
  • クロスドメインの知識を利用したAdversarial Trainingの提案。まずクロスドメインでユーザーの嗜好を学習したうえで、それと微妙に異なる(ギリギリを攻めるような判定の難しい)データを混ぜるようにする
  • こういうのも確立された評価指標があるらしく、FGSM, PGD, advGANという3つの攻撃手法に対するロバストさで既存手法と比較されていた
MLoRA: Multi-Domain Low-Rank Adaptive Network for CTR Prediction

https://dl.acm.org/doi/10.1145/3640457.3688134

  • 西北工業大/アリババ。対象はクロスドメインでのCTR予測。評価はTaobao, Amazon, MovieLens
  • LLMのfine-tuningでよく使われるLoRAのアイデアをマルチドメインのCTR予測に利用
  • WAUCというデータ量に寄って重み付けしたAUCを利用することでドメインごとのデータ量の違いを考慮した評価を実施。アリババでオンラインA/Bテストも実施
Instructing and Prompting Large Language Models for Explainable Cross-domain Recommendations

https://dl.acm.org/doi/10.1145/3640457.3688137

  • バーリ大。対象はあるドメインで得た情報をもとにした他のドメインでの推薦。評価はAmazon(Movies, CDs, Books)
  • LLMを利用した、説明可能なクロスドメインでの推薦手法を提案
  • ランキング精度のほか、説明文の質(perplexity)の面でもベースライン手法より高い評価
Cross-Domain Latent Factors Sharing via Implicit Matrix Factorization

https://dl.acm.org/doi/10.1145/3640457.3688143

  • スコルコボ科学技術大。対象はクロスドメインでの推薦一般。評価はAmazon dataset
  • CDIMF(Cross-Domain Implicit Matrix Factorization), クロスドメインでのMatrix Factorizationは先行事例はあるが、これは学習・プライバシー保護・最適化手法の三点でこれまでよりシンプルで効率的な手法という主張らしい
Discerning Canonical User Representation for Cross-Domain Recommendation

https://dl.acm.org/doi/10.1145/3640457.3688114

  • ニューヨーク州立大アルバニー校。対象はクロスドメインでの推薦一般、評価はAmazon, Yelp
  • ドメイン共通の嗜好とドメイン固有の嗜好を別々に学習させることで、変にドメイン共通に嗜好として解釈されたりドメイン固有の関心が捉えきれなかったりすることを防ぐ
  • 加えて、GANでユーザフィードバックを生成することで推薦制度を向上させる
Joint Modeling of Search and Recommendations Via an Unified Contextual Recommender (UniCoRn)

https://dl.acm.org/doi/10.1145/3640457.3688034

  • Netflix Research。対象はquery-video-recommendations, video-video-recommendations, profile-video-recommendations。評価は実サービス
  • 従来は3つのユースケースを別タスクとしてそれぞれモデルを作って最適化していたが、管理コストが高く技術負債が積み重なっていた。単一のモデルで検索と推薦の両方を行うことに
  • ユーザーIDや検索クエリ、ソースとなる動画のIDなどを「コンテキスト」として入力、出力は動画に対するエンゲージメント確立という形で学習させる。推薦モジュールだと検索クエリは落ちないわけだが、そのあたりはヒューリスティクスで良い感じに埋める
  • 横断的にデータが使えるので、それぞれでモデルを作るより精度がよくなったとのこと
  • 検索結果がパーソナライズされすぎるとよくないわけで(クエリとの関連性が損なわれる)、そのあたりも対策されていそうだがもう少し読まないとよくわからなかった
  • クラスタごとに学習させる・既存モデルの出力を入力につないでまた学習させる・タスクごとにファインチューニング の三段階になっているっぽい

感想

抜群に最後のが面白そう。ファインチューニングしたにしても、何も考えないと全部似通った出力になる。どのコンテキストの影響を強めるかの調整があるはずなのでちょっと読んでみたい。