Personalized Purchase Prediction of Market Baskets with Wasserstein-Based Sequence Matching (KDD 2019) 読んだ
Personalized Purchase Prediction of Market Baskets with Wasserstein-Based Sequence Matching
KDD 2019 の Accepted papers が出たのでひとまずタイトル一覧に目を通し, arXiv などに既にあるものから読んでいこうと思います.しかしあまりにも Graph Convolutional Network が多すぎる.
ユーザ が 回目の購買 において複数の商品を購入している (この時,各購買を basket と呼びます) 状況において, 個の購買の系列を学習データとして 回目において購入される商品 の exact set の予測に取り組んでいる.
わざわざ exact set と強調した理由ですが,これまでの next basket recommendation,たとえば
- Factorizing personalized Markov chains for next-basket recommendation (WWW 2010)
- Next Basket Recommendation with Neural Networks (Recsys 2015)
- Learning Hierarchical Representation Model for Next Basket Recommendation (SIGIR 2015)
では「 の購買においてどの商品を買いそうか」を推定・予測していました.すなわち,これら既存研究におけるモデルの出力は各商品が購買される確率です.が,本研究では basket の中身を直接出力します.「 回目の購買において商品 A は 0.3, B は 0.21, C は 0.17 の確率で購入される」ではなく,「basket は A と D と J である」を予測結果として出力する.
しかし,このタスクはただ難しくなっただけのように見え,実際これが解けるとどう嬉しいのかがよくわかりません (著者らも明確に述べていないように見える).クーポン配信などを考えた場合には商品の購買確率が出る方が嬉しいように思います.複数の商品をすることでまとめ買いなどの効果がある,ということなのでしょうか.
手法
一言でまとめると,あるユーザ の過去の全 basket から構成される系列 について最も類似した basket の部分系列 を検索し,その部分系列のひとつ先 を予測対象である として出力します. そのために
- 商品の集合である basket のペアについて類似度を計算する
- それぞれの商品をある次元に埋め込む
- 埋め込みの集合で表現された basket 対について Wasserstein Distance を計算する
- に最も類似した部分系列を高速に計算する
という作業を行う必要がある.
商品の埋め込み
埋め込みは
と同一 basket 内で同時に購買された全ペアについて計算する.これだけなら追試ができそう.
Wasserstein Distance の計算
Wasserstein Distance を計算する.
部分系列の高速な検索
類似度の計算には Dynamic Time Warping を使うが,ナイーブにやるとクエリであるセッションの系列長を ,部分系列の検索対象であるセッションの系列長を とすると かかる.全ユーザが なのでこれでは重くて困る.しかし Stream Monitoring under the Time Warping Distance (ICDM 2007) を使うと に落ちるので嬉しい(らしい).この論文誰かに解説して欲しい.
実験
Instacart dataset と Ta Feng Grocery Dataset を用いた実験を実施. 比較手法があまりにシンプルで悲しくなる.アソシエーションルール以外には「全体の人気順に上位 個」「ユーザごとの人気順に上位 個」という手法 ( は の 最後の購買において買った商品数) を採用しているわけですが,既存の商品ごとに計算する session-based な手法の結果の上位 件とも比較しないとフェアではないと思う.