IR Reading 2023秋での論文紹介資料です。
紹介する論文は、User Needs for Explanations of Recommendations: In-depth Analyses of the Role of Item Domain and Personal Characteristics (UMAP'23)です。
ACM SIGIR 東京支部 IR Reading 2023秋 2023年11月18日 推薦結果への説明付加は いつどんなものが嬉しいか User Needs for Explanations of Recommendations: In-depth Analyses of the Role of Item Domain and Personal Characteristics (UMAP'23) LINEヤフー株式会社 栗本 真太郎(@kuri8ive)
2/14 推薦結果に説明が付加されることの嬉しさ l コンバージョン率や満足度を高める[50] l 透明性を向上させ、信頼度を高める[43] 背景|推薦結果に説明がつくことの意義 [50] Evaluating the effectiveness of explanations for recommender systems: Methodological issues and empirical studies on the impact of personalization (User Modelling and User-Adapted Interaction, 2012) [43] The Role of Transparency in Recommender Systems. (CHI EA, 2002)
3/14 推薦×説明性は広く研究されているが、 説明へのユーザーのニーズはあまり調べられていない また、以下の側面にも着目し、説明性のニーズを深掘りする l アイテムドメイン l 聴く音楽/買う車を選ぶ、のように重要度が違うと必要な情報量が変わり得る[8] l 個人特性 l 性別、文化的背景、性格、専門知識のような個人特性は、 推薦システムとのインタラクションに影響を与える[24] 背景|推薦×説明性研究でまだ明らかになっていない領域 [8] Principles of Marketing (3rd ed.) (2015) [24] Explaining the user experience of recommender systems (User Modeling and User-Adapted Interaction, 2012)
7/14 データ準備(2/2)|ユーザーデータセットの合成 ユーザーの全アイテムの嗜好が入った完全な行列を作成 l 5つ星評価として、4+θを好き、2+θを嫌いに割り当て(θ = ±0.3) l アイテムIの特徴fに関して、f故にIが好きなユーザーをランダムでX%抽出 l X = randbetween(30, 70) l 残りのY%(100-X)は特徴f故にIが好きでないとする 例)f1 について、randbetween(30, 70)→60となり、5人中3人が好き(4+θ)に割り当て
8/14 実験概要|IBExp、FBExp、KBExpによる推薦への説明付加 l 553名から回答を収集(1人1設定のみ) l オーストリア、ベトナム×2の大学の学生または職員 l 先立って嗜好の収集 l IBExp, FBExp:ランダムの提示されたアイテムリストから、好きなものを最低5つ選択 l KBExp:好きなアイテムの要件を指定 l 協調フィルタリングにより 以下を5つ星で評価してもらう 1. アイテム 2. 説明は理解しやすかったか 3. 説明の表示方法は気に入ったか 4. 説明が推薦の満足度を上げたか
14/14 l 説明ニーズとアイテムのドメインに相関がないのは意外に感じた l できない事情があるのは理解したが、合成じゃないデータでの結果を見たかった l 今後実施予定とのことで期待 l 決断の気軽さが求められる説明の種類に影響するという話は知見といえそう l ただし、得られた結果そのものは一般化できないかも ∵参加者の9割が18〜25歳の学生、7割がベトナム人とのことで、 後者はともかく、前者は決断が重めなドメインでの判断に影響しそう (学生はお金がないし、18歳だと旅行経験が全然ない人もいそう) l 個人特性として他の観点も追加して見てみたい l 特に、「好奇心」が推薦の受容等に影響する話は色々あると思うので、説明の観点でも違いが出そう l ほか、例えば頻繁に旅行(観光)するかどうかで、欲する説明は異なりそう 所感