Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
A/Bテスト概論
Search
Recruit
PRO
August 09, 2024
Technology
6
2.3k
A/Bテスト概論
2024年度リクルート エンジニアコース新人研修の講義資料です
Recruit
PRO
August 09, 2024
Tweet
Share
More Decks by Recruit
See All by Recruit
Flutterによる 効率的なAndroid・iOS・Webアプリケーション開発の事例
recruitengineers
PRO
0
71
VPC Traffic Mirroring とOSS を利⽤した ネットワークフォレンジック基盤の構築・運⽤
recruitengineers
PRO
1
40
スタサプ ForSCHOOLアプリのシンプルな設計
recruitengineers
PRO
3
1k
リクルート流データ基盤塾~鶴谷と学ぶ~
recruitengineers
PRO
5
240
『SUUMO』 スマホサイト デザインリニューアルへの挑戦
recruitengineers
PRO
5
340
『リクルートダイレクトスカウト』 のリニューアルから振り返る: ビジョンドリブンの可能性
recruitengineers
PRO
3
310
負債あるモノリスのオブザーバビリティに組織で向き合う
recruitengineers
PRO
9
400
あなたの知らないiOS開発の世界
recruitengineers
PRO
4
330
大規模プロダクトにおける組織作りと技術ポートフォリオマネジメント
recruitengineers
PRO
4
490
Other Decks in Technology
See All in Technology
10XにおけるData Contractの導入について: Data Contract事例共有会
10xinc
5
560
AWS Lambda のトラブルシュートをしていて思うこと
kazzpapa3
2
170
ノーコードデータ分析ツールで体験する時系列データ分析超入門
negi111111
0
410
ExaDB-D dbaascli で出来ること
oracle4engineer
PRO
0
3.8k
RubyのWebアプリケーションを50倍速くする方法 / How to Make a Ruby Web Application 50 Times Faster
hogelog
3
940
Lambda10周年!Lambdaは何をもたらしたか
smt7174
2
110
Amazon Personalizeのレコメンドシステム構築、実際何するの?〜大体10分で具体的なイメージをつかむ〜
kniino
1
100
Lambdaと地方とコミュニティ
miu_crescent
2
370
AIチャットボット開発への生成AI活用
ryomrt
0
170
個人でもIAM Identity Centerを使おう!(アクセス管理編)
ryder472
3
180
ISUCONに強くなるかもしれない日々の過ごしかた/Findy ISUCON 2024-11-14
fujiwara3
8
860
Amazon CloudWatch Network Monitor のススメ
yuki_ink
1
200
Featured
See All Featured
Bootstrapping a Software Product
garrettdimon
PRO
305
110k
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
329
21k
Why You Should Never Use an ORM
jnunemaker
PRO
54
9.1k
Fantastic passwords and where to find them - at NoRuKo
philnash
50
2.9k
Statistics for Hackers
jakevdp
796
220k
How to Ace a Technical Interview
jacobian
276
23k
Scaling GitHub
holman
458
140k
Making the Leap to Tech Lead
cromwellryan
133
8.9k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
93
16k
Art, The Web, and Tiny UX
lynnandtonic
297
20k
4 Signs Your Business is Dying
shpigford
180
21k
ピンチをチャンスに:未来をつくるプロダクトロードマップ #pmconf2020
aki_iinuma
109
49k
Transcript
リ ク ル ー ト テ ク ノ ロ ジ
ー ズ Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved A/Bテスト 概論 大杉直也 2024/5/29
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 1 今日の進め方
講師は、大杉直也(@oosugi_naoya)です 生成AIの研修をした人と同一です 座学形式です お互いしんどいと思うので、こまめに休憩取ります Slackに質問は随時なげてほしいです。休憩後にまとめて回答します 普通に新人同士で雑談しながら聞いてください そっちのほうが記憶に残ると思うので(エピソード記憶) 全体の底上げが目的なのでゆっくり進行します 参考書を理解済みの方は内職しながら聞いてても構いません
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 2 A/Bテスト概要 の狙い
本研修では、「A/Bテストを正しく実施する」に焦点を当てます 後半ではA/Bテストをスケールするためのコツもふれますが、 量産する前に品質を担保する必要があります 「バグったA/Bテスト」を各自が検知できるようになることが目標です
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 3 基本的にはA/Bテスト本を参考に進めます https://www.kadokawa.co.jp/product/302101000901/
スライド中のFigureはこの本を参照しております
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 4 「何が良いか」を事前に知ることは困難
Bing史上最高収益(当時)のアイデア 年間1億ドルの価値(らしい) アイデアが実装されるまで、半年以上 バックログに積まれていた このアイデアの価値は、A/Bテストに よって見積もられた
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 5 A/B テストとは
ここ→ A/Bテストは因果関係を立証するための黄金律である 我々の介入が良い結果の原因になるかを知りたい →意思決定のために必要
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 6 相関≠因果関係① 小さい手のひらは寿命の原因か?
手のひらの大きさと寿命には相関関係がある
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 7 相関≠因果関係① 両者の共通原因に性別がある
手のひらを小さくしても長生きするわけではない 手のひらの大きさと寿命には相関関係がある
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 8 相関≠因果関係② エナジードリンク摂取量とパフォーマンスには相関関係がある
意図的な共通原因があるパターン
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 9 相関≠因果関係③ 小さい手のひらは寿命の原因か?
毒グモによる死者数と強い相関係数がある因子を発見
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 10 相関≠因果関係③ まったく関係がなく、ただの偶然
毒グモによる死者数と強い相関係数がある因子を発見
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 11 相関≠因果関係の補足 狭義ではEvidenceとは因果関係のことを指し、Factは相関関係も含まれる
Fact や Evidence という言葉が狭い界隈で流行っている
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 12 相関≠因果関係についてもっと知りたい人は https://www.kinokuniya.co.jp/f/dsg-01-9784163915968
↑A/Bテストを超える話です。が、この講義はちゃんとA/Bテストやる話です。 この本がおすすめ
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 13 A/B テストが因果関係を立証できる理由
「Aさんに介入した場合」 「Aさんに介入しない場合」 の2つの結果を直接比較できれば良い 問題点は3つ 「同じAさんは存在しない」 「Aさんの事例が一般化できるのか」 「介入が100%結果につながらない」
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 14 A/B テストが因果関係を立証できる理由
「同じAさんは存在しない」 →人を集めて同じような集団を作る →この集団を近似的に同じ人とみなす 同じような集団をどう作るのか? →ランダムに割り当てる →任意のユーザー属性と独立に割れる
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 15 A/B テストが因果関係を立証できる理由
「Aさんの事例が一般化できるのか」 →一般化したい対象を集めて介入 (→心理実験が大学生に偏り問題) Webサービスの場合の対象は? →サービス利用者を対象にしたい場合、 実際にサービスに来た人に介入する
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 16 A/B テストが因果関係を立証できる理由
「介入が100%結果につながらない」 →統計処理を行って、結論づける どのような統計処理か? →仮説検定のフレームワークが主流 →それ以外の手法が用いられることも
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 17 A/B テストが因果関係を立証できる理由
「Aさんに介入した場合」 「Aさんに介入しない場合」 の2つの結果を直接比較できれば良い 問題点は3つ 「同じAさんは存在しない」 「Aさんの事例が一般化できるのか」 「介入が100%結果につながらない」 統計学のテクニック+大量のユーザーで問題は解決可能
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 18 ログデータ分析とA/Bテストの違い 実験手法
手順例 クオリティ コスト ログデータ分析 CS行動ログから、特定条件へのCV とCSセグメントの共起を見る ただの相関かもしれない ログさえあればすぐできる A/B テスト 特定条件の表出を増やすA/Bテス トをし、CSセグメント間のCVR変化を 見る 因果の可能性大 A/Bテストには準備が必要 で、テストには一定以上の 期間が必要 特定条件にCVしやすいCSセグメントを知りたい場合 A/Bテストはアイデアの価値評価だけでなく 因果関係についての知識獲得にも有用
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 19 A/B テストの流れの具体的に追体験
ここから、架空のシナリオでA/Bテストの流れを追体験してみる 架空シナリオ ECサイトに「クーポンコード」を導入して収益UPの企画 評価したい悪影響 「クーポンコードがない」ユーザーが購入を中止してしまうこと
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 20 A/B テストの流れの具体的に追体験
実装コストを抑えるために画面だけ変更してA/Bテスト
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 21 A/B テストの流れの具体的に追体験
調査したい影響は、収益への悪影響 →ユーザーあたりの収益を比較する サイトを訪問したすべてのユーザー 購入プロセスを完了したユーザーのみ 購入プロセスを開始したユーザーのみ 適切な比較対象はどれか?
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 22 A/B テストの流れの具体的に追体験
調査したい影響は、収益への悪影響 →ユーザーあたりの収益を比較する サイトを訪問したすべてのユーザー 購入プロセスを完了したユーザーのみ 購入プロセスを開始したユーザーのみ △ 変更の影響を受けないユーザーが混ざる →介入効果の推定のノイズになる ☓ 購入額の影響しか見えない →推定したい悪影響は購入の中断率 ◯
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 23 A/B テストに必要な統計学
ここから統計学の話なので用語の整理 計算はツールでできるが、基本的な概念を知らずにツールを適切に使えない 用語 解説 サンプルサイズ ユニークユーザー数などの分析単位の数。慣習的に変数Nが使われる 介入効果 文字通りの介入の効果。介入群とコントロール群の効果の差で推定 仮説検定 統計学のフレームワークの一種。帰無仮説を棄却することで主張する 帰無仮説 否定したい仮説。「介入効果がゼロ」を帰無仮説にすることが多い 棄却 帰無仮説を考えにくいので正しくないとすること 偽陽性 帰無仮説が正しいのに棄却してしまうエラーのこと。別名、第Ⅰ種の過誤 偽陰性 帰無仮説が間違ってるのに棄却できないエラーのこと。別名、第Ⅱ種の過誤 p値 帰無仮説を真と仮定して、実験結果と同等以上に極端な結果が得られる確率 有意水準 p値から棄却の判断をするさいの閾値。よく5%が使われる。ゆるいと偽陽性が増える 信頼区間 介入効果のブレを推定したもの。p値と有意水準との関係は後述 検出力 帰無仮説を棄却できる力。本当の差やサンプルサイズが小さいと低くなる 最小検出可能効果 今回の実験で検出できる最小の介入効果。実用上意味ある差以上が望ましい
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 24 A/B テストに必要な統計学
仮説検定の考え方を イラストで解説
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 25 A/B テストに必要な統計学
統計学について解説したが、 非常に重要かつ統計学で決められない概念がある それは、どのくらいの差が実用上重要であるか?である 有意差はあくまで「差がないとは考えにくい」としか主張しない
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 26 A/B テストのよくある落とし穴
A/B テストを正しく実施するための妥当性確認の話 「アイデアを正しく評価する方法」を正しく実施できないと 本末転倒である 妥当性は内的妥当性と外的妥当性の2つに分けられる
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 27 A/B テストのよくある落とし穴
内的妥当性 他の集団や期間に一般化しない場合 データの統計的扱いのミス サンプル比率のミスマッチ 残留効果 など 外的妥当性 他の集団や期間に一般化する場合 慣れや新規性の影響 セグメントの違い 長期影響 など
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 28 A/B テストのよくある落とし穴
妥当性の種類 名称 具体例 検知方法の例 内的妥当性 データの統計的取り扱いミス 介入群だけ5PV以上のユーザーで分析 実験期間中にアクティブであったユー ザーだけ分析 p-hackingしてしまっている A/Aテスト(後ろ向き) サンプルサイズの比較 専門家レビュー 内的妥当性 実験割当比率のエラー Cookieで割当を制御し、Cookieの値を使 いまわしたが、Cookieの書き換えの制御 は完全にはできない 効果の高いユーザーをBot扱い 実験群の割当比率を監視 内的妥当性 残留効果 過去の割当を使いまわし A/Aテスト(前向き) 外的妥当性 慣れや新規性の影響 慣れた画面でないから使いにくい 物珍しいからクリック 実験期間中の最初の方と 後半を分けて分析 開始時期をずらした複数 A/Bテスト 外的妥当性 セグメントの違い 東京で効果あったアイデアが大坂でうま くいくかどうか 夏に効果あったアイデアが冬でうまくい くかどうか 都度A/B テスト 外的妥当性 長期影響 市場やユーザーの変化 機械学習モデルの劣化 長期実験
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 29 A/B テストのよくある落とし穴
内的妥当性の問題の多くはA/Aテストで検知可能 ←ここに何も変更を加えない状態でテストする
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 30 A/Aテストについて A/A
テストは大きく2種類の方法がある 実際に実験をする「前向き」の方法 ログデータをもとに擬似的に実施する「後ろ向き」の方法 それぞれ検知できるミスが異なる 次スライドから具体的な手順を確認する
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 31 A/Aテストについて 「前向き」のA/A
テスト 1. 実際のA/Bテストと同じシステムで実験群に割り当てる 2. 各実験群は同じ状態(通常のA/Bテストとの違いはここだけ) 3. 実際のA/Bテストと同じ分析を実施する 4. 目標指標に有意差が出ないことを確かめる システム部分のエラー(割当が独立でないなど)や残留効果が検知できる 一方、実施に時間がかかり試行数をかせぎにくいため 偽陽性や偽陰性のリスクを定量的に評価しにくい →微妙な統計的取り扱いのミスなどが検知しづらい
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 32 A/Aテストについて 「後ろ向き」のA/A
テスト 1. 過去のログデータをランダムに分割する 2. 当然、各実験群は同じ状態(過去のA/Bテストも等しく影響) 3. 実際のA/Bテストと同じ分析を実施する 4. 1~3を繰り替えし、p値が一様(偏らない)であることを確認する 通常のA/B割当と違う割当方法になりがちなので システム部分のエラーは検知できない。残留効果も検知できない 一方、実施に時間がかからず試行数をかせげるため 偽陽性や偽陰性のリスクを定量的に評価できる →微妙な統計的取り扱いのミスなどが検知しやすい
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 33 A/Aテストについて A/Aテストの代表的な実施方法
種別 やり方 長所 短所 前向き 実際のA/Bテストと同じ方法でユーザーを割当 て、ログをためA/Bテストと同じ分析を実施する - システム由来のエラーも検 知可能 - 新規の開発が不要 - 残留効果も検知可能 - (割当の実装方式にもよるが) 試せる割当パターンが少なく一 部の統計的ミスが検知不能 - 結果が出るまで時間がかかる 後ろ向き ランダムな割当を過去のユーザーのログにか けて、A/Bテストと同じ分析を実施する - 大量の割当を試せるので、 統計的ミスを検知可能 - 結果がすぐわかる - スクリプトを作る必要がある - 割当関連のシステムや残留効 果は検知不能 前向きと後ろ向きのA/Aテストで検知可能なミスが異なる 両A/Aテストの併用を推奨 前向きのA/Aテストは実施コストが高いので、割当割合ミス検知を強く推奨
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 34 システム由来の失敗事例集 A/Bテスト勝ちまくってるのにトレンドが改善しないこと、から検知
検知が遅れたため数カ月分のA/Bテストがやり直しに Firebaseのremote config でテストパターンを取得 Firebaseからの取得失敗した場合、既存条件に割当 その結果、通信状態の悪いユーザーが既存条件に多く割り当て 結果、ほとんどのA/Bテストで勝利 割当割合ミスを監視していればもっと早期に検知可能だった
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 35 A/B テストのよくある落とし穴
【発展】A/B テストの統計的取り扱いミスのよくあるものについて 1. p値を何度も確認して有意差が出たら実験終了 1. 例:毎日p値を確認し、5%有意勝ちがでたら実験打ち切り 2. 何がまずいのか:5%でも20回やったらまぁでる。偽陽性率が上がる 2. 分析単位が実験単位より細かい 1. 例:実験割当はユーザー単位だがセッションCVRで比較 2. 何がまずいのか:分散が過小評価され偽陽性率が上がる 3. 介入群とコントロール群で分析方法が違う 1. 例:過去CVしたユーザーのみ介入される。介入群ではCVしたユーザー を対象に分析したが、コントロール群では全ユーザーを対象にした 2. 何がまずいのか:同じユーザー群での比較になってない 4. ユーザーが分析対象になるか否かに介入が影響を与えている 1. 例:実験終了時にアクティブだったユーザーだけで比較 2. 何がまずいのか:アクティブになるか否かに介入が影響した場合、同 じユーザー群での比較にならない 1~3 はA/Aテスト(後ろ向き)で検知可能 4は実験群の割当比率の監視で検知可能
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 36 A/B テストの適用先
A/BテストはUIにのみ有用か?
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 37 A/B テストの適用先
A/BテストはUIにのみ有用か? NO!
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 38 A/B テストの適用先
A/Bテストの適用先は多岐にわたる 集客のためのWeb広告の良い文言の探索 新導線の評価(リコメンドなど) ランキングアルゴリズムの改良(検索おすすめ順など) ページロード時間のユーザー影響の推定 新機能の評価(キーワード入力補完など)
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 39 A/B テストの適用先
A/Bテストの適用先は多岐にわたる 集客のためのWeb広告の良い文言の探索 新導線の評価(リコメンドなど) ランキングアルゴリズムの改良(検索おすすめ順など) ページロード時間のユーザー影響の推定 新機能の評価(キーワード入力補完など)
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 40 ページロード時間の改善について 介入効果の推定→A/Bテストがゴールドスタンダード
A/Bテスト実践ガイドでまるまる1章使ってる内容なので補足(第5章) ページロード時間が早いことは良い←自明 0.1 秒の改善にどのくらい投資すべきか←自明でない これを答えるために「ページロード時間0.1秒の改善」の介入効果の推定を行う MicrosoftのBingでは、0.1秒改善の効果=0.1秒悪化の効果 と仮定し、 介入群だけ0.1秒表示を遅くしたA/Bテストを行なった その結果、0.1秒の改善が年間1800万ドル収益増の価値があると推定された 詳細はA/Bテスト実践ガイドの第5章を参照
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 41 A/B テストをより活用するためには
アイデアの価値は試さないとわからない 良いアイデアをいかに安全に・安く・早く試すか、が重要 ここでは、6種類の手引を紹介
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 42 A/B テストをより活用するためには(1/6)
変更範囲の局所化 開発効率だけでなく、障害時の切り戻しや保守性も重要 もし実験のパターンが固まっていたら、 設定(configure)の変更だけでできると便利 現実的にはすべて設定変更だけ済ませられるとは限らない 一種の理想の形
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 43 A/B テストをより活用するためには(2/6)
段階的な実験対象の拡大(ランピング)の戦略 知識獲得だけならMaximum Power Ramp(MPR)≒50%割当で良い 安全のために介入群の割当を段階的に増やすことはよくある 例:システム影響を事前に想定しきれないとき
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 44 A/B テストをより活用するためには(2/6)
ランピングの注意点 シンプソンのパラドックスがおこりうる 部分の結果が、全体の結果と異なることが数学的にありえる 部分と全体の両方の傾向が一致する時だけ結果を信じることを推奨
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 45 A/B テストをより活用するためには(3/6)
倫理的な問題 A/Bテストに限らず、介入は倫理的な問題を起こしてはならない リクルートでは標準プロセスでチェックされるが 各人で「何が好ましくないか」を意識することが重要 Facebook、無断で行った情動感染実験について謝罪・釈明 - ITmedia NEWS
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 46 A/B テストをより活用するためには(4/6)
メトリクスを整理し、統計処理の確からしさを向上する 例えば、ユーザーあたり平均単価3,000円の ECサイトで「売上」を目標としたとき、 あるユーザーが100万円の商品を購入したら、 A/Bテストの結果はそのユーザーの割り当てに大きく依存する →介入効果よりも偶然の影響のほうが大きい(偽陽性リスク) →分散が大きくなり検出力が下がる(偽陰性リスク) メトリクスを工夫することでこの問題は回避できる
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 47 A/B テストをより活用するためには(4/6)
メトリクスを整理し、統計処理の確からしさを向上する 3番目が最も検出力が高く、金額への介入効果が重要でない場合は有用 1番目の手法+外れ値の割合も検定、が無難(だと思ってる) 加工方法 デメリット 値が多すぎるユーザーを外れ値として除外する 介入によって値が多すぎるユーザーが増えた場合、そ れを除外してしまうと意思決定を誤りかねない x以上の値はxに丸め込む 介入効果の円換算などの解釈時に工夫が必要 金額を見ずに購入率だけ着目する 金額への介入効果がわからなくなる
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 48 A/B テストをより活用するためには(5/6)
メトリクスを整理し、誤った意思決定を避ける Bing検索の例 Bing検索では収益とクエリシェア率が目標指標だった あるアルゴリズム変更をA/Bテストしたところ、目標指標は大きく改善した しかし、このアルゴリズムはBingにとって望ましくないものだった 問題: この矛盾はなぜ起きたのかを明らかにしてください 私は「はい」「いいえ」「わからない」だけで答えるので質問をどうぞ (突然のウミガメのスープによる時間調整)
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 49 A/B テストをより活用するためには(6/6)
良い参考書があるので読む https://experimentguide.com/
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 50 その他、参考情報
検出力の確認と実験割り当て割合ミスを検知するツールを作りました 【落とし穴検知ツール】A/Bテスト割当割合のミス検知 【適正サンプルサイズ推定ツール】A/Bテスト実施前にサンプルサイ ズが十分かを確認する ※社内のVPNからしかアクセスできません Slackで相談窓口作りました #help_abテスト相談窓口 ※リクルート社内限定です 落とし穴情報まとめ作りました A/B テストのテスト一覧 ※これはプライベートで書いた公開記事です
Copyright(C)2014 Recruit Technologies Co.,Ltd All rights reserved 51 講義の目標に戻ります。いかがでしたか? 本研修では、「A/Bテストを正しく実施する」に焦点を当てます
後半ではA/Bテストをスケールするためのコツもふれますが、 量産する前に品質を担保する必要があります 「バグったA/Bテスト」を各自が検知できるようになることが目標です