Upgrade to Pro — share decks privately, control downloads, hide ads and more …

A/B-Testing mit Node.js

A/B-Testing mit Node.js

Features einer Applikation werden häufig implementiert, weil die Verantwortlichen vermuten, dass diese Funktionalitäten einen Mehrwert für die Benutzer der Applikation bieten. Je nach Umfang wird mehr oder weniger Geld investiert. Ohne weitere Unterstützung sind und bleiben es jedoch Vermutungen. Eine bessere Lösung bieten hier A/B-Tests. Features werden kostengünstig in einer oder mehreren Varianten umgesetzt und mit einer Kontrollimplementierung verglichen. Die Umsetzung, die sich als die beste herausstellt, wird überarbeitet und bleibt in der Applikation erhalten. Diese Vorgehensweise lässt sich sehr gut in Node.js-Applikationen integrieren. Mithilfe von A/B-Tests können Sie Ihre Applikation an den Anforderungen Ihrer Benutzer ausrichten.

Sebastian Springer

June 01, 2017
Tweet

More Decks by Sebastian Springer

Other Decks in Technology

Transcript

  1. Basti • Sebastian Springer • aus München • arbeite bei

    MaibornWolff GmbH • https://github.com/sspringer82 • @basti_springer • JavaScript Entwickler
  2. A/B-Testing? Von einem bestimmten Feature werden zwei unterschiedliche Versionen an

    Benutzer ausgespielt, um zu sehen, welche Variante das gewünschte Ziel besser erfüllt.
  3. Multivarianten-Testing Beim Multivarianten-Testing werden parallel mehrere Versionen und eine Kontrollversion

    ausgespielt, um zu prüfen, welche besser performt. Vorteil: Das Ergebnis liegt wesentlich schneller vor als beim A/B-Testing Nachteil: es werden mehr Nutzer benötigt, um aussagekräftig zu sein
  4. Was kann man testen? Grundsätzlich kann nahezu jeder Aspekt einer

    Applikation getestet werden. Die Spanne reicht von angepassten Layouts über eine veränderte Seitenstruktur bis hin zu unterschiedlichen Workflows. Je nachdem, wie tief in die Applikation eingegriffen werden soll, müssen unterschiedliche Werkzeuge verwendet werden.
  5. Vorgehensweise 1. Hypothese(n) 2. Umfang des Experiments festlegen 3. Unterschiedliche

    Varianten implementieren 4. Ausspielen 5. Tracken 6. Auswerten 7. Die bessere Version verwenden
  6. Die Hypothese Wenn wir unsere Registrierung von einem großen Formular

    in mehrere Tabs aufteilen, werden innerhalb von 4 Wochen 20% mehr Felder ausgefüllt.
  7. Die Hypothese Die Hypothese muss möglichst klar und messbar formuliert

    werden. Damit kann der Erfolg des Experiments gemessen werden.
  8. Multivarianten Manchmal kann man keine konkrete Hypothese formulieren, sondern muss

    beispielsweise die Positionierung eines Buttons oder Formulars einfach ausprobieren. Hier kommen Multivarianten-Tests zum Einsatz.
  9. Den Umfang festlegen Experimente sollten immer zeitlich begrenzt werden. Je

    mehr parallele Tests laufen, desto unübersichtlicher wird die Situation. Außerdem können sich Experimente gegenseitig beeinflussen. Der Umfang muss so gewählt werden, dass aussagekräftige Daten geliefert werden.
  10. Was kann ich damit testen? Diese Art von Tests beschränkt

    sich vor allem auf strukturelle Manipulationen der Seite. Serverseitige Strukturen oder Datenbankanpassungen sind nicht möglich.
  11. Optimizely Optimizely ist ein klassisches frontendbasiertes Werkzeug für A/B- und

    multivarianten-Tests. Es gibt sowohl eine (eingeschränkte) freie als auch eine kostenpflichtige Version. Mittlerweile gibt es auch Erweiterungen für andere Plattformen wie Node
  12. Code Snippet function callbackFn(activate, options) { var utils = window.optimizely.get('utils');

    var $ = window.optimizely.get('jquery'); utils.waitForElement('button').then(function(el) { if ($('button').length > 0) { activate(); } }); }
  13. Vorteile Leichtgewichtig und schnell umzusetzen Kann auch von Frontend- Entwicklern


    durchgeführt werden Unabhängig vom Backend Änderungen sind nicht persistent Nicht versioniert Quellcode wird nach der Auslieferung manipuliert Zusätzlicher Overhead Nachteile
  14. Tests mit Node.js In einer Node.js-Webapplikation können A/B-Tests direkt integriert

    werden. Das hat den Vorteil dass bereits auf dem Server entschieden werden kann, welche Variante ausgespielt wird.
  15. A/B-Tests mit Express https://github.com/omichelsen/express-ab Für das Web Application Framework Express

    gibt es eine Middleware, die die Steuerung der Experimente übernimmt. Diese Experimente basieren auf den Routen der Applikation.
  16. A/B-Tests mit Express npm5 install --save express express-ab cookie-parser Als

    Middleware kann express-ab jederzeit auch in eine bestehende Express-Applikation integriert werden.
  17. const express = require('express'); const cookieParser = require('cookie-parser'); const ab

    = require('express-ab'); const app = express(); app.use(cookieParser()); const profileTest = ab.test('Profile Test'); app.get('/', profileTest(), (req, res) => { res.send('variant A'); }); app.get('/', profileTest(), (req, res) => { res.send('variant B'); }); app.listen(8080);
  18. Express-ab Über die Informationen im Cookie des Benutzers wird die

    jeweilige Variante zugeordnet, sodass ein Benutzer stets die selbe Variante erhält.
  19. Verteilung Die Varianten eines Experiments können unterschiedlich gewichtet werden: profileTest(null,

    0.2) Dieses Experiment wird in 20% der Anfragen ausgespielt. Insgesamt sollte die Summe der Varianten 1 Ergeben.
  20. Google Experiments Express-ab kann auch mit Google Experiments verwendet werden.

    Dabei handelt es sich um einen Teil von Google Analytics, der dazu verwendet werden kann Multivarianten- Tests durchzuführen. Mit express-ab kann man sowohl auf die Experiment-ID als auch auf die jeweilige Variante zugreifen und diese auch an den Browser fürs Tracking weiterreichen.
  21. Google Experiments const profileTest = ab.test('Profile Test', { id: '123456789'

    }); app.get('/', profileTest(), (req, res) => { // res.locals.ab.name - 'Profile Test' // res.locals.ab.id - '123456789' // res.locals.ab.variantId - 0 res.send('variant A'); });
  22. Feature Flags Feature Flags sind eine weitere Variante, um unter

    anderem A/ B-Tests durchzuführen. Im einfachsten Fall ist ein solches Feature-Flag eine Abfrage im Code, die anhand einer Konfiguration den Code-Block ausführt oder nicht.
  23. Feature Flags app.get('/profile', (req, res) => { const data =

    {}; if (config.isEnabled('newConfig')) { res.render('newProfile.ejs', data); } else { res.render('profile.ejs', data); } });
  24. Feature Flags Nachdem ein Feature Flag nicht mehr benötigt wird,

    sollte zumindest die Abfrage entfernt werden.
  25. Sixpack Sixpack ist ein Open Source A/B-Testing-Framework das unabhängig von

    Sprache und Plattform ist. Die Server- Komponente ist in Python geschrieben. Es gibt Client- Bibliotheken unter anderem auch für Node.
  26. Sixpack const sixpack = require('sixpack-client'); const session = new sixpack.Session();

    session.participate('test-exp', ['alt-one', 'alt-two'], (err, res) => { if (err) { throw err; } let alt = res.alternative.name if (alt == 'alt-one') { console.log('default: ' + alt); } else { console.log(alt); } });
  27. Optimizely Optimizely bietet nicht nur die Möglichkeit das Frontend zu

    “verbiegen”, sondern stellt auch APIs für verschiedene Sprachen und Plattformen wie Node.js zur Verfügung. npm install —-save optimizely-server-sdk
  28. Optimizely const optimizely = require('optimizely-server-sdk'); const optimizelyClient = optimizely.createInstance({ datafile:

    datafile }); const variation = optimizelyClient.activate(‘profile', userId); if (variation === 'variant A') { // Execute code for variation A } else if (variation === 'variant B') { // Execute code for variation B } else { // Execute default code } optimizelyClient.track("my_conversion", userId);
  29. Tracking und Auswertung Der mitunter wichtigste Teil eines Experiments ist

    seine Auswertung. Zu diesem Zweck bieten die verschiedenen Werkzeuge Möglichkeiten zur Auswertung. Sowohl Optimizely als auch Sixpack und Google Experiments verfügen über eine grafische Oberfläche.
  30. Komplexität Einzelne A/B- oder Multivarianten-Tests sind relativ gut kontrollierbar. Sind

    viele Experimente in einer großen Applikation parallel aktiv, sollten diese an einer zentralen Stelle verwaltet werden. Wenn möglich sollten verschachtelte Experimente vermieden werden. Derartige Konstellationen können sich gegenseitig beeinflussen und verfälschen unter Umständen die Ergebnisse.
  31. Laufzeit Die Laufzeit muss so gewählt werden, dass die Ergebnisse

    aussagekräftig sind. Werden mehrere Experimente hintereinander geschaltet, sollten Sie auch über die gleiche Laufzeit verfügen.
  32. Teilnehmer Damit ein Experiment ausgewertet werden kann, müssen genügend Benutzer

    die an den verschiedenen Varianten teilnehmen. Dies ist wichtig, damit nicht wenige Teilnehmer das Ergebnis verfälschen.
  33. Zeitraum Experimente sollten in einem möglichst neutralen Zeitraum stattfinden. In

    einem Online-Shop ist der Traffic in der Weihnachtszeit am höchsten. Diese Zeit ist auch nicht immer repräsentativ.