Keresés
Header Háttér

Webshark Blog

… jquery, ajax, design, psd, plugin, modul, web2, social, miegymás…

2017-10-260 komment

Hogyan végezz el egy A/B tesztet 15 lépésben?

Amikor elkészítesz egy landing oldalt, összeállítasz egy e-mailt vagy csak megtervezel egy új call to action gombot sokszor csak a megérzéseidre hagyatkozol azok kialakításánál. A tapasztalataidból kiindulva próbálod kitalálni, hogy mi az, amire kattintanak az emberek. Ez azonban nem elég hatékony megoldás, az A/B tesztek megbízhatóbb eredményeket hoznak.

Ahelyett, hogy feltételezésekre és érzésekre hagyatkozva hoznál meg súlyos következményekkel járó döntéseket, jobban teszed, ha tesztelsz. Az egyes célközönségek ugyanis nem egyformák, és főleg nem azonosak veled vagy a kollégáiddal. Ami az egyik esetben működik, az nem feltétlenül lesz működőképes más körülmények között.

Ugyanakkor a teszteknek is megvan az a veszélye, hogy rossz következtetéseket vonsz le belőlük, így hibás lesz az egész stratégiád. Még egy A/B tesztet is el lehet rontani, ha rossz a kiindulópontod. Pedig ez a legegyszerűbb teszt-típus. Ilyenkor mindössze annyit kell tenned, hogy egy verzióval szembeállítasz egy másikat, majd méred a különbséget. Például megvizsgálod, hogy egy zöld vagy egy piros színű CTA-ra kattintanak-e inkább az emberek. Ilyenkor persze kérdésként felmerülhat, hogy érdemes-e ezt tesztelni? Amire a bejegyzés végén még visszatérünk.

De lássuk először azt, hogy mi kell ahhoz pontosan, hogy el tudj végezni egy A/B tesztet? Most felsoroljuk lépésről-lépésre, hogy mit kell tenned a teszt indulása előtt, hogyan végezd a tesztet, és mit tegyél utána! De kezdjük ott, hogy

Hogyan működnek az A/B tesztek?

Ahhoz, hogy futtatni tudj egy A/B tesztet, szükséged lesz valamely tartalmi elemedből két verzióra, melynél csak egyetlen dolog esetében mutatkozik eltérés a másikhoz képest. Ezt a két verziót két hasonló méretű csoportnak kell prezentálnod, majd elemezned, hogy melyik verzió teljesített jobban.

Tehát például szeretnéd tudni, hogy egy hajtás felett elhelyezz call to action gomb jobban teljesít-e, mint a lap alján elhelyezett CTA. Ennek A/B tesztelése úgy történik, hogy elkészíted mindkét verziót egy-egy weboldalon. A gyakorlatban az egyik általában a meglévő designod, míg a másik a kihívója, egy új megoldás. Mindkét verzió esetében egy nagyjából ugyanakkora méretű látogatócsoportnak kell használnia mindkét verziót. A teszt végén a kapott adatokból kiderül, hogy melyik megoldásnál volt több kattintás a CTA-ra. Ahol több a kattintás, az a nyerő verzió. De lássuk a folyamatot lépésekre bontva!

Mit tegyél az A/B teszt indulása előtt?

1. Válassz ki egy verziót tesztelésre!

A weboldalad vagy az e-mailjeid optimalizálása közben általában azzal az igénnyel találkozol, hogy többféle ötleted is születetett, melyeket tesztelni szeretnél. Ahhoz azonban, hogy valóban rájöjj pontosan mi okoz eltérést a hatékonyságban, egyszerre mindig csak egyetlen változtatást szabad eszközölnöd. Így tudod csak pontosan mérni a teljesítményét. Ha több dolgot változtatsz meg egyszerre, akkor nem fogod tudni, hogy melyik, milyen irányú változást okozott. Egyszerre tehát mindig egy módosítást tesztelj! Tartsd észben, hogy még a legkisebb változtatás is – akár egy kép cseréje – is jelentős eltérést eredményezhet a számokban! Léteznek persze olyan, többváltozós tesztek, ahol nem csak egyetlen elem változását próbálják mérni, ez azonban nem az A/B tesztek köre.

2. Határozd meg a célod!

Habár minden tesztnél több számot is figyelni fogsz, érdemes egy elsődleges adatra fókuszálni, még mielőtt elkezdenéd a tesztet. Már azelőtt érdemes kiválasztani azt, hogy mi az ami számodra különösen fontos, mielőtt szembeállítanál egy variációt az elsővel.

Ha csak a teszt után határozod meg azt a mutatót, ami fontos számodra, ekkor határozod meg a célt, és gondolod végig, hogy a javasolt változások miként befolyásolhatják a felhasználói viselkedést, akkor lehet, hogy nem sikerül a leghatékonyabban kivitelezned a tesztet.

3. Találd ki a “kontroll” és a “kihívó” verziót!

Bármit is tesztelsz, mindig a jelenlegi állapotú verzió legyen a “kontroll” verzió. Ha például egy weboldalt tesztelsz, akkor a kontroll verzió a már létező weboldal lesz. Ezután hozz létre egy ehhez képest megváltoztatott verziót, mely a “kihívó” lesz.

Tehát ha például arra vagy kíváncsi, hogy egy landing oldalon érdemes-e elhelyezned korábbi vevők ajánlását, akkor a kontroll oldaladon még nincs meg az ajánlás, viszont a kihívó variáción ez megjelenik, így mérheted a hatását a megrendelésekre.

4. A mintacsoportokat véletlenszerűen válaszd ki és egyforma méretűek legyenek!

Az olyan teszteknél, ahol megvan a teljes befolyásod a tesztcsoportok kiválasztására – például e-mail verziók tesztelésénél -, a helyes eredmények érdekében azonos méretű csoportokban kell gondolkodnod, melyek tagjait véletlenszerűen válogatod össze.

5. Határozd meg a mintaméretet!

Az, hogy miként tudod meghatározni a tesztcsoportokat, az az A/B tesztelő eszközödtől, valamint attól függ, hogy milyen típusú tesztet hajtasz végre. Ha egy e-mailt A/B tesztelsz, akkor vélhetően egy kisebb csoportot veszel bele a teljes listából az A/B tesztbe, majd a maradék nagyobb csoportnak küldöd ki a nyertes verziót.

Ha viszont egy olyan dolgot tesztelsz, amelynek nincs egy véges közönségmérete – tehát például egy weboldalt -, akkor az határozza meg a mintaméretet, hogy mennyi ideig futtatod a tesztet. Elegendő ideig kell tesztelned majd ahhoz, hogy elérd a megfelelő látogatószámot, különben nehezen tudnál rámutatni statisztikailag szignifikáns eltérésekre.

6. Döntsd el, hogy mennyire kell szignifikánsnak lenniük az eredményeknek!

Ha már meghatároztad a cél-mutatót, akkor tudnod kel, hogy mikor válik szignifikánssá számodra az eredmény ahhoz, hogy az egyik verziót győztesnek kiálthasd ki. Ez egy rendkívül fontos tényező az A/B tesztelés folyamatában.

A nagyobb változások esetén kisebb mértékű sziginfikancia is elegendő, hiszen vélhetően a jelentős mértékű változtatás okozza a konverzió-javulás. Ugyanakkor apró változtatások (gombszín, microcopy) nem okoznak óriási változást a konverziós arányban, így szignifikánsabb eredmények indokolnak csak változtatást. Általában 80-98 százalékos értékeknél elfogadható a megbízhatóság, online (A/B teszt szignifikancia) kalkulátorokkal ezek az értékek könnyen kiszámíthatók.

7. Csak egyetlen tesztet futtass egyszerre!

Ha egynél több dolgot tesztelsz egyszerre, akkor összekuszálódhatnak a dolgok. Ha például épp egy e-mail kampánynál hajtasz végre A/B tesztet, ami egy landing oldalra vezet, viszont eközben ezt a landing oldalt is A/B teszteled, akkor nem jutsz semmire az eredményekkel.

Az A/B teszt során

8. Válaszd ki az A/B tesztelő eszközt!

Az A/B tesztekhez valamilyen tesztelő eszközre szükséged lesz a következő pontokban részletezett okoknál fogva. A weben találsz erre lehetőségeket, de bizonyos e-mail szolgáltatásokba (például Mailchimp) be van építve a funkció, illetve a Google Analyticset is használhatod erre a célra. A legújabb lehetőség pedig a Google-től az Optimize, mely talán a legjobb ingyenes lehetőség.

Az Optimize béta verziója 2016 őszén indult, 2017 márciusában már kilépett a béta állapotból, és a világ 180 országában elérhető. A Google kifejezetten kis és közepes méretű vállalkozásoknak szánja. Az Optimize-t össze kell kötni a Google Analyticsszel, hogy az adatok segítsenek a weboldal tesztekben. Vizuális szerkesztőjében bizonyos elemek könnyen elhelyezhetők az oldalon drag and drop megoldással, de a nyers HTML kód is szerkeszthető, valamint JavaScript és CSS szabályok is hozzáadhatók.

google-optimize

 

9. Egyidejűleg teszteld a két variációt!

Az idő fontos szerepet játszik a marketingkampányod eredményeinél, hiszen befolyásolja az eredményeket az, hogy mely hónapban, napon, napszakban végzed a tesztet. Hibás következtetésekhez vezethet, ha az egyik verziót az egyik hónapban, majd a másik verziót a következő hónapban vizsgálod. A két variációt lehetőleg azonos időpontban kell tehát futtatni. Kivételt jelent persze, amikor magának az időpontnak a hatékonyságát teszteled, tehát például azt, hogy mikor a legjobb kiküldeni egy e-mailt.

10. Elegendő ideig futtasd a tesztet!

Ahhoz, hogy megfelelő mintaméretet kapj, elegendő ideig kell zajlania a tesztjeidnek. Ha nem megfelelő méretű a minta, akkor nem tudod megmondani, hogy statisztikailag szignifikáns-e az eltérés a két variáció között. De milyen hosszú időtartam a megfelelő? Ez függ attól, hogyan hajtod végre az A/B tesztet és mit tesztelsz. Lehet néhány óra vagy akár több hét is, míg megfelelő eredményekhez jutsz. Tehát, ha a weboldaladnak alacsony a látogatószáma, akkor hosszabb ideig fog tartani a teszt elvégzése.

11. Kérj visszajelzés a felhasználóktól!

Az A/B tesztek során mennyiségi adatokkal dolgozol. Ezek azonban nem feltétlenül magyarázzák meg számodra a miértet. Az A/B tesztek során tehát érdemes kvalitatív információkat is beszerezni, azaz megkérdezni az embreket, hogy mi a véleményük. Elhelyezhetsz például egy kilépő kérdőívet a weboldaladon, ahol megkérdezed az emberektől, hogy miért nem kattintottak a CTA-ra, illetve a köszönő oldalon azt kérdezed meg tőlük, hogy miért kattintottak rá.

Az A/B teszt után

12. Koncentrálj a cél-mutatóra!

Habár nyilván több dolgot is mérsz egyszerre, mégis ki kell választanod egy mutatót, ami a legfontosabb számodra. Ezt még a teszt előtt meg kell tenned. Tehát, ha egy e-mail tesztnél a konverziós arányt választottad, mint elsődleges mutatót, akkor a teszt után már ne a megnyitási és az átkattintási aránnyal kezdjél foglalkozni. Lehet, hogy azt fogod látni, hogy gyenge az átkattintási arány, de jó a konverzió, mégis azt a verziót kell választanod, mely jobb konverziós arányt hozott.

13. Állapítsd meg, hogy szignifikánsak-e az eredmények!

Itt jöhetnek a számítások, de az interneten találsz hozzá szignifikancia kalkulátorokat A/B tesztekhez. Például használhatod ezt, mely a 90 százaléknál nagyobb bizonyosságot tekinti statisztikailag szignifikánsnak. Csak be kell írnod a próbálkozások számát, tehát például az oldallátogatókét vagy a kiküldött e-mailekét, majd a konverziók számát, például egy adott CTA-ra kattintókét, és megállapítja, hogy bízhatsz-e az eredményekben.

14. Cselekedj a kapott eredmények alapján!

Ha statisztikailag szignifikáns eredményt kaptál, akkor láthatod, hogy melyik verzió teljesített jobban. Vedd használatba a jobban teljesítő verziót! Ha azt látod, hogy statisztikailag egyik verzió sem tekinthető jobbnak a másiknál, akkor maradj az eredeti verziónál, mert nincs értelme módosítanod. Vagy pedig futtass egy újabb tesztet nagyobb mintával. De minden egyes tesztnél rá fogsz jönni olyan dolgokra, melyeket később is felhasználhatsz.

15. Végül, tervezd meg a következő tesztet!

Az éppen befejezett A/B teszt segít abban, hogy miként teheted hatékonyabbá a marketingedet. Itt azonban ne állj meg, hiszen mindig van lehetőség további optimalizálásra! Ha változtattál egy szövegen, utána jöhetnek a színek vagy a képek. Mindig gondolkozz, hogy milyen lehetőségek merülnek fel, melyekkel esetleg javíthatod a konverziós arányod és a vevőid számát!

Milyen gond lehet az A/B tesztekkel?

Az A/B teszteknél a kérdés elsősorban az, hogy van-e értelme, hoz-e valós eredményt egy-egy teszt? Valóban egy A/B teszt tud segíteni az oldaladon? Elegendő az, hogy arra figyelsz milyen színű a CTA-d, ahelyett, hogy jobbá tennéd a terméked?

Sok esetben nem elegendő, mert a gond nem egy CTA színével van, hanem sokkal mélyebben. Vagyis nem azért nem osztják meg mondjuk a tartalmad az emberek, mert rossz a CTA-d, hanem azért, mert gyenge a tartalom. Ráadásul az is lehet, hogy nem is annak kellene a célodnak lenni, hogy minél több kattintást érj el, hanem például az, hogy bizalmat építs.

Az AppSumo vizsgálata szerint mindössze az A/B tesztek 10 százalékának eredményeként kerül sor változtatásokra a weboldalakon. A teszteket elvégzők a tesztek felénél nem hoztak döntést a nem meggyőző vagy rosszul mért adatok miatt. Az oka ennek az, hogy a cégek túl gyakran, de túl rövid ideig futtattak A/B teszteket.

Figyelembe kell venned, hogy a szín megváltoztatása, a call to action szövege vagy a weboldal felépítése csak minimális hatással lehet a kulcsfontosságú adatokra. Ráadásul, ha ezek megváltoztatásával javítasz is a számokon, ezek valószínűleg csak rövid életűek. Folyamatos növekedést ugyanis nem egy kékről pirosra módosított gomb fog eredményezni, hanem egy olyan termék kialakítása, melyet szeretnek használni az emberek.

Vagyis arra kell törekedned, hogy több értéket adj, és javítsd a felhasználói élményt! Mindig gondolj arra, hogy nem feltétlenül egy gomb színe miatt nem jönnek az eredmények. Lehet, hogy javítanod kell a terméken vagy a funkción, amit kínálsz az embereknek

Ha azt állapítod meg egy A/B teszt során, hogy az A verzió 20 százalékos konverziós arányt hoz, míg a B verzió 22 százalékot, akkor nincs túl sok értelme ez alapján bármit is módosítani a weboldaladon. Figyelj arra, hogy az adatok statisztikailag szignifikánsak legyenek! Emiatt érdemes a teszteket minél hosszabban futtatni, hiszen annál megbízhatóbb adatokat kapsz. Annak nincs értelme, hogy egy néhány napos teszt határozza meg a weboldalad kinézetét az elkövetkező évekre.

A hatékony A/B tesztek révén megoldod az emberek problémáit. Ezek hosszú távú, értékes változásokat eredményeznek a felhasználók számára. Ha viszont megalapozatlan vizsgálatokra építed a weboldalad, azzal valójában nem tartasz semerre. Tehát olyan dolgokat tesztelj, melyeknek jelentőségük van, figyelj a valódi visszajelzésekre, és megfelelő ideig futtasd a teszteket! Adj ezáltal valódi értéket a felhasználóidnak és ne a színárnyalatokkal játssz!

Természetesen fontos, hogy a weboldalad felépítése jó legyen, a szövegek hatékonyak, az információs architektúra pedig jól használható. Ugyanakkor az is fontos, hogy ténylegesen javíts a felhasználói élményen és oldd meg a weboldaladdal kapcsolatos problémákat, ne csak úgy tegyél, mintha ezt csinálnád!

Kategória: Design | Címke:

Főleg írok. Főleg blogot és közösségi médiát, de tágabb perspektívában: online marketing, úgyhogy van benne bőven SEO, laza AdWords, webdesign-okoskodás, és még ami belefér.