Analyze IT – relacja z konferencji

Analyze IT – relacja z konferencji
Podziel się tym wpisem...Share on FacebookShare on Google+Share on LinkedInEmail this to someone

Analyze IT było wydarzeniem niezwykłym przynajmniej z kilku powodów. Przede wszystkim bowiem była to okazja do tego by w poszukiwaniu nowej wiedzy odwiedzić wreszcie Rzeszów a tak się składa, że na wschodzie Polski nie było jeszcze dane mi bywać przy okazji branżowych wydarzeń. Drugim powodem była bez wątpienia tematyka bowiem na nadmiar wydarzeń dotyczących analityki nie możemy szczególnie narzekać.

Każda tego typu konferencja jest więc na wagę złota dając możliwość nie tylko zdobycia nowej wiedzy ale również uporządkowania tej już posiadanej. Mogłoby się wydawać, że w tego typu wydarzeniach problemem będzie poziom uczestników bowiem dla jednych pewne zagadnienia mogą być zbyt trudne i złożone a dla innych wręcz odwrotnie, mogą się okazać wręcz trywialne.

Tak naprawdę jednak jest to moim zdaniem problem nieco wyimaginowany co zresztą pokazała właśnie konferencja Analyze IT. Po całym dniu wystąpień naprawdę przepełnionych wiedzą usatysfakcjonowane mogły się czuć zarówno osoby będące dopiero na początku swojej analitycznej drogi jak i wszyscy Ci dla których Google Analytics, GTM czy Firebae to już nie pierwszyzna. Zarówno jedni jak i drudzy mogli wyłapać cenne dla siebie informacje i poszerzyć swoje horyzonty. To właśnie możliwość szerszego spojrzenia na pewne zagadnienia jest jednym z atutów tego typu wydarzeń.

Tak właśnie było w przypadku Analyze IT gdyż prelegenci podczas swoich wystąpień często odwoływali się do developmentu, UX czy marketingu. W zasadzie trudno się temu dziwić biorąc pod uwagę, że mówimy o dziedzinie, której esencją są tak naprawdę dane. Analityka ma swoje miejsce w każdym ze wspomnianych obszarów i bez wątpienia to właśnie dzięki temu jest aż tak fascynująca. Obecnie bez odpowiednich danych naprawdę jesteśmy niczym dziecko błądzące we mgle. Bez względu na to czy zajmujemy się reklamą, UXem czy też np. tworzymy aplikacje mobilne informacja zwrotna na temat naszych działań jest niezwykle cenna.

Jednak surowe dane to nie wszystko, szczególnie gdy weźmiemy pod uwagę fakt, że obecnie jesteśmy niemal nimi zalewani. Kluczowa kwestia to ich właściwa interpretacja i wyciągnięcie wniosków. Właśnie odpowiednie wykorzystanie gromadzonych danych urasta stopniowo do rangi prawdziwej sztuki gdyż za sprawą istniejących rozwiązań samo zbieranie przeróżnych informacji jest obecnie bardzo proste. Jednak już kwestia tego jakich danych potrzebujemy bywa problematyczna bowiem często popadamy w swoistą paranoję gromadzenia jak największej ilości informacji nie zastanawiając się nawet czego tak naprawdę chcemy się dowiedzieć.

Dlatego właśnie szczególnie w przypadku analityki tak istotny jest otwarty umysł i szeroki horyzont postrzegania. To dzięki temu można spojrzeć na posiadane dane we właściwy sposób rozumiejąc zależności zachodzące pomiędzy nimi. Niezwykle istotne jest uświadomienie sobie różnego rodzaju powiązań pomiędzy różnymi danymi, które nie istnieją przecież w oderwaniu od siebie a są elementem pewnej większej całości, w kontekście której powinny być odpowiednio postrzegane. Pora jednak kończyć ten nieco przydługi wstęp bowiem trzeba wreszcie wspomnieć co w kontekście tej całej analityki zostało powiedziane podczas sześciu wystąpień, których świadkami byliśmy w czasie konferencji Analyze IT.

Firebase – Możliwości i wyzwania dla deweloperów – Przemek Pardel

Aplikacje mobilne to obszar rozwijający się niezwykle szybko co nie powinno dziwić gdy weźmie się pod uwagę fakt, że smartfony stały się nieodłącznymi towarzyszami naszego życia. Jest to jednocześnie kolejny obszar, w którym niezwykłe pole do popisu daje analityka.

Deweloperskie możliwości Firebase

Na początek skupiliśmy się przede wszystkim na developerskiej stronie możliwości oferowanych przez Firebase. Jak się bowiem okazało narzędzie to może być naprawdę cennym wsparciem dla każdego kto rozwija własne aplikacje mobilne. Podróż przez świat developerskich możliwości zaczęliśmy od bazy danych. W tym wypadku mamy do czynienia z bazami czasu rzeczywistego, których specyficzna budowa wymusza myślenie o obiektowości w kontekście gromadzonych informacji. Rozwiązanie takie powstało w głównej mierze w myślą o umożliwieniu jak najszybszej synchronizacji danych przechowywanych w ramach takich struktur.

Kolejną omówioną kwestią były możliwości w zakresie autentykacji użytkowników naszej aplikacji. Firebase umożliwia wykorzystanie w tym procesie zewnętrznych mechanizmów takich jak choćby logowanie przy wykorzystania konta na Facebooku. Dzięki temu możemy zdjąć z siebie konieczność potwierdzania autentyczności użytkownika. Nie musimy się martwić o przechowywanie bazy userów a także ich problemy związane np. z odzyskiwaniem hasła bowiem wszystkie te kwestie są po stronie zewnętrznych firm takich jak właśnie wspomniany Facebook.

Tak naprawdę nie musimy się martwić również o hosting gdyż otrzymujemy dostęp do takowego. W dodatku jest on oparty na rozproszonej strukturze co zapewnia bardzo szybki dostęp do danych. W standardzie mamy też protokół SSL oraz możliwość podpięcia własnej domeny. Funkcjonalność związana z przechowywaniem danych nie ogranicza się jednak do hostingu bowiem Firebase zasadniczo kładzie nacisk właśnie na możliwość łatwego przechowywania danych związanych z naszą aplikacją. Kluczową wartością podobnie jak w przypadku omawianych wcześniej baz danych jest w w tym wypadku szybki dostęp, który możemy w szerokim zakresie kontrolować przy wykorzystaniu reguł.

Remote config

Bez wątpienia jedną z ciekawszych funkcjonalności do jakich dostęp zapewnia nam Firebase jest remote config. Dzięki niemu zyskujemy możliwość przechowywania po stronie serwera zmiennych, do których możemy odwoływać się później w naszej aplikacji. W ten sposób możemy budować mechanizmy, w przypadku których zmiana dokonana w takiej zmiennej będzie niemal natychmiast widoczna w aplikacjach u użytkowników. Za przykład zastosowania takiego rozwiązania posłużył prosty mechanizm wyświetlający w aplikacji pop-up po upływie zadanego czasu. Właśnie ten czas a tak naprawdę konkretna wartość go symbolizująca mógłby być przechowywany w zmiennej po stronie serwera w przypadku wykorzystania remote config.

Zaletą takiego rozwiązania byłaby łatwość wprowadzania zmian związanych z taką zmienną. W przypadku zwykłej aplikacji gdybyśmy chcieli zmienić czas po jakim pojawia się okienko z komunikatem konieczne byłoby przygotowanie aktualizacji aplikacji. Dopiero po jej pobraniu użytkownicy mogliby zauważyć wprowadzoną przez nas zmianę. Jeśli jednak skorzystalibyśmy z możliwości jakie daje nam Firebase, po zmianie przez nas wartości zmiennej na serwerze mogłaby ona automatycznie zostać zaktualizowana przez aplikację, która po prostu pobrałaby nową wartość właśnie z serwera.

Testowanie aplikacji w Firebase

Firebase dysponuje również naprawdę sporymi możliwościami jeśli chodzi o testowanie aplikacji. Przede wszystkim pomaga on w znacznym stopniu poradzić sobie z problemem weryfikowania działania naszych appek na różnych typach urządzeń. Praktycznie każdy kto miał do czynienia z tworzeniem aplikacji na Androida zdaje sobie sprawę z tego jak wiele jest urządzeń działających pod kontrolą tego systemu. Naturalne jest więc, że nie jesteśmy w stanie przeprowadzić samodzielnych testów jednak tu właśnie z pomocą przychodzi nam tak zwany Test Lab. Jest to funkcjonalność zapewniająca nam możliwość zlecenia testów naszej aplikacji na wskazanych przez nas typach urządzeń, na których co ciekawe nasza aplikacja jest faktycznie fizycznie testowana. W rezultacie otrzymujemy raporty i screeny dające nam wiedzę na temat tego czy funkcjonuje ona poprawnie na zróżnicowanych konfiguracjach sprzętowych czy różnych wersjach Androida.

Na tym nie kończą się jednak nasze możliwości kontroli czy stworzona przez nas aplikacja działa poprawnie w zróżnicowanym ekosystemie Androida. Kolejną ciekawą funkcjonalnością jest bowiem Crash Reporting dostarczający nam wiele informacji na temat ewentualnych problemów z naszą appką. Co ciekawe mamy możliwość wychwycenia powtarzalnych problemów za sprawą możliwości klastrowania zdarzeń. Dzięki temu możemy się np. przekonać czy problemy nie pojawiają się na konkretnej wersji Androida.

Marketingowe możliwości Firebase

W ten sposób zamknęliśmy etap omawiania developerskich możliwości oferowanych przez Firebase. Stworzenie nawet bardzo dobrej aplikacji to jednak tylko krok w stronę sukcesu bowiem trzeba jeszcze zadbać o to aby dotarła ona do użytkowników. Do tego właśnie aspektu odnosił się drugi obszar omówionych funkcjonalności przedstawiony podczas prezentacji. Na początek przekonaliśmy się o możliwościach w zakresie zapraszania użytkowników do czego zresztą możemy wykorzystywać zarówno media społecznościowe jak i kanały komunikacji takie jak SMS czy email. Do tego dochodzą spore możliwości oferowane nam przez Dynamic Links a więc funkcję tworzenia linków, które mogą się zachowywać w zróżnicowany sposób determinowany przez kontekst w jakim zostaną użyte. Oczywiście do akwizycji użytkowników z powodzeniem możemy wykorzystać również system reklamowy Google AdWords.

Poza akwizycją mieliśmy również okazję dowiedzieć się nieco o możliwościach angażowania użytkowników. Tutaj na pierwszy plan wybijał się App Indexing, za sprawą którego dane z aplikacji mogą stać się dostępne zarówno lokalnie w ramach ekosystemu samego urządzenia jak i globalnie w wyszukiwarce. Etap omawiania marketingowych możliwości zakończyły notyfikacje, dzięki którym możemy docierać do użytkowników z konkretnym przekazem. Warto wspomnieć, że możemy korzystać warunków segmentujących naszych użytkowników a co za tym idzie kierować do różnych ich typów zupełnie odmienne komunikaty.

Analityka w Firebase

Na koniec nie mogło oczywiście zabraknąć wspomnienia o tym jak duże możliwości analityczne oferuje Firebase. Bez wątpienia w tym zakresie jest to cenne wsparcie dla Google Analyticsa, który choć jest narzędziem o sporych możliwościach to w zakresie analityki aplikacji mobilnych ustępuje temu co do zaoferowania ma właśnie Firebase. Bez wątpienia dzięki niemu uzyskujemy dostęp do naprawdę pokaźnej ilości informacji na temat tego jak funkcjonuje nasza aplikacja. Do tego dysponujemy możliwością definiowania różnorodnych zdarzeń pozwalających jeszcze lepiej śledzić to jak z naszej appki korzystają użytkownicy. Oczywiście wszelkie definiowane zdarzenia możemy grupować w ramach segmentacji użytkowników.

Analityka w Social Media – Mikołaj Winkiel

Społeczność to tak naprawdę swoisty fundament Internetu i większość z nas nie wyobraża sobie już współczesnej sieci bez portali społecznościowych takich jak Twitter lub Facebook. Ogromną wartością jest też możliwość dyskutowania na przeróżnych forach internetowych, które co może być dla wielu osób zaskoczeniem nawet w dobie dominacji social mediów radzą sobie całkiem nieźle. Bez wątpienia ciężko również byłoby wyobrazić sobie współczesny Internet bez blogerów lub jak niektórzy twierdzą już raczej influencerów, którzy w wielu wypadkach okazują się być bardziej opiniotwórczy niż tradycyjnie postrzegane media.

Analityka i monitoring mediów społecznościowych

Te społeczności to tak naprawdę ogromna szansa dla marek, które jednak muszą potrafić skorzystać z okazji jaką niejednokrotnie daje szum na ich temat wywołany w sieci właśnie przez użytkowników. Problem jednak w tym, że najpierw trzeba jakoś dotrzeć do tych wszystkich wzmianek o marce pojawiający się na wspomnianych już portalach społecznościowych, forach czy blogach. Nie trzeba chyba szczególnie przekonywać, że bez odpowiednich narzędzi zadanie to można byłoby bez wątpienia określić w najlepszym wypadku mianem naprawdę karkołomnego. Dlatego właśnie chcąc prowadzić jako marka działania w oparciu o możliwości jakie dają social media warto sięgnąć po analitykę i monitoring mediów społecznościowych.

Przede wszystkim kluczowe jest poznanie opinii o danej marce w mediach społecznościowych. Wszystkie marki są w sieci czy tego chcą czy nie bowiem trzeba sobie zdawać sprawę z tego, że użytkownicy zawsze dyskutują o markach i to, że dana firma zdecyduje się nie podejmować aktywności wcale nie oznacza, że nie będzie w nich o niej głośno. Dlatego też monitoring i analiza social mediów w obecnych czasach jest już dla marek praktycznie koniecznością bez względu na to czy chcą one aktywnie wykorzystywać media społecznościowe do działań wizerunkowych czy też nie.

Wizerunek w social mediach

Jest to o tyle ważne, że nawet jeśli jakaś marka nie chce promować się na portalach społecznościowych to powinna przynajmniej zadbać o ochronę własnego wizerunku. Nikt bowiem nie mówi, że wszystkie opinie jakie pojawiają się na Facebooku czy też innych portalach są w pełni wiarygodne. Dodatkowo trzeba też być świadomym tego, że odpowiednio reagując na negatywną opinię można wiele zyskać.

Przede wszystkim nie wolno jednak zapominać o zjawisku podszywania się pod marki. Przykładem może być choćby dość głośna akcja związana z siecią Media Expert i produktami rzekomo rozdawanymi w ramach czyszczenia magazynów. Pojawił się również przykład Netflixa, w przypadku którego jeszcze przed oficjalnym pojawieniem się marki w Polsce jeden z użytkowników prowadził nieoficjalny profil marki w tak przekonujący sposób, że wiele osób nabrało przeświadczenia o jego autentyczności.

Podane przykłady stanowiły tak naprawdę zupełnie różne przypadki. W wypadku podszywania się pod Media Expert mieliśmy bowiem do czynienia ze zwykłym przekrętem. Jednak Netflix był już tak naprawdę testem tego jak można prowadzić profil marki w mediach społecznościowych w nieszablonowy sposób. W tym drugim wypadku może cieszyć reakcja marki, która podjęła współpracę z niesfornym użytkownikiem. Zrobiono to doceniając jego kreatywność i widząc korzyści jakie może przynieść taka współpraca dająca możliwość wyróżnienia się na konkurencyjnym rynku gdzie takie aspekty jak wyjątkowa forma komunikacji są niezwykle istotne i mogą być podstawą sukcesu.

Marka monitorująca stale social media może więc szybciej reagować na zjawiska podszywania się pod nią. Jeśli są to działania typowo o charakterze przestępczym to jest to szansa na ich szybkie ukrócenie. W ten sposób można uchronić użytkowników i możliwie ograniczyć negatywny wydźwięk w kontekście swojego wizerunku. Jednocześnie jednak jak pokazał przykład Netflixa może to być również szansa dla marki na wykorzystanie takiej sytuacji z korzyścią dla siebie i swojego wizerunku.

Monitorowanie opinii a co za tym idzie analiza wizerunku swojej marki w mediach społecznościowych to jednak nie wszystko. Żyjemy w czasach gdy to medium dla wielu osób stało się podstawowym kanałem komunikacji. Jest to jednak dość specyficzna forma komunikacji bowiem często użytkownicy niejako prowokują marki do kontaktu przywołując je czy to przy okazji informowania o jakimś problemie czy nawet stając przed pewnym dylematem.

Pozyskuj konsumentów przez media społecznościowe

Social media to również idealne narzędzie do pozyskiwania konsumentów. Jednak jest tu pewien haczyk i słusznie zostało zauważone podczas prezentacji, że ich sprzedażowych możliwości nie powinniśmy traktować zbyt bezpośrednio. Przede wszystkim należy się skupić na budowaniu naszego wizerunku jako specjalistów w konkretnej dziedzinie. Zostało to pokazane na przykładzie Brand24, w przypadku którego wszelkie działania nie tylko na portalach społecznościowych takich jak Facebook ale również w serwisach typu Quora są nastawione właśnie w głównej mierze na pomaganie użytkownikom i rozwiązywanie ich problemów. Użytkownicy często pytają w sieci o to jak coś zrobić czy gdzie coś znaleźć. Pomagając im buduje się stopniowo swój autorytet a wraz z autorytetem z czasem przyjdzie i sprzedaż. Powinniśmy zatem po prostu robić swoje i być naturalni a to czego najbardziej oczekujemy patrząc już czysto ekonomicznie a więc zysk przyjdzie przy okazji.

Dodatkowo dokonywana podczas tego typu działań analiza może się przyczynić do odkrycia zupełnie nowych miejsc, w których toczą się dyskusje nie tylko o naszej marce ale choćby w zakresie branży w jakiej ona funkcjonuje. Przykładem takich miejsc jest wspomniana już Quora. To właśnie regularna aktywność na niej oraz pomoc użytkownikom w wymierny sposób przyczyniła się do wzrostu sprzedaży abonamentów Brand24 na rynkach zagranicznych.

Tak naprawdę możliwości analityki w dziedzinie social media sięgają znacznie dalej bowiem dowiadywanie się o nowych miejscach, w których warto się udzielać i zaakcentować w ten sposób swojej istnienie to tylko ułamek tego co ma do zaoferowania ta dziedzina. Możemy spojrzeć na media społecznościowe z szerszej perspektywy dowiadując się na jakich typach stron pojawia się najwięcej informacji na nasz temat a także na temat branży w jakiej działamy. Dla jednych bardziej opłacalne może być skupienie się na forach internetowych a dla innych nawiązanie współpracy z blogerami. Może to właśnie na blogach pojawiają się kluczowe informacje o marce publikowane przez inluencerów a firma nawet nie zdaje sobie z tego sprawy ignorując kwestię monitoringu tego obszaru.

Zdobywane dane mogą być bardzo przydatne nie tylko przy ustalaniu tego gdzie pisać ale również kiedy to robić i jak. Analityka dostarcza nam bowiem też informacji o tym jakie pory dnia oraz jakie dni tygodnia są najefektywniejsze jeśli chodzi o docieranie do odbiorców. Dowiemy się również jakie typy treści są przez nich najbardziej preferowane i czy zamiast kolejnego artykułu lepszym pomysłem nie okaże się np. przygotowanie materiału wideo. Dzięki analizie dostępnych danych możemy się również dowiedzieć więcej na temat tego kim są tak naprawdę użytkownicy najwięcej dyskutujący o nas w mediach społecznościowych poznając ich płeć, wiek czy lokalizację.

Mikołaj Winkiel podczas swojej prezentacji bez wątpienia udowodnił, że social media nie są czymś co można ignorować. Bez względu na to czy jako marka mamy pomysł na to jak w nich zaistnieć i jak budować swój wizerunek, powinniśmy zwrócić na nie uwagę bo nasi użytkownicy już tam są i prawdopodobnie o nas dyskutują.

Odrobina szaleństwa w smutnej analityce webowej – Piotr Rudnicki

Podczas prezentacji została zwrócona uwaga na to, że analityka bywa postrzegana w przeróżny sposób. My jako analitycy często dostrzegamy ogromne możliwości jakie daje dziedzinie ceniąc sobie swoje umiejętności i postrzegając się jako ludzie, którzy potrafią wyczarować prawdziwe cuda na podstawie danych. Jednak sytuacja wygląda zupełnie inaczej z perspektywy osób postronnych, niezwiązanych z tą branżą. W ich wypadku analityka postrzegana jest jako coś naprawdę nudnego i kojarzona między innymi z ogromem cyferek i wykresów Excelu. Często wręcz można się spotkać ze zdziwieniem jak możliwe jest ekscytowanie się czymś takim.

Nie wiemy jak funkcjonuje analityka

Dopiero w tym momencie przeszliśmy tak naprawdę do kluczowej kwestii a wiec faktu, że choć tyle się o tej analityce mówi i tak wychwala się możliwości jakie daje to tak naprawdę większość z nas nie wie jak ona działa. Przede wszystkim trzeba więc zrozumieć skąd się biorą konkretne dane i jak można na nie wpływać. Często niestety wydaje nam się, że rozumiemy dane jakie widzimy i niestety to okazuje się zgubne prowadząc do wyciągania błędnych wniosków. Tak naprawdę to co z tego, że widzimy iż jakiś wskaźnik jest dość wysoki skoro nie wiemy na jakiej podstawie jest on wyliczany i jak właściwie powinniśmy go interpretować.

Za przykład posłużył w tym wypadku współczynnik odrzuceń i kwestia tego jak właściwie jest on liczony i czy na pewno zawsze to, że jest on wysoki powinno być natychmiastowym powodem do wszczynania alarmu. Po pierwsze tak naprawdę nic nam on nie mówi gdy patrzymy na niego całościowa w kontekście całej witryny bowiem naturalne jest, że różne typy podstron charakteryzują się różnymi poziomami tego współczynnika.

Do tego musimy brać pod uwagę popularność stron typu one page, w przypadku których praktycznie cała treść dostępna jest po zescrolowaniu bez konieczności przechodzenia na osobne podstrony. Każdy kto wie jak standardowo liczony jest współczynnik odrzuceń zdaje sobie sprawę z tego, że tego typu strony są w tym kontekście nieco problematyczne bowiem w przypadku standardowego sposobu zliczania nawet wartościowe wizyty będą miały przypisywany współczynnik odrzuceń na poziomie 100%.

Bilioteka Auto Track

Oczywiście jak to w analityce i na to jest rozwiązanie choćby w postaci zaprezentowanej biblioteki Auto Track, której możliwości mieliśmy okazję pokrótce poznać podczas wystąpienia Piotra Rudnickiego. Dzięki niemu możemy wykorzystać między innymi pageVisibilityTracker czy też maxScrollTracker, które dają nam odpowiednie możliwość śledzenia jak długo strona jest widoczna (na aktywnej zakładce przeglądarki) oraz jak bardzo użytkownik scrolluje naszą treść. Już to daje nam spore możliwości lepszego śledzenia wizyt na stronach typu one page a także na długich treściach w przypadku których z różnych względów nie stosujemy paginacji a również chcemy śledzić czy użytkownicy faktycznie są nimi zainteresowani.

Lubimy wszystko komplikować

Nie mogło zabraknąć w tym wszystkim nawiązania do pewnej typowej dla nas cechy jaką jest komplikowanie wszystkiego. Szczególne pole do popisu mamy właśnie w wypadku analityki gdzie przez wzgląd na ogromną ilość informacji często kusi nas do dorabiania w pewnych kwestiach zupełnie zbędnych teorii. Dobrym przykładem były omówione podczas prezentacji badania Nielsena na podstawie których udało się opracować wzór wskazujący na to ile czasu potrzeba na przeczytanie konkretnej treści. Z czasem jednak okazało się, że jest to droga donikąd bowiem użytkownicy konsumują treść w naprawdę przeróżny sposób. Próba wtłoczenia tej różnorodności w sztywne ramy jakiś wzorów mogłaby się skończyć jedynie wyciągnięciem później błędnych wniosków.

Raporty z wewnętrznych wyszukiwarek

Nadal dość rzadko zwracamy uwagę na raporty z wewnętrznych wyszukiwarek z których dane Google Analytics jak najbardziej potrafi gromadzić. Warto wykorzystać tą funkcjonalność GA gdyż wyszukiwarka na naszej stronie może się okazać prawdziwą skarbnicą informacji na temat naszych użytkowników. Przykładem mogą być choćby sklepy internetowe w których to właśnie wyszukiwarka sklepowa okazują się być kluczowa w kontekście nawigacji po ofercie. Wielu osobom z różnych względów nie chce się przeklikiwać przez złożone struktury kategorii w poszukiwaniu konkretnego produktu. Często to właśnie skorzystania z wyszukiwarki jest dla nich znacznie szybszym sposobem na dotarcie do tego czego szukają. W ten sposób mogą też szybko sprawdzić czy dany produkt jest w ofercie sklepu.

Choćby w tym aspekcie może to już być dla nas jasna informacja czym przede wszystkim interesują się osoby odwiedzające nasz sklep internetowy. Warto wtedy się zastanowić czy pewne produkty nie zasługują na to aby mocniej wyróżnić je na stronie sklepu. Jest to również wskazówka w zakresie tego czego ewentualnie brakuje w naszej ofercie. Analiza danych z wewnętrznej wyszukiwarki może nam też dać konkretną informację w zakresie tego czy nawigacja w naszym sklepie jest odpowiednio przemyślana. Oczywiście w tej kwestii nie możemy bazować jedynie na tych danych bowiem należałoby je zestawić jeszcze choćby z raportami przepływu użytkowników. Dopiero wtedy zyskalibyśmy szerszy obraz tego jak poruszają się oni po sklepie jednak mimo wszystko może to już być sugestia, że warto lepiej zgłębić ten temat i zająć się właśnie szerszą analizą tego czy z punktu widzenia UX nasz sklep jest na pewno dobrze przemyślany.

Kreatywne spojrzenie na raporty

Wspomniana została również kwestia umiejętności spojrzenia nawet na z pozoru zwykłe raporty w kreatywny sposób. Za przykład posłużyła strona gimnazjum i raport pokazujący jakie podstrony są najczęściej odwiedzane. W zwykłym ujęciu mamy jasną informację na temat tego, które obszary witryny cieszą się największym zainteresowaniem a co za tym idzie jakich informacji przede wszystkim szukają użytkownicy. Już to jest dla nas pewną informacją dzięki której możemy zacząć się zastanawiać czy właśnie struktura informacji na stronie jest właściwa i czy do podstron cieszących się największym zainteresowaniem na pewno jest łatwo dotrzeć.

Jednak w pokazanym przykładzie jeszcze ciekawiej zrobiło się w momencie gdy pokazano dane osobno dla użytkowników desktopowych i mobilnych. Dopiero rozdzielając te dwie grupy użytkowników dostrzec można było, że korzystają oni z witryny w nieco inny sposób poszukując na niej innego typu informacji. Przykładowo w przypadku użytkowników mobilnych jedną z kluczowych podstron była ta dotyczą podręczników szkolnych co można tłumaczyć choćby faktem, że po ich listę często sięgali rodzice będąc akurat w księgarni. Oczywiście w celu wyciągnięcia konkretniejszych wniosków konieczna byłaby analiza np. przywołanego już wcześniej raportu przepływu użytkowników jednak już nawet ten przykład pokazuje jak pozornie oczywiste dane mogą dostarczyć ciekawych informacji gdy spojrzy się na nie bardziej szczegółowo i skorzysta choćby z segmentów.

Warto automatyzować analitykę

Kolejna kwestia poruszona podczas prezentacji to kwestia braku automatyzacji wielu procesów związanych z analizą danych. Jak bowiem zostało słusznie zauważone szczególnie w obliczu ogromnej ilości danych z których przetworzeniem musimy sobie radzić w obecnych czasach umiejętność efektywnej optymalizacji jest na wagę złota. Za przykład tego jak pewne rzeczy można automatyzować posłużyła wtyczka Google Analytics Spreadsheet Add-on. Dzięki niej możemy z GA do arkuszy Google wyciągać praktycznie dowolne dane jakie wskażemy. Dzięki temu w automatyczny sposób może się nam generować raport na temat najczęściej współkupowanych produktów czy też związany z optymalizacją naszej strony i wykorzystujący dodatkowo dane z PageSpeed Insights.

Measurement Protocol

Bez wątpienia wrażenie podczas prezentacji zrobił pokaz możliwości jakie daje Measurement Protocol. Jest to rozwiązanie dające nam możliwość wysłania do Google Analyticsa danych z praktycznie dowolnego urządzenia podłączonego do Internetu. Możliwości zbierania danych przez GA nie ograniczają się wiec jedynie do aplikacji mobilnych oraz stron internetowych. Tak naprawdę możliwości w tym zakresie ogranicza w głównej mierze nasza wyobraźnia. Pokazały to zresztą konkretne przykłady, których prezentacja zaczęła się od pokazania jak działa Measurement Protocol przy wykorzystaniu kamerki internetowej i rejestracji wszelkiej aktywności jaka dokonuje się w jej polu widzenia.

Mogłoby się wydawać, że nic szczególnego jednak przyszła również kolej na bardziej praktycznie zastosowanie takich danych spływających z kamerki. Wystarczyło bowiem umieścić ją w lodówce aby zyskać możliwość śledzenia aktywności korzystania z niej. Bardzo ładnie prezentował się choćby raport prezentujący jak w ciągu dnia rozkłada się aktywność jeśli chodzi o wykorzystanie lodówki. Okazało się, że zdecydowanie najczęściej jej zapasy wykorzystywane są w porze śniadania. To jednak jeszcze nic bowiem drugi zaprezentowany przykład pokazał jak Measurement Protocol może być wykorzystane choćby do śledzenia aktywności samochodu i tego gdzie się on porusza.

W ten sposób zyskujemy dane na temat przemierzanych ulic czy choćby tego w jakich dzielnicach spędza ile czasu. Jak się bowiem okazuje integracja Google Analytics z danymi pozyskiwanymi poprzez GPS to również nie problem w tym wypadku. Dla niektórych mogło to wyglądać jedynie jako fajna ciekawostka jednak gdy spojrzymy na takie rozwiązanie choćby przez pryzmat firmy muszącej zarządzaj swoją flotą samochodową a wiec choćby typowej firmy kurierskiej to już łatwo sobie wyobrazić szerokie możliwości zastosowania takiej technologii.

Konkluzja wystąpienia Piotra Rudnickiego była wiec taka, że powinniśmy trzymać się tego co jest naprawdę ważne w tym ogromie danych jakim obecnie dysponujemy dzięki dostępnym narzędziom. Do tego to właśnie te naprawdę istotne elementy warto rozwijać w bardziej szalony sposób mając jednak gdzieś z tyłu głowy głos rozsądku trzymający to nasze szaleństwo w ryzach tak aby nie wymknęło się spod kontroli.

Analityka crosschannel i botów – Sebastian Szmigielski

Prezentacja rozpoczęła się od zwrócenia uwagi na fakt jak wielki jest obecnie ekosystem Facebooka, który przecież nie ogranicza się jedynie do największego obecnie portalu społecznościowego. Wystarczy wspomnieć o innych serwisach takich jak choćby Instagram czy WhatsApp aby uświadomić sobie, że mamy obecnie do czynienia z firmą dysponującą naprawdę potężnymi możliwościami.

Facebook te możliwości chętnie wykorzystuje wchodzą w coraz to nowe obszary działalności. Jednym z takich obszarów jest właśnie analityka i mówimy tu o niej zwłaszcza w kontekście aplikacji mobilnych bowiem to Facebook Analytics for Apps było głównym obiektem zainteresowania podczas czwartej tego dnia prezentacji. Niezwykle ważne w tym kontekście było uświadomienie sobie tego kiedy jako twórcy aplikacji mobilnej możemy tak naprawdę mówić o sukcesie. Mimo wszystko nie jest nim samo zdobywania użytkowników zainteresowanych naszą aplikacją choć dla wielu osób to właśnie rosnące zainteresowanie będzie właśnie głównym wskaźnikiem pozwalającym ogłosić sukces.

Facebook Analytics for Apps

Jednak taki sukces jest tak naprawdę iluzoryczny jeśli nie ostaje wsparty właśnie analityką. Tak naprawdę co z tego, że nasza aplikacja przyciąga kolejnych sukcesów skoro nie wiemy tak naprawdę nic o zainteresowanych nią użytkowników i nie możemy skonfrontować w żaden sposób czy faktycznie dotarliśmy do grupy docelowej jaką sobie pierwotnie zakładaliśmy. Za sprawą Facebook Analytics for Apps otrzymujemy dane demograficzne naszych użytkowników, poznajemy ich wykształcenie a także dowiadujemy się jakie strony lubią. Do naszej dyspozycji są również obszerne dane na temat ich retencji. Jest to niezwykle cenna wiedza nie tylko w kontekście akwizycji ale też dalszego rozwoju aplikacji.

Warty uwagi jest fakt, że system analityczny Facebooka wykorzystuje dane na temat użytkowników również do ich identyfikacji na różnych urządzeniach. Dzięki temu nawet jeśli zamiennie korzystamy z różnych smartfonów czy np. smartfona i tabletu to z punktu widzenia mechanizmów zastosowanych w tym wypadku jesteśmy tym samym użytkownikiem. Bez wątpienia pozwala to dowiedzieć się jeszcze więcej na temat naszych odbiorców i jest niezwykle istotną cechą w epoce crooss device gdy fakt wykorzystywania różnych urządzeń do łączenia się z siecią nie jest niczym nadzwyczajnym.

Śledzenie eventów

Do tego wszystkiego dochodzą jeszcze naprawdę imponujące możliwości śledzenia eventów, z pomocą których możemy monitorować mikro i makro konwersje w ramach aplikacji. Do naszej dyspozycji już na starcie oddanych zostaje 14 predefiniowanych zdarzeń, które możemy w łatwy sposób wykorzystać do śledzenia typowych zachowań użytkowników. Oczywiście nic nie stoi na przeszkodzie aby definiować właśnie eventy dopasowane do naszych specyficznych potrzeb. W tym zakresie mamy spore możliwości bowiem takich zdarzeń możemy zdefiniować około tysiąca. Warto wspomnieć, że eventy możemy też z powodzeniem wykorzystywać do tworzenia spersonalizowanych grup odbiorców (tak zwanych Custom Audience). Są one kreowane właśnie na podstawie spełnienia konkretnego warunku czy warunków takich jak choćby zdarzenia.

Boty Facebooka

Oczywiście na sam koniec prezentacji nie mogło zabraknąć chwili na pomówienie o tak promowanych w ostatnim czasie przez Facebooka botach. Pokazane zostały miedzy innymi przykłady praktycznego, biznesowego zastosowania botów przez marki takie jak Orange czy Multikino. W tym wypadku mowa była o botach, które z jednej strony ułatwiały kontakt z firmą i możliwość domówienia dodatkowej usługi (Orange) a także rozwiązaniu dającym możliwość zakupu biletu na wskazany seans (Multikino). W tym kontekście została też poruszona kwestia analityka, która zapewne już w niedługim czasie będzie miała okazję wykazać się w kolejnym obszarze jakim właśnie będą boty czy jak kto woli różnego rodzaju wirtualni asystenci automatyzujący pewne procesy związane z komunikacją pomiędzy firmą a konsumentami.

Dzięki temu będziemy mogli dowiedzieć się jak przebiega interakcja botów z użytkownikami a także czy skorzystanie z takiego rozwiązania faktycznie w realny sposób przekłada się na działanie naszego biznesu. Musimy bowiem pamiętać, że choć obecnie boty są fajną ciekawostką mogącą przyciągać do marek użytkowników właśnie przez swoją innowacyjność to z czasem gdy się już upowszechnią zapewne nie będą wywoływać aż takiego efektu wow. Staną się wtedy po prostu narzędziem biznesowym, którego celem będzie tak naprawdę przede wszystkim optymalizacja pewnych procesów tak więc analityka będzie tu niezbędna aby pomóc w odpowiedzi na pytanie jak wykorzystanie botów przekłada się na biznes i czy faktycznie są one czymś więcej niż zwykłą ciekawostką czy gadżetem.

Google Analytics dla aplikacji mobilnej – Adrian Kajda

Podczas wcześniejszych prezentacji mieliśmy już okazję usłyszeć naprawdę sporo na temat aplikacji mobilnych. Wraz z piątą prezentacją nadeszła jednak pora na spojrzenie na nie z jeszcze nieco innej perspektywy niż podczas dotychczasowych wystąpień. Przed nami miał bowiem okazję zaprezentować się Adrian Kajda a więc twórca aplikacji Fuelio, który spojrzał na kwestię analityki właśnie z perspektywy kogoś kto tworzył własną aplikację dzieląc się z nami konkretnymi spostrzeżeniami w zakresie tego co tak naprawdę jest kluczowe dla rozwoju takiego projektu.

Oczywiście w ramach swoistego wstępu nie mogło zabraknąć paru słów na temat tego czym jest Fuelio i do czego tak właściwie służy ta aplikacja. Jej głównym celem jest zarządzanie kosztami pojazdu (dziennik paliwa itp.). Od sierpnia 2016 roku aplikacja bazuje na zasadzie crowdsourcingu dając użytkownikom możliwość dzielenia się informacjami o stacja benzynowych i cenach na nich.

Ignorowanie analityki

Już na początku prezentacji pojawiła się również kwestia podstawowego błędu jaki popełnia spora część twórców. Wielu z nich nie zakłada bowiem, że ich projekt z czasem może stać się popularny i dlatego też nie przywiązują większej wagi do kwestii takich jak analityka bazując jedynie na dość podstawowych danych jakich dostarcza Google Play Developer Console. W ten sposób pozbawiają cennych informacji dotyczących choćby tego:

  • w jaki sposób użytkownicy korzystają z aplikacji?
  • jakich funkcji używają najczęściej a jakich nie używają w ogóle?
  • czy aplikacja realizuje cele jakie przed nią postawiliśmy?

Przede wszystkim jednak trzeba patrzeć na to również z punktu widzenia aspektów biznesowych. Tak naprawdę dane które standardowo posiadamy jako twórca aplikacji prawdopodobnie okażą się niewystarczające gdy pomyślimy o komercjalizacji naszego projektu i przyjdzie się nam spotkać z inwestorem. Wtedy możemy się liczyć z szeregiem pytań, na które nie będziemy w stanie odpowiedzieć nie posiadając danych jakie dostarcza Google Analytics.

Brak danych z GA jest sporą bolączką choćby ze względu na brak jednego z kluczowym zdaniem Adriana Kajdy raportów a mianowicie przepływu zachowań. To właśnie dzięki niemu możemy analizować jak użytkownicy korzystają z naszej aplikacji poruszając się po różnych jej obszarach i identyfikując przy okazji czy nie występują w niej swoiste „wąskie gardła” lub czy użytkownicy się nie gubią nie umiejąc znaleźć potrzebnej im funkcji.

Raporty Czasu Rzeczywistego

W kontekście Google Analytics nie mogło również zabraknąć wzmianki o raportach Czasu Rzeczywistego (Real Time), które nadal pozostają dość niedocenioną funkcjonalnością narzędzia analitycznego Google. Jak słusznie zauważył nasz prelegent często jeśli nawet ktoś już z nich korzysta to w głównej mierze po to aby ekscytować się jak na jego stronie czy też w jego aplikacji wzmaga się ruch i przybywa użytkowników nie wyciągając jednak z zawartych tam danych żadnych konstruktywnych wniosków.

Za przykład praktycznego wykorzystania tego typu raportu może posłużyć choćby moment aktualizacji aplikacji do nowszej wersji przy wykorzystaniu dość ciekawej funkcji jaką udostępnia nam Google Play Developer Console. Nadal bowiem stosunkowo niewielka część twórców aplikacji mobilnych w Polsce zdaje sobie sprawę z możliwości etapowego wdrażania aktualizacji do nowej wersji. Google daje nam taką możliwość, oddając do naszej dyspozycji stosowną funkcjonalność właśnie we wspomnianym Developer Console gdzie możemy określić do jak dużej grupy użytkowników w pierwszej kolejności trafi nasz update.

Oczywiście analityka w przypadku aplikacji mobilnych ma również szerokie zastosowanie przy wykrywaniu wszelkich błędów występujących w aplikacji i problemów z nią związanych. Była już o tym mowa choćby przy okazji prezentacji możliwości jakie daje nam Firebase. Właśnie Firebase Crash zostało wymienione jako jedno z rozwiązań, które w wymierny sposób mogą się przyczynić do pomocy przy identyfikacji wszelkich problemów.

Zdarzenia i cele

Skoro mowa o analityce nie mogło oczywiście zabraknąć też wspomnienia o tym, że naprawdę warto wykorzystywać zdarzenia oraz cele. W przypadku zdarzeń możemy tak naprawdę na wszelkie możliwe sposoby badać interakcje użytkowników z aplikacją przyglądając się temu w jaki sposób ją wykorzystują. Jeśli zaś chodzi o cele to w tym wypadku dają nam one jasną odpowiedź w zakresie tego czy aplikacja realizuje założone KPI.

Zdarzenia pozwoliły tak naprawdę dowiedzieć się jaka jest ilość tankowań zapisywanych w aplikacji czy też jak duża część tankowań jest wzbogacona o dane GPS. Pozwoliło to określić między innymi jaki odsetek użytkowników aplikacji aktywnie dzieli się z resztą społeczności danymi i jakie lokalizacje są najpopularniejsze jeśli chodzi o crowdsourcing. Dzięki temu można było przeanalizować dlaczego część użytkowników nie korzysta z możliwości dzielenia się z innymi informacjami o cenach paliw a także określić potencjał nowych użytkowników.

Ostateczna konkluzja prezentacji była jednak taka, że nawet Google Analytics nie załatwia w pełni kwestii dostarczania nam wszystkich potrzebnych danych. Nadal brakuje nam bowiem informacji o rankingu aplikacji w sklepie Google Play, słowach kluczowych czy bezpośredniej konkurencji dla naszego projektu. Należy sobie bowiem zdawać sprawę z tego, iż obecnie niezwykle istotnym aspektem jest ASO a więc odpowiednia optymalizacja aplikacji mająca na celu osiągnięcie przez nich jak najwyższych pozycji w Google Play czy App Store.

Dlatego właśnie jako jedno z kolejnych narzędzi, którymi warto się zainteresować zostało wskazane AppAnnie. Swoją drogą zdaniem Adriana Kajda to właśnie dzięki tej aplikacji udało mu się znaleźć inwestora, który dostrzegł Fuelio właśnie dzięki rankingom aplikacji w poszczególnych obszarach udostępnianym przez AppAnnie.

Optymalizacja doświadczeń użytkowników przy użyciu danych – Maciej Rynarzewski

Nasz ostatni prelegent postawił sobie za cel pokazanie jak dane, których obecnie mamy przecież do dyspozycji ogromną ilość mogą przekładać się optymalizację doświadczeń naszych użytkowników. Wiedza co się dzieje, nie jest przydatna nie wiedząc dlaczego się dzieje i tak samo działa to w drugą stronę bowiem samo poznanie przyczyn jeszcze gdy nie znamy sposobu funkcjonowania pewnych mechanizmów również nie pozwala nam na skuteczne działanie.

Co ma wspólnego analityka z UX?

Wszystko dlatego, że analityka zajmuje się w głównej mierze odpowiedzią na pytania z zakresu tego co się dzieje. Możemy analizować konkretne zachowania naszych użytkowników, realizację założonych KPI czy badać rezultaty wprowadzanych zmian. Tak czy inaczej analityka opiera się w sporej mierze o nauki ścisłe (matematyka, statystyka) i uzyskujemy dzięki niej dane ilościowe.

Z tego właśnie powodu tak dobre dopełnienie dla niej stanowi UX bowiem w jego wypadku mówimy o dziedzinie skupiającej się na odpowiedzi na pytania w kwestii tego dlaczego coś się dzieje. Tutaj osią wszystkiego jest badanie przyczyn a nie rezultatów i poznawanie w ten sposób motywów oraz intencji jakie kierują użytkownikami. Pozwala nam to uzyskiwać dane jakościowe dające odpowiedź na pytania Jak? Dlaczego?

Co właściwie powinniśmy badać?

Jednak to co stanowi w przypadku analityki o jej wielkim potencjalne może się równocześnie okazać bardzo zgubne. Mowa o ogromnej ilości danych i fakcie, że obecnie możemy badać praktycznie wszystko. Dlatego przede wszystkim powinniśmy sobie zadać pytanie co właściwie powinniśmy badać aby uzyskiwać konkretne informacje a co za tym idzie odpowiedzi na najbardziej trapiące nas pytania.

W tym kontekście kluczowe okazują się cele do których można zaliczyć choćby konwersję gdy np. posiadamy sklep internetowy czy dowolną inną stronę, której celem jest sprzedaż produktu czy usługi lub nawet pozyskiwanie leadów. W tym wypadku warto wiec przyjrzeć się przede wszystkim lejkowi konwersji i temu czy np. na którymś etapie naszej ścieżki zakupowej użytkownicy nagle nie rezygnują co może świadczyć choćby o problemach natury technicznej lub też po prostu nieprzemyślanym odpowiednio procesie mającym prowadzić klienta do dokonania transakcji.

Segmentacja

Kolejny istotny aspekt to analiza danych w kontekście konkretnych grup użytkowników. Domyślnie w Google Analitycs przeglądamy bowiem dane odnoszące się do wszystkich, którzy odwiedzili naszą stronę internetową i takie zbiorcze wyniki mogą być bardzo mylące. Dlatego tak często powtarzana zasada „segmentuj albo giń” nie jest jedynie pustym frazesem a realną koniecznością jeśli chcemy analizować nasze dane naprawdę obiektywnie i wyciągać z nich właściwe wnioski. Oczywiście korzystanie z segmentów daje praktycznie nieograniczone możliwości analizowania konkretnych grup użytkowników, których łączy jakieś wspólne kryterium.

Może to być choćby demografia, rodzaj używanego urządzenia, lokalizacja czy czas przebywania na stronie. W ramach wykorzystania segmentów możemy też rozróżnić użytkowników nowych czy powracających bowiem już nawet taka segmentacja może nam pokazać wyraźne różnice w danych pomiędzy takimi dwoma grupami. Gdy zaczniemy segmentować dane szybko zrozumiemy jak mylące może być patrzenie na różnego rodzaju statystyki prezentowane w ujęciu zbiorczym.

Segmenty to jedno jednak równie istotne są eventy, z pomocą których możemy opomiarować praktycznie wszystkie interakcje użytkowników z naszą stroną. Przy ich wykorzystaniu mamy możliwość weryfikowania czy założone przez nas cele są faktycznie realizowane. Do zapinania na stronie różnorakich eventów warto wykorzystać GTMa dającego naprawdę duże możliwości śledzenia przeróżnych zdarzeń.

Technologie

Wśród kwestii którym warto się przyjrzeć są również technologie i mówimy w tym wypadku nie tylko o różnych rodzajach używanych przez użytkowników przeglądarek. Warto bowiem też zwrócić uwagę na urządzenia bowiem inaczej będzie wyglądała interakcja z naszą witryną w przypadku smartfonów i tabletów a inaczej na desktopach. Nie mniej ważna jest rozdzielczość ekranu czy wykorzystywany system operacyjny. To wszystko są istotne aspekty choćby ze względu że np. na określonej przeglądarce czy też pewnych rozdzielczościach ekranu nasza strona może nie funkcjonować poprawnie. Wprawdzie raporty Google Analytics nie dadzą nam jednoznacznej odpowiedzi w czym może tkwić problem jednak mogą wyraźnie zasygnalizować, że on istnieje choć być może nawet nie zdawaliśmy sobie z tego wcześniej sprawy.

Wśród istotnych danych nie zabrakło również tych odnoszących się do czasu jaki użytkownicy spędzają na naszej stronie. Przede wszystkim mówimy tu o długości trwania sesji jednak istotną informacją jest też to jak odwiedziny rozkładają się na przestrzeni czasu. Nie mniej ciekawa może się okazać analiza tego ile czasu odwiedzający spędzają na poszczególnych podstronach bowiem to też może prowadzić do określonych wniosków w zakresie tego czy użytkownicy faktycznie znajdują to czego szukają i co przede wszystkim przyciąga na dłużej ich uwagę.

Wewnętrzna wyszukiwarka

Podczas jednej z wcześniejszych prezentacji w kontekście raportów w Google Analytics wartych analizy pojawił się już temat raportu przedstawiającego dane z wewnętrznej wyszukiwarki na stronie. Ta prezentacja tylko potwierdziła, że naprawdę warto lepiej się przyjrzeć posiadanej na swojej stronie wyszukiwarce i zacząć ją postrzegać nie tylko w kategoriach gadżetu ułatwiającego użytkownikom znalezienie tego czego szukają ale przede wszystkim właśnie jako źródło danych bowiem te wyszukania są konkretną informacją. Musimy bowiem pamiętać, że użytkownicy często wyszukiwarkę na stronie wykorzystują jako ważny element nawigacyjny dzięki czemu możemy się dowiedzieć nie tylko więcej na temat tego co ich interesuje i czego poszukują ale również przekonać czy ze standardową nawigacją na stronie jest wszystko w porządku.

Współczynnik odrzuceń

Podczas analizy danych nie tylko z Google Analytics ale również wielu innych systemów analitycznych zazwyczaj wiele emocji budzi współczynnik odrzuceń (bounce rate), który często bywa powodem do paniki, że ze stroną jest coś nie tak i użytkownicy masowo z niej uciekają. W tym wszystkim zapomina się jednak o paru istotnych kwestiach, wśród których jest również spojrzenie na wydawałoby się bliźniaczy wskaźnik, który jednak wbrew pozorom nie jest tym samym choć dla wielu osób jest on praktycznie tym samym. Mowa o współczynniku wyjść (exit rate), który tak naprawdę najczęściej ginie gdzieś w tym całym zamieszaniu związanym ze współczynnikiem odrzuceń.

W tym wypadku do analizy należy jednak podejść rzeczowo pamiętając o tym, że wysoki współczynnik odrzuceń nie zawsze jest czymś złym a będą się zdarzać takie typy stron gdzie będzie on czymś zupełnie normalnym. Przede wszystkim szczególnie właśnie w tym kontekście nie wolno nam zapominać o konieczności segmentacji danych. Analizując współczynnik odrzuceń w ujęciu globalnym nie dowiemy się tak naprawdę nic. Konieczna jest analiza tego współczynnika w odniesieniu do konkretnych grup użytkowników a także w odniesieniu do sekcji czy nawet konkretnych podstron naszego serwisu.

Kluczowe jest właśnie dokładne badanie przyczyn, w ramach którego warto określić czy zbyt wysoki naszym zdaniem współczynnik odrzuceń odnosi się również do najbardziej interesującej nas grupy użytkowników i jak on wygląda choćby w kontekście mobile vs. desktop czy nowi vs. powracający użytkownicy. Oczywiście takich potencjalnych zestawień do analizy jest znacznie więcej jednak warto poświęcić im czas bo może się okazać, że za wysoki współczynnik odrzuceń odpowiadają np. problemy z wersją mobilną naszej strony. Warto również sięgnąć do wspomnianych już wcześniej raportów odnoszących się do technologii bo może się też okazać, że źródłem problemów jest konkretna przeglądarka.

W ramach takich analiz wskazane jest zwrócenie uwagi na wspomniany już współczynnik wyjść (exit rate) i przyjrzenie się właśnie przez jego pryzmat konkretnym podstronom naszej witryny. Może to być naprawdę cenna wskazówka w zakresie tego czy właśnie konkretne sekcje czy nawet wybrane podstrony nie są źródłem naszych problemów i powodem dla którego użytkownicy nie konwertują.

W odniesieniu do współczynnika odrzuceń nie możemy zapominać o jeszcze jednej ważnej kwestii a mianowicie źródłach ruchu. To z jakich źródeł pozyskujemy ruch na naszą stronę jest niezwykle istotne nie tylko w kontekście oceny efektywności działań marketingowych jakie prowadzimy. Może się okazać, że tu tkwi właśnie główna przyczyna zbyt wysokiego współczynnika odrzuceń. Sztuką nie jest przyciągnąć na stronę ruch bowiem jeśli będzie on pozyskiwany w niewłaściwy sposób to może się okazać, że nawet bardzo duża liczba sesji w żaden sposób nie przekłada się na nasz biznes.

Oczywiście nie wolno nam zapominać też o analizie naszej oferty i tak na przykład w przypadku sklepu internetowego warto sprawdzać jakie produkty przede wszystkim cieszą się zainteresowaniem użytkowników i jakie są kupowane gdyż między tymi dwiema kategoriami może być spora różnica. Niewykluczone, że właśnie w ten sposób dowiemy się czy nasza oferta jest naprawdę konkurencyjna i atrakcyjna dla potencjalnych kupujących. Niektóre produkty mogą być zwyczajnie zbyt drogie lub na przykład sposób ich prezentacji nie jest zbyt zachęcający i to właśnie wpływa na fakt, że choć użytkownicy się nimi interesują to ostatecznie nie decydują się na ich zakup.

Mit współczynnika konwersji

Maciej Rynarzewski podczas swojej prezentacji zdecydował się też obalić mit współczynnika konwersji, który przez wielu jest traktowany niczym wyrocznia. Jednak nie zawsze warto przywiązywać do niego aż taką wagę bowiem tak naprawdę może do prowadzić do błędnych wniosków. Wystarczy wyobrazić sobie choćby sytuację, w której do naszej strony zdobywamy niskiej jakości ruch, który bardzo słabo konwertuje aby zaburzyć w istotny sposób dotychczasowe wyniki. Współczynnik konwersji nie mówi nam też całej prawdy np. gdy wprowadzamy zmiany w naszym sklepie czy ofercie mające przełożenie nie tyle na ilość dokonywanych transakcji co ich wartość.

Przykładowo załóżmy sytuację, w której premiujemy zakupy powyżej pewnej kwoty czy to darmową dostawą czy też innego rodzaju bonusami. Taka promocja może mieć dwojaki skutek, po pierwsze bez wątpienia ma szansę wpłynąć właśnie na wartość dokonywanych zamówień. Będzie ona podbijana przez klientów tak aby załapać się na ustalony w ramach promocji próg wartości zamówienia. Jednocześnie również może przyciągnąć do naszego sklepu nowych użytkowników, których zdobycie wcale nie musi przełożyć się na wzrost liczby zamówień.

Dlatego właśnie w takiej sytuacji możemy mieć do czynienia ze wzrostem wartości składanych zamówień przy jednoczesnym utrzymaniu współczynnika konwersji na takim samym poziomie czy nawet jego spadkiem. Użytkownicy skuszeni informacją o oferowanej przez nas promocji niekoniecznie zostaną bowiem naszymi klientami gdyż wcale nie jest powiedziane, że będzie im odpowiadała to co mamy do zaoferowania. Promocja bywa naprawdę silnym magnesem zwiększającym zainteresowanie sklepem jednak tak jak już zostało wspomniane w jednej z wcześniejszych prezentacji akwizycja to jedynie krok w drodze do sukcesu.

PSV (Per Session Value)

W podanym przykładzie choć tak naprawdę to nie tylko w nim znacznie lepszym punktem odniesienia niż współczynnik byłaby wartość kryjąca się pod tajemniczym skrótem PSV. Fanom piłki nożnej zapewne pierwsze co w momencie przychodzi na myśl to pewien holenderski klub piłkarski z Eindhoven. W tym wypadku chodzi natomiast o „Per Session Value” a więc średnią wartość zamówienia. To właśnie ona może powiedzieć nam więcej na temat tego jak wartościowy jest ruch na naszej stronie.

Esencję tego czym tak naprawdę jest PSV (Per Session Value) obrazują poniższe wzory:

PSV = CR (Converion Rate) x AOV (Average Order Value)

PSV = Revenue (Przychód) / Sesje

Nie zapominajmy jednak o tym o czym była mowa już wcześniej a więc segmentowaniu gdyż nawet PSV nie będzie dla nas wartościowym współczynnikiem gdy będziemy analizować go w ujęciu ogólnym odnoszącym się do całości ruchu na naszej stronie. Warto się przyjrzeć choćby temu jak średnia wartość zamówienia kształtuje się w przypadku różnych źródeł ruchu, których efektywność w tym względzie może się znacząco różnić. Tutaj jednak też nie możemy zbyt pochopnie podchodzić do widocznych w Google Analytics danych bowiem musimy pamiętać o istnieniu ścieżek konwersji i fakcie, że są źródła ruchu, które wprawdzie nie są idealne w „wykańczaniu” konwersji ale w istotny sposób je wspomagają. Zmarginalizowanie ich mogłoby zatem w istotny sposób ograniczyć ilość występujących konwersji, które dotychczas były wspomagane właśnie przez takie źródła ruchu.

To wszystko pokazuje tak naprawdę jak złożonym zagadnieniem jest analityka i jak zgubne może być w jej wypadku uleganie pozorom. Należy pamiętać o tym, że nasza stronę i to co się na niej dzieje opisuje mnóstwo parametrów i niezwykle złożony system zależności wpływający na to, że dane są takie a nie inne. Dlatego właśnie ta prezentacja z pewnością nie byłaby kompletna gdyby zabrakło w niej omówienia kwestii tego jak w takim razie to wszystko należy mierzyć, jakie metody badawcze stosować aby wyciągnąć wiarygodne dane?

Stawianie hipotez

Przede wszystkim powinniśmy nauczyć się stawiać rzetelne hipotezy. Właśnie w formie hipotez należy przedstawiać wszelkie wątpliwości czy nasuwające się nam pytania bowiem dopiero wtedy można je przetestować. Jedna samo stawianie właściwych hipotez jest pewnego rodzaju sztuką, w ramach której musimy pamiętać o tym, ze hipoteza musi dawać możliwość potwierdzenia jej lub obalenia w toku prowadzonych testów. To konkretne założenie podlegające weryfikacji powinno być podstawą wszelkich testów jakie robimy ponieważ najgorsze co można uczynić to robić testy dla samego robienia testów gdy tak naprawdę nic nie stoi u ich podstaw.

Testy A/B

Skoro już o testach mowa to zapewne pierwsze co nasuwa się na myśl to testy A/B, o których również była mowa przy okazji omawiania metod badawczych. Prawdą jest, że chętnie się po nie sięgamy jako po prosty sposób na sprawdzenie pewnych rozwiązań. Jednak związane jest z tym kilka zasadniczych problemów. Pierwszy z nich to złe zdefiniowanie grup do testów którym podlegać powinna określona liczba użytkowników bowiem odpowiednia próbka na jakiej będziemy dokonywać testów jest tu kwestia fundamentalną.

Kolejna kwestia to zbyt krótki czas prowadzonych testów a co za tym idzie wyciąganie zbyt pochopnych wniosków. Zakłada się, że testy tego typu powinny trwać przynajmniej 14 dni abyśmy mogli mówić o wiarygodnych wynikach. Trzecia kwestia to błąd, który spokojnie można uznać za kardynalny choć jednocześnie popełniany jest on naprawdę nagminnie a mowa konkretnie o testowaniu wielu rzeczy jednocześnie.

Click tracking i Session recording

Testy A/B to tak naprawdę tylko wstęp do prawdziwej palety możliwości jakimi obecnie dysponujemy. Do naszej dyspozycji są rozwiązania takie jak click tracking czy session recording. Nasze założenia co do idealnej strony internetowej mogą być przeróżne i może nam się nawet wydawać, że udało nam się stworzyć idealny projekt, w którym wszystkie detale są perfekcyjnie dopracowane. Jednak to wszystko tak naprawdę weryfikuje kontakt użytkownika ze stroną a danych na ten temat zazwyczaj dostarcza nam Google Analytics pokazując ile spędził on na niej czasu, jakie strony przeglądał i czy faktycznie dokonywał pożądanych przez nas działań. Jednak to wszystko to tylko suche dane w postaci liczb i wykresów, które na szczęście nie są jednak jedyną miarą tego jak użytkownicy odbierają to co mamy im do zaoferowania.

Istnieją już rozwiązania dające nam możliwość śledzenia kliknięć czy wręcz nagrywania sesji użytkowników. Jest to źródło naprawdę użytecznych danych bowiem w ten sposób możemy się przekonać w praktyce jak użytkownicy poruszają się po stronie. Łatwo w ten sposób zidentyfikować jakie elementy przede wszystkim przyciągają uwagę a jakie są zupełnie ignorowane. Obrazuje to też ewentualne problemy z nawigowaniem w obrębie strony bowiem widać jak na dłoni czy użytkownicy nie gubią się choćby przy różnego rodzaju formularzach czy też już na ścieżce zakupowej w przypadku sklepów internetowych. Analiza tego typu danych pozwala nam spojrzeć na naszą stronę internetową w zupełnie inny sposób.

Testy usability

Śledzenie kliknięć i całych sesji naszych użytkowników to jednak jeszcze nie koniec możliwości jakimi obecnie dysponujemy. Możemy pójść krok dalej i przeprowadzić badania z użytkownikami, w czasie których wykonują oni zdefiniowane zadania mające tak naprawdę na celu zweryfikowanie pewnych hipotez. Badania są przeprowadzane na gotowym systemie lub jego prototypie w zależności od tego czy testujemy rozwiązania, które dopiero planujemy wprowadzić czy też chcemy ocenić jak sprawdza się działająca już wersja. Obserwacja działań użytkowników pozwala wychwycić ewentualne problemy. Co ciekawe do tego typu eksperymentu wystarcza zaledwie ośmiu użytkowników bowiem Jakob Nielsen i Tom Landauer wykazali, że już taka grupa wystarcza do tego aby wykryć ponad 80% problemów związanych z funkcjonalnością naszej strony.

Ankiety online

Jeśli kogoś nie przekonują przedstawione wcześniej metody badawcze to zawsze może sięgnąć po tradycyjne ankiety online. W przypadku ankiet jednak słusznie zwrócono naszą uwagę na parę istotnych aspektów, o których niestety często się zapomina. Przede wszystkim kluczowe jest zadawanie pytań segmentujących, które pozwalają przypisywać uzyskiwane wyniki do konkretnych grup. Była już wcześniej mowa o tym jak ważna jest segmentacja i nie inaczej jest właśnie w tym wypadku gdzie patrzenie na dane zbiorcze uniemożliwiłoby wyciągnięcie wartościowych wniosków.

Musimy też pamiętać o tym aby konstruować pytania w sposób nie sugerujący konkretnej odpowiedzi gdyż wypaczy to natychmiast wynik takiej ankiety. Jednocześnie pytania powinny być napisane w sposób zrozumiały dla odbiorcy tak aby nie budziły zbędnych wątpliwości w zakresie tego do czego się tak naprawdę odnoszą. Warto korzystać ze skali, która z jednej strony może ułatwić odpowiedź ankietowanym ale przede nam znacząco ułatwi późniejsze analizowanie wyników.

Trzeba również uważać na pytania otwarte są kłopotliwe przynajmniej z dwóch względów. Po pierwsze użytkownicy zazwyczaj nie lubią się zbytnio rozpisywać i dlatego najczęściej niezbyt chętnie odpowiadają na pytania otwarte. Analizowania odpowiedzi uzyskiwanych w tego typu pytaniach jest też kłopotliwe dla nas bowiem ciężko porównywać uzyskiwane w ten sposób wyniki.

Wśród istotnych metod badawczych na wspomnienie zasługuje też z pewnością ewaluacja, w ramach której do naszej dyspozycji są rozwiązania takie jak:

  • 10 heurystyk Nielsena
  • wędrówka poznawcza
  • LIFT model

Metody badawcze to jedno lecz tak naprawdę powinniśmy pamiętać o tym co leży u podstaw ich wykorzystywania. Zazwyczaj sięgamy po nie w obliczu zmian z jednej strony wtedy gdy chcemy ocenić wpływ wprowadzonych modyfikacji choć zdarza się, że to właśnie wnioski z takich badań bezpośrednio sugerują konieczność zmian. Właśnie o tych zmianach warto nieco wspomnieć przy okazji omawiania metod badawczych bowiem nawet najlepsze metody będą w zasadzie bezużyteczne jeśli nie będziemy sobie zdawać sprawy z specyfiki zmian.

Czas adopcji zmian i krzywa zmiany

Mowa w tym wypadku o czymś co nazywamy czasem adopcji a więc okresem potrzebnym na adaptację do wprowadzonych nowości. Naturalne bowiem jest, że nawet do czegoś co początkowo budzi nasze wątpliwości czy wręcz sprzeciw jesteśmy z czasem się przyzwyczaić/oswoić. Przykładem może być choćby nowa nawigacja wprowadzona na stronie internetowej, która początkowo najprawdopodobniej będzie budzić sporo wątpliwości u naszych dotychczasowych użytkowników przyzwyczajonych do jej poprzedniej wersji i mających już wyrobione pewne nawyki związane z nawigowaniem po zawartości naszej witryny.

Zapewne ostatecznie nie wszyscy odwiedzający zaakceptują zmiany jakie wprowadziliśmy choć dużo zależeć będzie od tego na ile odbiegają one od tego co było dotychczas. Najważniejsze jednak w takim wypadku jest dać użytkownikom nieco czasu na adaptację do nowej sytuacji tak aby mieli możliwość oceny już na chłodno gdy opadną pierwsze emocje. Często zdarza się, że wiele ocen wydawanych jest na szybko właśnie pod wpływem impulsu i dobrze obrazuje to wspomniana w czasie prezentacji krzywa zmiany obrazująca właśnie jak w obliczu zmian wygląda nasze nastawienie.

Kiedy wynik jest dobry?

Bez względu na to jakie hipotezy sobie postawimy i po jakie metodologie badań sięgniemy aby je weryfikować to i tak w pewnym momencie powinniśmy zadać sobie pytanie kiedy tak naprawdę dany wynik będziemy mogli uznać za dobry? Maciej Rynarzewski słusznie zwrócił uwagę, że podstawowym punktem odniesienia są przede wszystkim dane historyczne, które dają możliwość odniesienia naszej obecnej sytuacji choćby do tego jak prezentowaliśmy się w analogicznym okresie rok temu. Nie bez znaczenie są również benchmarki, którym wprawdzie nie powinniśmy ufać bezgranicznie ale mimo wszystko są one pewnym punktem odniesienia w kwestii tego jak radzimy sobie na przykład na tle całej naszej branży. Przede wszystkim jednak dobre wyniki to takie, które są zgodne z oczekiwaniami biznesowymi.

Wiarygodność danych

Wszystko o czym mowa była w czasie ostatniej tego dnia prezentacji opierało się tak naprawdę na danych. Dlatego też musiała się pojawić kwestia ich wiarygodności i tego czy tak naprawdę informacja na których bazujemy dokonując analiz odpowiadają na 100% rzeczywistości. Musimy zdawać sobie sprawę z ułomności narzędzi analitycznych oraz tego jak łatwo zaburzyć jest wiarygodność statystyczną choćby poprzez niewłaściwy dobór próbki danych na jakich bazujemy.

Narzędzia

Na koniec prezentacji pozostało już tylko wspomnieć o narzędziach przydatnych w analityce bowiem jak wiadomo świat nie kończy się na duecie Google Analytics + Google Tag Manager. Jako inne użyteczne narzędzia zostały wspomniane rozwiązania takie jak:

  • Insider
  • Optimizely
  • Hotjar
  • SurveyGizmo
  • Optimal Workshop
  • Morae
Podziel się tym wpisem...Share on FacebookShare on Google+Share on LinkedInEmail this to someone