PO CO NAM BADANIA SKORO MAMY BIG DATA?
PIĄTEK 25.X, godz. 12.50, sala Bałtyk
Najważniejsza myśl prezentacji
W świecie zdominowanym przez big data tradycyjne badania kwestionariuszowe nadal będą miały do odegrania znaczącą rolę z dwóch powodów. Po pierwsze, główna przewaga badań to udzielanie wyjaśnień, odpowiadanie na pytanie „dlaczego”, z czym analiza big data często nie jest w stanie sobie poradzić. Po drugie (czemu poświęcę więcej miejsca) nierzadko pozornie obiektywne big data ze względu na szereg ograniczeń technicznych związanych z ich zbieraniem, udzielają mniej precyzyjnej informacji w porównaniu do tradycyjnego badania. Może stanowić to dość kontrowersyjną tezę, którą postaram się obronić, korzystając z konkretnego przykładu badania i analizy na ten sam temat.
Badanie kwestionariuszowe oraz analizy big data stanowią zatem komplementarne źródła informacji, które powinny funkcjonować równolegle w celu dostarczenia pełniejszego obrazu.
Opis
Często jako badacze boimy się, że big data odbierze nam chleb. Do niedawna realizacja badania była jedynym sposobem na poznanie zachowania konsumentów (np. w obszarze konsumpcji mediów, robienia zakupów, spędzania wolnego czasu, itd.). Tymczasem coraz więcej aktywności przenosi się do Internetu, gdzie pozostawia cyfrowy świat, możliwy do przeanalizowania. W efekcie może się wydawać, że tradycyjne (deklaratywne) badania będą w odwrocie, skoro możemy analizować rzeczywiste dane, zbierana na całej populacji, a nie na małych próbach. Dodatkowo jako zaleta big data postrzegany jest ich obiektywny charakter: są one wolne od skrzywień typowych dla badań kwestionariuszowych wynikających z niedoskonałego dobory próby, niewłaściwej interpretacji pytań czy wreszcie z ograniczeń pamięci respondentów.
W wystąpieniu chciałem przedstawić argumenty, dlaczego pomimo lawinowo przyrastającej ilości „big data” pozostanie miejsce na badania kwestionariuszowe. Pierwszy argument dotyczy charakteru informacji, jaki zbieramy w trakcie badań w porównaniu do big data. W skrócie: badania to branża wyjaśniania, zaś big data to branża przewidywania. Oczywiście możemy stawiać prognozy nie rozumiejąc przyczynowo-skutkowych zależności (na co przedstawię kilka przykładów pochodzących z analiz danych paragonowych wykonywanych przez firmy z branży handlu detalicznego) to często potrzebujemy wiedzieć „dlaczego”, na co odpowiadają badania.
Drugi przykład to ograniczania związane z naturą samych big data. Posłużę się analizą danych z największego serwisu video na świecie jakim jest YouTube, której celem było znalezienie odpowiedzi na pytanie: ile średnio osób dziennie ogląda treści video w tym serwisie (w 9 krajach Europy Środkowo-Wschodniej). W tym przypadku realizacja badania nie tylko dostarczyła precyzyjnej informacji, ale również zwróciła uwagę na szereg ograniczeń z którymi trzeba byłoby sobie poradzić, gdybyśmy chcieli pozostać wyłącznie na poziomie analizy wewnętrznych danych YouTube.
W jaki sposób prezentacja odnosi się do kwestii skutecznego i odpowiedzialnego wspierania decyzji wiedzą o rynku i człowieku?
W przypadku tego projektu synergia badania z analizą big data przełożyła się na trafniejsze i bardziej detaliczne wnioski dotyczące sposobu konsumowania mediów (YouTube w porównaniu do telewizji oraz innych platform VoD). Dane tego typu są wykorzystywane przede wszystkim przez reklamodawców oraz agencje mediowe podczas podejmowania decyzji dotyczących podziału budżetu mediowego, zwłaszcza w krajach, w których brak oficjalnego badania cross-mediowego – i tak też stało się w tym projekcie.
Źródła, materiały, dane:
Wystąpienie oparte będzie przede wszystkim na case study zbudowanym na zrealizowanym przeze mnie projekcie w 2018 roku. W ramach tego projektu należy wyróżnić dwie części:- część badawcza – badanie CATI zrealizowane wspólnie z firmą Kantar na 9 rynkach Europy Środkowo-Wschodniej, na łącznej próbie N=5400 osób w wieku 16+. Badanie dotyczyło treści video (telewizja, YouTube, inne platformy VoD, video na social media) oglądanych przez respondentów poprzedniego dnia (metoda „day after recall”)
- część analityczna big data – analiza danych serwisu YouTube dotyczących oglądalności (liczba użytkowników, czas oglądania) na analogicznych rynkach w tym samym okresie, w którym realizowane było badanie Chciałbym skupić się przede wszystkim na wnioskach, które płyną z porównania wyników badania z wynikami analogicznej analizy. Wyjaśnię, jakie są ograniczania analizy big data oraz o czym mówią nam różnice pomiędzy deklaracjami a rzeczywistą oglądalnością.
Michał
PROTASIUK
Research Manager Central-Eastern Europe
Google