Zmierz się z content marketingiem. Czyli na co zwrócić uwagę przy mierzeniu i raportowaniu kampanii?

Autor: Tomasz Wileński
01/27/2020
Tagi:
Autor: Tomasz Wileński, CEO w islay.tech, Członek Grupy Roboczej IAB Content Marketing  i Reklama Natywna

Wraz z rozwojem Internetu – wyszukiwarki stały się bardzo popularnym narzędziem do poszukiwań wszelkiego rodzaju treści. Pojawienie się nowych różnych formatów contentu, pociągnęło za sobą potrzebę stworzenia kolejnych sposobów przeszukiwania i indeksowania zasobów internetowych.

Naturalną konsekwencją takiego rozwoju – jest wzrost ruchu generowanego przez roboty indeksujące, tzw: crawlery, boty, spidery. Crawlery, czyli programy zbierające informacje o strukturze, stronach i treściach znajdujących się w Internecie, odwiedzają witryny w taki sam sposób jak użytkownicy. Te odwiedziny widać w statystykach oglądalności niektórych programów analitycznych. Na ogół jednak, nie wiadomo jaką część ruchu stanowią roboty w kampanii konkretnej marki. Według robotstxt.org jest ponad 300 robotów, jednak faktycznie jest ich znacznie więcej. Już sam Google używa ponad 10 różnych, np. Googlebot image, Googlebot news, Googlebot video i inne.

Cele odwiedzin są różne: od badania zawartości witryny, sprawdzania jej kodu, monitoringu aktualizacji, aż do tworzenia mirrorów. Zazwyczaj jednak chodzi o pozyskanie jak najdokładniejszej informacji o indeksowanej stronie. Liczba i rodzaj crawlerów powodują, że sztuczny ruch zwiększa swój udział z każdym rokiem, a jego poziom potrafi w niektórych przypadkach osiągnąć nawet 70%!

Jak zatem w tej niewiedzy funkcjonuje rynek reklamy i content marketingu? Czy mamy świadomość tego, ile pieniędzy przeznacza się na wyświetlanie treści robotom? Czy mając taką wiedzę inaczej wyglądałyby rozliczenia z wydawcami? Za co faktycznie płacimy kupując reklamy i publikując content?

Przyjrzyjmy się bliżej, w jaki sposób ruch botów może wpłynąć na wyniki analizy zachowania użytkowników na stronie.

Przebadaliśmy ponad 100 różnych projektów – kampanii, blogów, stron wydawców i stron korporacyjnych pod kątem udziału ruchu wygenerowanego przez maszyny.

Okazuje się, że w zasadzie – nie ma powodów do zmartwień. W większości przypadków ruch wygenerowany przez crawlery nie przekroczył na polskich stronach 10%. Taki poziom jest naturalny dla całego Internetu i nie jest specjalnie szkodliwy dla online marketingu.

Badanie wykazało jednak jedną istotną cechę. W 15% przypadków poziom crawlera w ruchu na stronie przekroczył w kampanii 40%. Oznacza to, że treść, którą wyprodukował klient i zapłacił na jej wyświetlenie do określonej grupy użytkowników – prawie w połowie była „obejrzana” przez roboty indeksujące.

Nie w tym tu niczyjej winy. Wyszukiwarki indeksują niektóre treści częściej, a niektóre rzadziej. Ich ruch nie rozkłada się równomiernie ani w przestrzeni online ani w czasie. Nie wiadomo zatem kiedy, ani na jakiej stronie www roboty zwiększą oglądalność treści i podbiją statystyki oglądalności.

Poniżej przykłady badania kampanii, w których zmierzony został ruch z automatów indeksujących:

Typ kampanii content marketingowej Udział crawlera w ruchu na stronie 
Operator komórkowy 8% 
Sieć handlowa  10% 
Producent żywności 7% 
Wydarzenie sportowe 0,04% 
Wydarzenia kulturalne 43% 
Oferta turystyczna 31% 
Produkt finansowy 3,9% 
Akcja Charytatywna 5,8% 

Źródło danych: iSlay  

Jak widać, udział ruchu robotów w kampaniach jest trudno przewidywalny. Nie można zatem określić reguł rządzących tym procesem ani estymować efektów kampanii bez posiadania odpowiednich narzędzi. Można oczywiście przyjąć założenie, że tylko w 15% przypadków kampanie oglądają boty, ale raczej nie warto znaleźć się w tej grupie ze swoją akcją marketingową. 

Niezależnie od opisanego faktu, w raportach kampanii reklamowych i rankingach oglądalności stron www nie uwzględnia się informacji o poziomie sztucznego ruchu. Rynek mediów internetowych świadomie lub nie – pomija fakt inwestowania części budżetów marketingowych w internetową próżnię.   

Dostępne programy analityczne pozwalają już na zmierzenie i kontrolę poziomu sztucznego ruchu w kampaniach opartych na content marketingu i działaniach natywnych. Poniżej przykłady analizy kampanii z uwzględnieniem ruchu z crawlerów: 

Przykład 1 – Kampania operatora sieci komórkowej

Źródło danych: iSlay 

Przykład 2 – Kampania sieci handlowej 

Źródło danych: iSlay 

Dziś w większości polskich kampanii crawler stanowi śladowy poziom ruchu. Wydawcy starają się zapewnić dobrej jakości treść w kampaniach content marketingowych i reklamach natywnych. Wyszukiwarki aktualizują atrakcyjne treści marketingowe, ale zazwyczaj nie zaburzają wyników oglądalności o więcej niż 10%. 

Crawlery podążają na trendami poszukiwań i zbierają wszystko, co może zainteresować użytkowników. W większości prowadzonych przez iSlay badań kampanii udziału botów wygląda tak jak na poniższym wykresie: 

Przykład 3 – Kampania kosmetyków 

Źródło danych: iSlay 

Okazuje się jednak, że udział ruchu crawlerów w całości ruchu internetowego rośnie z roku na rok. Te maszyny mają coraz bardziej wyspecjalizowane zadania, a co za tym idzie – rośnie ich liczba i różnorodność. Zdarzają się sytuacje, w których udział ruchu robotów jest na bardzo wysokim poziomie. Obrazuje to przykład z badania treści popularnego portalu horyzontalnego na poniższym wykresie: 

Źródło danych: iSlay 

Jak widać – prawie połowa odsłon została wygenerowana przez maszyny. To już nie jest poziom, który można zaakceptować przy inwestycji w media internetowe. Przy takich wynikach właściwie traci się kontrolę nad budżetem. 

Osoby odpowiedzialne za realizację kampanii marketingowych – powinny mieć informację o udziale ruchu botów raportachJednocześnie dane o poziomie crawlera powinny być elementarną informacją przy monitorowaniu zasięgu kampanii.  

Niektóre systemy analityczne, bez żadnych dodatkowych ustawień – mają wyszczególnione źródło ruchu typuCrawler. W większości popularnych na rynku rozwiązań do monitorowania kampanii, wyłapanie robotów wymaga specjalnych ustawień w opcjach tych systemów.    

Ogólna świadomość istnienia sztucznego ruchu istnieje od dawna, jednak kluczowe staje się badanie tego czynnika w kampaniach reklamowych i content marketingowych konkretnych produktów. Jak wykazały przykłady badań – udział botów jest nieprzewidywalny. Warto zatem mieć dostęp do analityki, która identyfikuje i raportuje odwiedziny automatów. 

Jak skutecznie docierać z komunikacją marki do przedstawicieli „Gen Z”? Kiedy i jak zwrócić uwagę konsumenta? Czy treści mogą mieć wpływ na rzeczywistość? Jak video commerce wspiera proces zakupowy użytkowników? Na te i inne pytania odpowiedzą prelegenci konferencji organizowanej w ramach cyklu IAB HowTo „Video & Content Marketing. Best Friends Forever”, która odbędzie się już 28 stycznia br. 

Więcej informacji: https://howto.iab.org.pl/content-2020/ 

Tomasz Wileński

Tomasz Wileński

CEO w islay.tech, Członek Grupy Roboczej IAB
Content marketingowe case study: KINO POLSKA TV S.A.

Content marketingowe case study: KINO POLSKA TV S.A.

Kino Polska TV S.A. to dynamicznie rozwijająca się grupa medialna, której głównymi gałęziami biznesowymi są: emisja i produkcja kanałów TV, dystrybucja oraz produkcja contentu telewizyjnego i filmowego.

Content marketingowe case study: USP ZDROWIE

Content marketingowe case study: USP ZDROWIE

USP Zdrowie to lider na polskim rynku leków dostępnych bez recepty, który od 1992 roku tworzy produkty z myślą o zdrowiu konsumentów. Firma znana jest m.in. z takich rozpoznawalnych oraz cenionych marek jak Apap, Ibuprom czy Gripex.

4 pomysły na recykling contentu

4 pomysły na recykling contentu

Recykling to pojęcie, które odnosi się nie tylko do dbania o środowisko naturalne, ale też do marketingu. Choć zjawisko ponownego wykorzystania treści nie jest nowością, do tej pory nie cieszyło się ono zbyt dużą popularnością. Wiele wskazuje na to, że ten „ekologiczny” trend w marketingu będzie jedną z najsilniejszych tendencji w tym roku, warto więc poznać go lepiej. Poniżej znajdziesz kilka pomysłów na to, jak wykorzystać potencjał istniejących już artykułów blogowych.