Zmierz się z content marketingiem. Czyli na co zwrócić uwagę przy mierzeniu i raportowaniu kampanii?

[et_pb_section fb_built=”1″ _builder_version=”3.22″][et_pb_row _builder_version=”3.25″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”][et_pb_column type=”4_4″ _builder_version=”3.25″ custom_padding=”|||” custom_padding__hover=”|||”][et_pb_text _builder_version=”4.4.6″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″]Autor: Tomasz Wileński, CEO w islay.tech, Członek Grupy Roboczej IAB Content Marketing  i Reklama Natywna

Wraz z rozwojem Internetu – wyszukiwarki stały się bardzo popularnym narzędziem do poszukiwań wszelkiego rodzaju treści. Pojawienie się nowych różnych formatów contentu, pociągnęło za sobą potrzebę stworzenia kolejnych sposobów przeszukiwania i indeksowania zasobów internetowych.

Naturalną konsekwencją takiego rozwoju – jest wzrost ruchu generowanego przez roboty indeksujące, tzw: crawlery, boty, spidery. Crawlery, czyli programy zbierające informacje o strukturze, stronach i treściach znajdujących się w Internecie, odwiedzają witryny w taki sam sposób jak użytkownicy. Te odwiedziny widać w statystykach oglądalności niektórych programów analitycznych. Na ogół jednak, nie wiadomo jaką część ruchu stanowią roboty w kampanii konkretnej marki. Według robotstxt.org jest ponad 300 robotów, jednak faktycznie jest ich znacznie więcej. Już sam Google używa ponad 10 różnych, np. Googlebot image, Googlebot news, Googlebot video i inne.

Cele odwiedzin są różne: od badania zawartości witryny, sprawdzania jej kodu, monitoringu aktualizacji, aż do tworzenia mirrorów. Zazwyczaj jednak chodzi o pozyskanie jak najdokładniejszej informacji o indeksowanej stronie. Liczba i rodzaj crawlerów powodują, że sztuczny ruch zwiększa swój udział z każdym rokiem, a jego poziom potrafi w niektórych przypadkach osiągnąć nawet 70%!

Jak zatem w tej niewiedzy funkcjonuje rynek reklamy i content marketingu? Czy mamy świadomość tego, ile pieniędzy przeznacza się na wyświetlanie treści robotom? Czy mając taką wiedzę inaczej wyglądałyby rozliczenia z wydawcami? Za co faktycznie płacimy kupując reklamy i publikując content?

Przyjrzyjmy się bliżej, w jaki sposób ruch botów może wpłynąć na wyniki analizy zachowania użytkowników na stronie.

Przebadaliśmy ponad 100 różnych projektów – kampanii, blogów, stron wydawców i stron korporacyjnych pod kątem udziału ruchu wygenerowanego przez maszyny.

Okazuje się, że w zasadzie – nie ma powodów do zmartwień. W większości przypadków ruch wygenerowany przez crawlery nie przekroczył na polskich stronach 10%. Taki poziom jest naturalny dla całego Internetu i nie jest specjalnie szkodliwy dla online marketingu.

Badanie wykazało jednak jedną istotną cechę. W 15% przypadków poziom crawlera w ruchu na stronie przekroczył w kampanii 40%. Oznacza to, że treść, którą wyprodukował klient i zapłacił na jej wyświetlenie do określonej grupy użytkowników – prawie w połowie była „obejrzana” przez roboty indeksujące.

Nie w tym tu niczyjej winy. Wyszukiwarki indeksują niektóre treści częściej, a niektóre rzadziej. Ich ruch nie rozkłada się równomiernie ani w przestrzeni online ani w czasie. Nie wiadomo zatem kiedy, ani na jakiej stronie www roboty zwiększą oglądalność treści i podbiją statystyki oglądalności.

Poniżej przykłady badania kampanii, w których zmierzony został ruch z automatów indeksujących:

Typ kampanii content marketingowej  Udział crawlera w ruchu na stronie 
Operator komórkowy  8% 
Sieć handlowa   10% 
Producent żywności  7% 
Wydarzenie sportowe  0,04% 
Wydarzenia kulturalne  43% 
Oferta turystyczna  31% 
Produkt finansowy  3,9% 
Akcja Charytatywna  5,8% 

Źródło danych: iSlay  

Jak widać, udział ruchu robotów w kampaniach jest trudno przewidywalny. Nie można zatem określić reguł rządzących tym procesem ani estymować efektów kampanii bez posiadania odpowiednich narzędzi. Można oczywiście przyjąć założenie, że tylko w 15% przypadków kampanie oglądają boty, ale raczej nie warto znaleźć się w tej grupie ze swoją akcją marketingową. 

Niezależnie od opisanego faktu, w raportach kampanii reklamowych i rankingach oglądalności stron www nie uwzględnia się informacji o poziomie sztucznego ruchu. Rynek mediów internetowych świadomie lub nie – pomija fakt inwestowania części budżetów marketingowych w internetową próżnię.   

Dostępne programy analityczne pozwalają już na zmierzenie i kontrolę poziomu sztucznego ruchu w kampaniach opartych na content marketingu i działaniach natywnych. Poniżej przykłady analizy kampanii z uwzględnieniem ruchu z crawlerów: 

Przykład 1 – Kampania operatora sieci komórkowej

Źródło danych: iSlay 

Przykład 2 – Kampania sieci handlowej 

Źródło danych: iSlay 

Dziś w większości polskich kampanii crawler stanowi śladowy poziom ruchu. Wydawcy starają się zapewnić dobrej jakości treść w kampaniach content marketingowych i reklamach natywnych. Wyszukiwarki aktualizują atrakcyjne treści marketingowe, ale zazwyczaj nie zaburzają wyników oglądalności o więcej niż 10%. 

Crawlery podążają na trendami poszukiwań i zbierają wszystko, co może zainteresować użytkowników. W większości prowadzonych przez iSlay badań kampanii udziału botów wygląda tak jak na poniższym wykresie: 

Przykład 3 – Kampania kosmetyków 

Źródło danych: iSlay 

Okazuje się jednak, że udział ruchu crawlerów w całości ruchu internetowego rośnie z roku na rok. Te maszyny mają coraz bardziej wyspecjalizowane zadania, a co za tym idzie – rośnie ich liczba i różnorodność. Zdarzają się sytuacje, w których udział ruchu robotów jest na bardzo wysokim poziomie. Obrazuje to przykład z badania treści popularnego portalu horyzontalnego na poniższym wykresie: 

Źródło danych: iSlay 

Jak widać – prawie połowa odsłon została wygenerowana przez maszyny. To już nie jest poziom, który można zaakceptować przy inwestycji w media internetowe. Przy takich wynikach właściwie traci się kontrolę nad budżetem. 

Osoby odpowiedzialne za realizację kampanii marketingowych – powinny mieć informację o udziale ruchu botów raportachJednocześnie dane o poziomie crawlera powinny być elementarną informacją przy monitorowaniu zasięgu kampanii.  

Niektóre systemy analityczne, bez żadnych dodatkowych ustawień – mają wyszczególnione źródło ruchu typuCrawler. W większości popularnych na rynku rozwiązań do monitorowania kampanii, wyłapanie robotów wymaga specjalnych ustawień w opcjach tych systemów.    

Ogólna świadomość istnienia sztucznego ruchu istnieje od dawna, jednak kluczowe staje się badanie tego czynnika w kampaniach reklamowych i content marketingowych konkretnych produktów. Jak wykazały przykłady badań – udział botów jest nieprzewidywalny. Warto zatem mieć dostęp do analityki, która identyfikuje i raportuje odwiedziny automatów. 

Jak skutecznie docierać z komunikacją marki do przedstawicieli „Gen Z”? Kiedy i jak zwrócić uwagę konsumenta? Czy treści mogą mieć wpływ na rzeczywistość? Jak video commerce wspiera proces zakupowy użytkowników? Na te i inne pytania odpowiedzą prelegenci konferencji organizowanej w ramach cyklu IAB HowTo „Video & Content Marketing. Best Friends Forever”, która odbędzie się już 28 stycznia br. 

Więcej informacji: https://howto.iab.org.pl/content-2020/ [/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

Tomasz Wileński

CEO w islay.tech, Członek Grupy Roboczej IAB

Wciśnij ESC, żeby zamknąć