[et_pb_section fb_built=”1″ _builder_version=”3.22″][et_pb_row _builder_version=”3.25″ background_size=”initial” background_position=”top_left” background_repeat=”repeat”][et_pb_column type=”4_4″ _builder_version=”3.25″ custom_padding=”|||” custom_padding__hover=”|||”][et_pb_text _builder_version=”4.4.6″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” hover_enabled=”0″]Autor: Tomasz Wileński, CEO w islay.tech, Członek Grupy Roboczej IAB Content Marketing i Reklama Natywna
Wraz z rozwojem Internetu – wyszukiwarki stały się bardzo popularnym narzędziem do poszukiwań wszelkiego rodzaju treści. Pojawienie się nowych różnych formatów contentu, pociągnęło za sobą potrzebę stworzenia kolejnych sposobów przeszukiwania i indeksowania zasobów internetowych.
Naturalną konsekwencją takiego rozwoju – jest wzrost ruchu generowanego przez roboty indeksujące, tzw: crawlery, boty, spidery. Crawlery, czyli programy zbierające informacje o strukturze, stronach i treściach znajdujących się w Internecie, odwiedzają witryny w taki sam sposób jak użytkownicy. Te odwiedziny widać w statystykach oglądalności niektórych programów analitycznych. Na ogół jednak, nie wiadomo jaką część ruchu stanowią roboty w kampanii konkretnej marki. Według robotstxt.org jest ponad 300 robotów, jednak faktycznie jest ich znacznie więcej. Już sam Google używa ponad 10 różnych, np. Googlebot image, Googlebot news, Googlebot video i inne.
Cele odwiedzin są różne: od badania zawartości witryny, sprawdzania jej kodu, monitoringu aktualizacji, aż do tworzenia mirrorów. Zazwyczaj jednak chodzi o pozyskanie jak najdokładniejszej informacji o indeksowanej stronie. Liczba i rodzaj crawlerów powodują, że sztuczny ruch zwiększa swój udział z każdym rokiem, a jego poziom potrafi w niektórych przypadkach osiągnąć nawet 70%!
Jak zatem w tej niewiedzy funkcjonuje rynek reklamy i content marketingu? Czy mamy świadomość tego, ile pieniędzy przeznacza się na wyświetlanie treści robotom? Czy mając taką wiedzę inaczej wyglądałyby rozliczenia z wydawcami? Za co faktycznie płacimy kupując reklamy i publikując content?
Przyjrzyjmy się bliżej, w jaki sposób ruch botów może wpłynąć na wyniki analizy zachowania użytkowników na stronie.
Przebadaliśmy ponad 100 różnych projektów – kampanii, blogów, stron wydawców i stron korporacyjnych pod kątem udziału ruchu wygenerowanego przez maszyny.
Okazuje się, że w zasadzie – nie ma powodów do zmartwień. W większości przypadków ruch wygenerowany przez crawlery nie przekroczył na polskich stronach 10%. Taki poziom jest naturalny dla całego Internetu i nie jest specjalnie szkodliwy dla online marketingu.
Badanie wykazało jednak jedną istotną cechę. W 15% przypadków poziom crawlera w ruchu na stronie przekroczył w kampanii 40%. Oznacza to, że treść, którą wyprodukował klient i zapłacił na jej wyświetlenie do określonej grupy użytkowników – prawie w połowie była „obejrzana” przez roboty indeksujące.
Nie w tym tu niczyjej winy. Wyszukiwarki indeksują niektóre treści częściej, a niektóre rzadziej. Ich ruch nie rozkłada się równomiernie ani w przestrzeni online ani w czasie. Nie wiadomo zatem kiedy, ani na jakiej stronie www roboty zwiększą oglądalność treści i podbiją statystyki oglądalności.
Poniżej przykłady badania kampanii, w których zmierzony został ruch z automatów indeksujących:
Typ kampanii content marketingowej | Udział crawlera w ruchu na stronie |
Operator komórkowy | 8% |
Sieć handlowa | 10% |
Producent żywności | 7% |
Wydarzenie sportowe | 0,04% |
Wydarzenia kulturalne | 43% |
Oferta turystyczna | 31% |
Produkt finansowy | 3,9% |
Akcja Charytatywna | 5,8% |
Źródło danych: iSlay
Jak widać, udział ruchu robotów w kampaniach jest trudno przewidywalny. Nie można zatem określić reguł rządzących tym procesem ani estymować efektów kampanii bez posiadania odpowiednich narzędzi. Można oczywiście przyjąć założenie, że tylko w 15% przypadków kampanie oglądają boty, ale raczej nie warto znaleźć się w tej grupie ze swoją akcją marketingową.
Niezależnie od opisanego faktu, w raportach kampanii reklamowych i rankingach oglądalności stron www nie uwzględnia się informacji o poziomie sztucznego ruchu. Rynek mediów internetowych świadomie lub nie – pomija fakt inwestowania części budżetów marketingowych w internetową próżnię.
Dostępne programy analityczne pozwalają już na zmierzenie i kontrolę poziomu sztucznego ruchu w kampaniach opartych na content marketingu i działaniach natywnych. Poniżej przykłady analizy kampanii z uwzględnieniem ruchu z crawlerów:
Przykład 1 – Kampania operatora sieci komórkowej
Źródło danych: iSlay
Przykład 2 – Kampania sieci handlowej
Źródło danych: iSlay
Dziś w większości polskich kampanii crawler stanowi śladowy poziom ruchu. Wydawcy starają się zapewnić dobrej jakości treść w kampaniach content marketingowych i reklamach natywnych. Wyszukiwarki aktualizują atrakcyjne treści marketingowe, ale zazwyczaj nie zaburzają wyników oglądalności o więcej niż 10%.
Crawlery podążają na trendami poszukiwań i zbierają wszystko, co może zainteresować użytkowników. W większości prowadzonych przez iSlay badań kampanii udziału botów wygląda tak jak na poniższym wykresie:
Przykład 3 – Kampania kosmetyków
Źródło danych: iSlay
Okazuje się jednak, że udział ruchu crawlerów w całości ruchu internetowego rośnie z roku na rok. Te maszyny mają coraz bardziej wyspecjalizowane zadania, a co za tym idzie – rośnie ich liczba i różnorodność. Zdarzają się sytuacje, w których udział ruchu robotów jest na bardzo wysokim poziomie. Obrazuje to przykład z badania treści popularnego portalu horyzontalnego na poniższym wykresie:
Źródło danych: iSlay
Jak widać – prawie połowa odsłon została wygenerowana przez maszyny. To już nie jest poziom, który można zaakceptować przy inwestycji w media internetowe. Przy takich wynikach właściwie traci się kontrolę nad budżetem.
Osoby odpowiedzialne za realizację kampanii marketingowych – powinny mieć informację o udziale ruchu botów w raportach. Jednocześnie dane o poziomie crawlera powinny być elementarną informacją przy monitorowaniu zasięgu kampanii.
Niektóre systemy analityczne, bez żadnych dodatkowych ustawień – mają wyszczególnione źródło ruchu typu: Crawler. W większości popularnych na rynku rozwiązań do monitorowania kampanii, wyłapanie robotów wymaga specjalnych ustawień w opcjach tych systemów.
Ogólna świadomość istnienia sztucznego ruchu istnieje od dawna, jednak kluczowe staje się badanie tego czynnika w kampaniach reklamowych i content marketingowych konkretnych produktów. Jak wykazały przykłady badań – udział botów jest nieprzewidywalny. Warto zatem mieć dostęp do analityki, która identyfikuje i raportuje odwiedziny automatów.
Jak skutecznie docierać z komunikacją marki do przedstawicieli „Gen Z”? Kiedy i jak zwrócić uwagę konsumenta? Czy treści mogą mieć wpływ na rzeczywistość? Jak video commerce wspiera proces zakupowy użytkowników? Na te i inne pytania odpowiedzą prelegenci konferencji organizowanej w ramach cyklu IAB HowTo „Video & Content Marketing. Best Friends Forever”, która odbędzie się już 28 stycznia br.
Więcej informacji: https://howto.iab.org.pl/content-2020/ [/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]