Dobre praktyki SEO – zdobądź czołowe pozycje w wyszukiwarce

Osoby zajmujące się pozycjonowaniem stron internetowych stosują własne „best practice”, ale istnieją standardy rynkowe, które wykorzystuje każdy. W tym artykule skupię się na przedstawieniu uniwersalnych zasad, które mają zastosowanie w każdej strategii SEO.  Na początku współpracy z agencją SEO, klient powinien określić, jaka jest jego grupa docelowa oraz które usługi/produkty chce promować. Natomiast do obowiązków specjalisty SEO należy poznanie branży i zrozumienie biznesu klienta, żeby trafnie zdefiniować frazy kluczowe i pozycjonować najistotniejsze treści witryny.  

Pozycjonując stronę powinniśmy znaleźć balans między tym, co widzą użytkownicy, a co oceniają roboty wyszukiwarek. Crawlery uzyskują dostęp do jej kodu źródłowego, na podstawie którego (w oparciu o niejawny algorytm) ustalają ranking witryny w wynikach wyszukiwania.  Głównym celem działań SEO jest zdobycie pierwszej pozycji w wynikach wyszukiwania, bo to ona gwarantuje największy ruch w witrynie.  

Przygotowując strategię SEO, w pierwszej kolejności powinniśmy przeprowadzić analizę konkurencji, aby wiedzieć, na jakich pozycjach plasuje się nasza witryna. Następnie sprawdzić jej budowę oraz poziom optymalizacji, aby ocenić szanse na zwiększenie widoczności w wynikach wyszukiwania. W tym celu należy przeprowadzić audyt strony, który pozwoli zidentyfikować jej najsłabsze punkty. Taki dokument powinien zawierać elementy, które wymagają zmian oraz rekomendacje ich poprawy. 

Po przeprowadzeniu audytu „pozycjoner” wraz z klientem powinni omówić wszystkie jego aspekty. Taka rozmowa pozwala ustalić nie tylko harmonogram prac, ale również określić zagrożenia, szanse i koszty wdrożenia zaleceń optymalizacyjnych. Skupiając się na kluczowych elementach, można osiągnąć zamierzony efekt znacznie szybciej i często mniejszym nakładem pracy i kosztów. Oto przykładowe sekcje audytu: 

Widoczność witryny oraz analiza słów kluczowych. 

Głównym celem przeprowadzenia analizy jest sprawdzenie widoczności oraz pozycji strony na wybrane frazy. Jej wyniki najczęściej zestawia się z konkurencją, aby określić obszary do poprawy. Audyt ten pozwala też stwierdzić braki w treściach na stronie oraz oszacować, czy nie ma technicznych problemów związanych z jej indeksowaniem.

Analiza techniczna i ocenacontentu.

Analiza techniczna jest jednym z kluczowych, a zarazem najbardziej złożonym procesem weryfikacji strony internetowej. Do najczęściej audytowanych elementów należą: 

  1. Title– jeden z najważniejszych elementów strony, widoczny dla użytkowników w wynikach wyszukiwania. W tytule powinno być zawarte przynajmniej jedno słowo kluczowe, pod które będzie pozycjonowana dana podstrona. Sam tytuł powinien mieć maksymalnie 600 px szerokości (60 – 70 znaków ze spacjami); 
  2. Metatagi;
    – Description – opis strony wyświetlany jest pod tytułem w wynikach wyszukiwania. Jego najważniejszą funkcją jest zachęcenie użytkownika do przejścia na stronę. Analogicznie jak title, opis powinien mieć określoną długość. Z mojego doświadczenia w meta description możemy umieścić około 155 znaków ze spacjami.
    – Robots – tag ten pozwala ograniczyć dostęp robotom wyszukiwarki do indeksacji podstrony, na której został osadzony. 
  3. Canonical– wskazuje robotowi wyszukiwarki bardziej aktualną stronę docelową. W sklepach internetowych często stosowany w przypadku tego samego produktu, który różni się m.in. kolorem lub pojemnością; 
  4. Hreflang– informuje robota wyszukiwarki o dostępnych wersjach językowych witryny; 
  5. Szybkość wczytywania strony;
  6. Linkowanie wewnętrzne – analiza linkowania pozwoli zidentyfikować niedziałające odnośniki wewnątrz witryny;
  7. Elementy rozszerzone (bibliotekiSchema) – oznaczenia ułatwiające robotom wyszukiwarek klasyfikację treści na stronie i atrakcyjniejsze wyświetlenie jej w wynikach organicznych;
  8. Duplikacja treści – może prowadzić do obniżenia pozycji w wynikach wyszukiwania;
  9. NagłówkiHx– nagłówki dostarczają robotom wyszukiwarek szczegółowe informacje na temat zawartości strony. Ważna jest weryfikacja właściwej hierarchii nagłówków oraz ich nasycenia frazami kluczowymi.
  10. Analiza linków zewnętrznych.

Analiza linków zewnętrznych wykonywana jest w celu sprawdzenia jakości odnośników kierujących do strony z innych serwisów internetowych. Ważnym jej elementem jest  ocena używanych w linkach fraz kluczowych, zwanych anchorami 

Działania SEO on-site 

Content to obecnie jeden z najważniejszych aspektów, na podstawie którego ustalany jest ranking witryny. Dlatego kluczowe jest tworzenie relewantnych i jakościowych treści, odpowiadających potrzebom użytkowników. To dzięki nim mamy szansę na uzyskanie wysokich pozycji w wyszukiwarce. Przy redagowaniu treści warto posiłkować się dostępnymi na rynku narzędziami, które pomogą sprawdzić ich potencjał oraz znaleźć pomysły na nowe frazy kluczowe lub tematy. 

Jednak content to nie wszystko. Ważna jest też odpowiednia optymalizacja witryny. Co nam po wartościowych treściach, jeśli nikt do nich nie dotrze? Dlatego na początku analizy on-site sprawdzamy, czy witryna indeksuje się w prawidłowy sposób. Należy zweryfikować, czy do wszystkich stron docierają roboty Google, a także, czy promowane treści są wartościowe dla użytkowników i samej wyszukiwarki. Często zdarza się, że witryna nie uzyskuje wysokich pozycji z bardzo prostej przyczyny – została zablokowana przed indeksacją. 

Kolejnym czynnikiem wartym uwagi jest ocena łatwości poruszania się po stronie robotów indeksujących. W procesie optymalizacji strony powinniśmy wykluczyć wszelkie, zbędne przekierowania 301 i 302 oraz linki kierujące na adresy zwracające błąd 404 (strona nie istnieje). Przekierowania 30x wydłużają czas wczytywania się danej podstrony użytkownikom. Natomiast robotom indeksującym generują niepotrzebne żądania i wydłużają ścieżkę do właściwej treści. Trzeba też wykluczyć błędy 404. Dotarcie do strony z kodem błędu 40x jest dla wyszukiwarki sygnałem ostrzegawczym, informującym o: nieukończeniu witryny, błędnym funkcjonowaniu lub usunięciu wcześniej dostępnej treści. 

Podczas analizy naszej uwadze nie powinien umknąć również plik robots.txt. Plik ten zawiera zbiór reguł oraz zasad, którymi powinien kierować się robot indeksujący witrynę. Czasami zdarza się, że właściciel strony omyłkowo lub przesadnie ogranicza dostęp wyszukiwarkom do wartościowych treści. Dodatkowo plik daje możliwość wskazania mapy witryny (sitemap.xml), której zadaniem jest przekazanie wyszukiwarce informacji o zasobach dostępnych na stronie. 

Działania on-site to systematyczna praca prowadząca do zwiększenia widoczności serwisu. Należy rozwijać stronę i szybko reagować na wszelkie zmiany algorytmów Google. 

Działania off-site 

Działania off-site to wszystkie prace, wykonywane poza stroną klienta. Ich głównym celem jest pozyskiwanie wartościowych linków zewnętrznych. Każdy z nich powinien zostać osadzony na witrynie wysokiej jakości i wyglądać jak najbardziej naturalnie. Przy wyborze strony szczególną uwagę warto zwrócić na: wiek domeny, poziom optymalizacji, jakość treści osadzonych na stronie, ilość linków wychodzących do innych serwisów internetowych i inne techniczne parametry. W działaniach off-site ważne jest wyważenie oraz zachowanie naturalności w podejmowanych działaniach. 

Podsumowanie 

Głównym celem działań SEO jest maksymalizacja ruchu na stronie, a co za tym idzie zwiększenie przychodów z kanału, jakim jest wyszukiwarka. Bardzo ważna jest ścisła współpraca i wymiana informacji pomiędzy agencją SEO, programistami i klientem. Zaufanie każdej ze stron do realizowanych działań oraz dobra współpraca pozwala osiągnąć zamierzone efekty w postaci wzrostu widoczności witryny, najczęściej znacznie szybciej niż pierwotnie się zakłada. Pozycjonowanie strony jest jednym z ważniejszych kanałów sprzedaży online i wiele firm opiera na nim swój biznes. 

sem

Karol Popko

Specjalista SEO w REPRISE
Związany z branżą SEO od 6 lat, entuzjasta optymalizacji stron oraz działań SEO on-site. Doświadczenie zdobywał pracując na ogólnopolskich oraz międzynarodowych projektach.

Wciśnij ESC, żeby zamknąć