SEO, czyli jak wyszukiwarka widzi Twoją stronę

obecnie 4 komentarze

SEO, czyli jak wyszukiwarka widzi Twoją stronę

 

SEO, czyli jak wyszukiwarka widzi Twoją stronę

Uwielbiam spotkania WordUp w Gdyni za możliwość zdobycia wiedzy, odświeżenia kontaktów, spotkania z ludźmi pozytywnie zakręconymi na tym samym punkcie. Spotkanie numer 13 dla początkujących, czyli dla mnie 😉 też mnie nie zawiodło! Zainspirowało mnie do podzielenia się z Tobą treściami zasłyszanymi od prelegentów, co właśnie czynię.

Dwie prezentacje Łukasza LubińskiegoKrzysztofa Dróżdża szczególnie przykuły moją uwagę. Dzisiejszy artykuł jest o prezentacji Łukasza Lubińskiego (o prelekcji Krzyśka będzie oddzielny artykuł 🙂 ) zatytułowanej „Kompleksowe podejście do SEO przy budowaniu strony internetowej opartej o WordPress”. Zagadnienie SEO czyli jak wyszukiwarka widzi Twoją stronę od zawsze mnie interesował i tak naprawdę dzięki Łukaszowi przyjrzałam mu się bliżej.

 

Podstawowe parametry SEO

Łukasz zaczął od wyjaśnienia różnicy  pomiędzy SEO  a  pozycjonowaniem.  Te dwa terminy są często używane zamiennie, co jest błędem. SEO (Search Engine Optimization) to optymalizacja pod wyniki pozycjonowania przez wyszukiwarki zaś pozycjonowanie to SEO, link building, i wiele innych działań.  Podstawowymi parametrami SEO są:

  • tytuł zawierający 20 – 70 znaków
  • meta description 300 – 320 znaków
  • wartościowa treść 250 słów
  • śródtytuły znaczniki od H1 (może być tylko jeden na stronie, bo oznacza najważniejszą treść) do H6
  • wytłuszczenia
  • znaczniki alt w obrazkach

Na SEO ogromny wpływ ma również wybór serwera. Związane to jest z liczbą adresów IP, otoczeniem domen, czasem odpowiedzi serwera, zainstalowanym oprogramowaniem.

 

Analiza SEO

Narzędzi dostępnych online do analizowania SEO jest wiele. Do najbardziej znanych należą Google PageSpeed InsightsGTMetrix, oraz narzędzia, o których istnieniu dowiedziałam się na prelekcji to: Screaming Frog oraz Pingdom Website Speed Test. Przydatna bedzie również Google Search Console. O jednym z nich dowiesz się więcej w dalszej części artykułu. Warto wypróbować różne dostępne możliwości i znaleźć tę jednyną, najbardzie odpowiadającą Tobie.

 

SEO  zadbana na każdym etapie

Kolejna istotna sprawa: o SEO trzeba dbać na każdym etapie tworzenia strony, od makiety strony po wersję produkcyjną. Oprócz podstawowych parametrów ważne są:

1. błędy 404

Transmisja danych z serwera internetowego rozpoczyna się od przesłania nagłówka HTTP. Jeden z wierszy w nagłówku informuje jaki jest kod stanu HTTP. Kody odpowiedzi HTTP należą do kilku grup oznaczonych trzycyfrowymi liczbami:

  • 1xx – kody informacyjne,
  • 2xx – kody powodzenia,
  • 3xx – kody przekierowanie,
  • 4xx – kody niedostępności,
  • 5xx – kody błędu serwera.

Błąd 404 to standardowy status HTTP(S), który informuje użytkownika o tym, że uzyskał połączenie z serwerem, ale nie można wyświetlić strony o takim adresie URL, ponieważ ona po prostu nie istnieje. Ten kod informuję wyszukiwarkę internetową o braku treści pod tym adresem i nie umieszcza jej w indeksie. Powodem powstawania błędu 404 może być błąd użytkownika, który wpisał niepoprawny adres URL strony internetowej (najczęściej są to literówki) lub błąd serwera. Komunikat o błędzie 404 pojawia się, gdy strona:

  • została usunięta;
  • została przeniesiona bez wcześniejszego przekierowania 301;
  • jest niedostępna, gdyż jest poddawana jakimś zmianom;

Wyeliminowanie tego rodzaju błędu ma ogromny wpływ na odbiór strony przez użytkownika oraz na SEO witryny. Jeżeli użytkownik nie znajdzie tego co dany link opisuje, będzie szukał tych informacji na innych stronach. Spowoduje to utratę ruchu na stronie. Błędy 404 pojawiają się regularnie na skutek nieuwagi bądź usunięcia strony, elementu do którego linkowaliśmy w naszym wpisie na blogu przez właściciela zasobu. Dlatego należy monitorować 404 i naprawiać na bieżąco.

Błędy 404 nie są sytuacją nieodwracalną. Po pierwsze trzeba znaleźć wszystkie błędy 404. Do tego celu świetnie się nadaje narzędzie wymienione przez Łukasza Screaming Frog. Wykorzystując wersje darmową spokojnie skorzystasz z większości narzędzi potrzebnych do analizy strony internetowej. Ograniczona jest ona limitem analizowanych adresów URL – do 500 adresów podczas jednego sprawdzania, co automatycznie uniemożliwia sprawdzenie rozbudowanych witryn internetowych. Jeśli chcesz dowiedzieć się szczegółów dotyczących różnic w wersji darmowej i płatnej zajrzyj tutaj. Aplikacja jest bardzo prosta w użyciu: pobierasz, wpisujesz w pole tekstowe adres strony i klikasz start.  Po chwili otrzymujesz wyniki. W kolumnie Status Code otrzymasz kod statusu zarówno o wewnętrznych (w zakładce Internal) jak i zewnętrznych (External) linkach. Po otrzymaniu analizy linków możesz zlokalizować je na stronie, jeśli strona nie jest bardzo rozbudowana W przeciwnym razie wykorzystaj funkcję programu Bulk Export > Response Codes > Client Error (4xx) Inlinks, która wygeneruje plik zawierający wewnętrzne i zewnętrzne błędy 404 na naszej stronie z dokładną informacją o podstronie z tym błędem.

Jak naprawić błąd 404? Najprościej za pomocą wtyczki Redirection, która upora się z niedziałającymi linkami. Skieruje roboty indeksujące do właściwego miejsca, na inny, zmieniony adres.

2. parametry hreflang

Atrybut hreflang służy do wskazania robotowi wersji językowych danej podstrony, dzięki oznaczeniu w kodzie wersji językowej udostępnionej dla użytkownika na stronie. Dzięki temu atrybutowi wyszukiwarki pokażą użytkownikowi właściwą dla niego wersję językową. Na każdej stronie treści, meta tagi, title tag, adresy URL powinny być w 100% przetłumaczone. Domena, jej rozszerzenie, oczywiście też ma znaczenie i na rynek polskojęzyczny najlepiej sprawdzającą się  domeną jest https://nazwadomeny.pl

3. kanoniczność podstron

Link kanoniczny służy do eliminacji wielokrotnego powtarzania informacji o tej samej stronie w wyszukiwarce internetowej. Link mówi robotowi wyszukiwarki internetowej o właściwym adresie internetowym danej strony. Jedna podstrona internetowa powinna mieć tylko jeden adres internetowy. Robot internetowy wchodzi do witryny, zbiera informacje o wszystkich stronach w serwisie i ich adresach. Można mu ograniczyć zbieranie informacji wprowadzając  odpowiednie polecenie do pliku robots.txt. Zdobyte informacje są przekazywane do wyszukiwarki. Algorytmy danej wyszukiwarki decydują, które adresy strony będą najbardziej wartościowe dla internautów.

Linki kanoniczne są ważne, bo:

  • to Ty decydujesz, która strona jest ważna, a nie przez wyszukiwarkę;
  • poprawiają pozycjonowanie strony w wyszukiwarce;
  • robot wie, który adres strony jest najważniejszy;
  • wyszukiwarka szybko zaindeksuje strony serwisu.

Kiedy linki kanoniczne są zbędne? Gdy:

  • nie masz na stronie powtarzających się adresów;
  • posiadasz przekierowanie 301;
  • w pliku robots.txt zabraniasz robotom wyszukiwarek zbierać dublujące się informacje.

4. mapa strony

Mapa strony (sitemap) to potężne narzędzie, którego zadaniem jest zwiększenie wartości strony internetowej. Jest to zazwyczaj plik w formacie XML zawierający wszystkie aktywne adresy URL strony internetowej wraz z datą aktualizacji poszczególnych stron. Profesjonalnie przygotowana mapa witryny zawiera mapę grafik, czyli zbiór wszystkich adresów plików graficznych. Mapa strony umożliwia robotom szybkie indeksowanie podstron, co skutkuje sprawnym dodaniem adresów do indeksu wyszukiwarki Google. Sitemapę należy zgłosić w narzędziu Google Search Console oraz w pliku robots.txt, aby roboty indeksujące miały dostęp do pełnej struktury adresów serwisu. W ten sposób można zoptymalizować proces indeksowania w serwisie, ponieważ jeden plik (sitemapa) zawiera spis adresów URL całego serwisu do którego boty mają dostęp.

Najpopularniejsze są dwie  mapy:

  • HTML – przeznaczona dla użytkowników strony, prezentująca strukturę, sekcje, linki i ułatwiająca poruszanie się po stronie
  • XML –przeznaczona dla robotów wyszukiwarek, informująca o strukturze, hierarchii strony i wskazująca podstrony priorytetowe, które powinny być indeksowane. Mapa HTML najczęściej znajduje się w stopce.

Analizę struktury adresów URL strony (Screaming Frog się kłania 😉 ) należy zrobić przed wygenerowaniem mapy strony, żeby link 404 nie znalazł się w mapie witryny. Wyszukiwarki nie lubią stron zawierających niedziałające adresy z kodem błędu 404.

Strony stworzone na CMS typu WordPress posiadają wbudowany system do generowania sitemapy. Plik ten powstaje zazwyczaj w folderze głównym strony /sitemap.xml. Można użyć wtyczkę na przykład Yoast SEO, All in One SEO i w ich konfiguracji znaleźć mapę strony XML bądź zainstalować bardziej rozbudowaną wtyczkę Google XML Sitemaps.

5. robots.txt

Jakub Ozorowski  w artykule Co to jest robots.txt i jak go poprawnie używać? stworzył kompendium wiedzy na ten temat wraz z linkiem do testera pliku robots.txt Google Search Console.  Zgodnie z definicją Jakuba robots.txt jest to plik tekstowy umieszczany na serwerze, który odpowiada za komunikację z robotami indeksującymi. Główną funkcją robots.txt jest nadanie lub odebranie dostępu do plików w folderze strony internetowej. Każdy, dla kogo ranking strony internetowej jest istotny, powinien się nad tym tematem pochylić. Plik robots.txt kontroluje sposób, w jaki roboty indeksujące postrzegają Twoją witrynę.

Przydatne wtyczki do SEO

Dbając o SEO, czyli o to jak wyszukiwarka widzi Twoją stronę możesz użyć wtyczki z repozytorium WordPressa. Jest ich kilka i wybór należy do Ciebie, Twoich preferencji związanych z obsługą danej wtyczki. Różnią się one od siebie oferowanymi możliwościami, które jak zawsze są opisane w dokumentacji danej wtyczki. Do najpopularniejszych należą:

Yoast SEO

All In One SEO pack 

WP Meta SEO

 

Jak zoptymalizować stronę wewnątrz i na zewnątrz?

Oprócz podstawowych parametrów SEO wspomnianych na początku artykułu należy zatroszczyć się o optymalizację strony on-site szczególnie o:

  • słowa kluczowe w treści, w adresie URL i tagach H2, H3 oraz już w pierwszych 100 słowach artykułu na stronie;
  • linkowanie do stron tematycznie związanych z naszą witryną;
  • linkowanie wewnętrzne;
  • poprawność gramatyczną tekstów;
  • oryginalność treści;
  • formatowanie tekstu (listy numerowane bądź punktowane);
  • optymalną ilość linków wychodzących;
  • optymalną długość adresu URL (raczej krótszy).

Optymalizacja off-site również ma ogromne znaczenie, czyli:

  • pozyskanie odpowiednich linków przychodzących zewnętrznych (wykorzystaj w tym celu firmowy blog, media społecznościowe, notatki prasowe i artykuły sponsorowane);
  • komentuj na wartościowych forach i blogach specjalistycznych, związanych z Twoją branżą;
  • dbaj o wizerunek swojej firmy;
  • zapewnij wysokiej jakości obsługę klienta;
  • oferuj produkty i usługi na najwyższym poziomie;
  • monitoruj recenzje i opinie;
  • zdobywaj polecenia i rekomendacje.

 

Kilka słów końcowych w temacie SEO 

Optymalizacja to skomplikowana sprawa i wymaga kompleksowych działań. Na wiarygodność witryny pracujesz od początku jej istnienia i równolegle warto podjąć różnorodne działania mające na celu nie tylko zwiększenie widoczności strony w wyszukiwarce, ale również ilości użytkowników na stronie. Wymienione wyżej czynności są elementem optymalizacji stron i wspomagają skuteczne pozycjonowanie stron internetowych w naturalnych wynikach wyszukiwania Google. Każdemu właścicielowi strony zależy na poprawianiu user experience i zwiększaniu pozycji w wynikach wyszukiwania. To tyle teorii w temacie SEO, czyli jak wyszukiwarka widzi Twoją stronę… No właśnie, sporo tych zagadnień i są one dość skomplikowane dla początkujących. Przygotowując ten artykuł przeanalizowałam moja stronę, wprowadziłam pewne zmiany, ale to nie koniec mojej pracy, bo wiem co jeszcze muszę usprawnić. Wiem, że jeszcze mam kilka rzeczy do poprawy, ale to wymaga czasu. Treści zawarte w artykule, zgodne z prelekcją Łukasza zyskały szerszą, teoretyczną oprawę. Jeśli z czymś się nie zgadzasz, to proszę o informację.

Standardowo, jeśli uważasz, że treści, które tutaj zawarłam są wartościowe, to będzie mi bardzo miło jeśli zostawisz kilka słów w komentarzu i podzielisz się informacją o mojej stronie z osobami, którym może przydać się taka wiedza.

O wrażeniach z mojego pierwszego WordUpu możesz przeczytać tutaj.  To Ty teraz czytaj, a ja się zabieram za artykuł o prelekcji Krzysztofa Dróżdża 🙂

Odwiedź Lucy:

Moje życiowe hasło przewodnie to: bój się i rób. Rozwijam swoją działalność oferując usługi wirtualnej asystentki uwielbiającej WordPressa i język angielski. Jestem mamą dorosłego syna, żoną, miłośniczką psów i innych futrzaków, sportowcem - amatorem oraz fanką rocka.

4 Komentarze

  1. Damian
    | Odpowiedz

    Coraz ciekawsze artykuły piszesz :D.

    Jedna mała nieścisłość a mianowicie meta description od kilku miesięcy akceptuje długość do 320 znaków.

    • Lucy
      |

      Bardzo dziękuję za Twoją opinię 🙂 co do długości masz rację. Na prelekcji pojawiły się sugestie co do tego parametru. Sprawdziłam i zgadzam się: dopuszczalne uzycie 320 znaków. Jeszcze raz dziekuję!

  2. Ola
    | Odpowiedz

    Dobry artykuł. Nie o wszystkim wiedziałam. Przy następnym moim wpisie na blogu postaram się zwrócić większą uwagę na poszczególne punkty 😀

    • Lucy
      |

      Bardzo dziękuję za tak miłe słowa. Polecam wdrożenie wymienionych działań bo warto 😉

Masz ochotę zostawić kilka słów? Ależ się nie krępuj :)