Samodzielny audyt SEO i optymalizacja – jak je wykonać za darmo?

Właściwe wykonanie audytu SEO to czynność dość czasochłonna, ale w zasadzie niezbędna przy pozycjonowaniu stron internetowych. Wskazanie i poprawienie błędów leżących po stronie witryny pozwala na wybicie się w Google na mało popularne frazy nawet bez mocnego linkowania. Dziś przedstawimy jak samodzielnie wykonać podstawowy i w pełni darmowy audyt SEO wraz z optymalizacją treści.

Znaczniki sekcji head

Na wstępie warto zauważyć, że część znaczników sekcji head nie ma znaczenia przy ustalaniu pozycji przez Google. Co prawda niektóre z nich są, właściwie rzecz biorąc, bezużyteczne (jak np. meta keywords), jednak czasami warto je wziąć pod uwagę ze względu na użyteczność z punktu widzenia użytkownika (np. meta description).

Title

To bez wątpienia najważniejszy znacznik całej sekcji head. Każda podstrona witryny powinna mieć odmienny znacznik title. W dużej mierze po nim Google określa zawartość tematyczną danej podstrony, zatem niedopuszczalna jest sytuacja, w której każda podstrona ma identyczną jego zawartość. Jest on również ważny z tego względu, że stanowi tytuł widoczny w wynikach wyszukiwania Google. Powinien zatem jasno przedstawiać treść podstrony i zachęcać do kliknięcia. Co więcej, ważne dla danej podstrony słowa kluczowe powinny znaleźć się z przodu tegoż znacznika. Przypuśćmy, że badamy serwis firmowy salonu fryzjerskiego z Warszawy “PrzykladowyFryzjer.pl” i podstronę dedykowaną fryzurom męskim. Oto kilka złych przykładów znacznika title dla tej podstrony:

  • PrzykladowyFryzjer.pl – wyróżnij się z tłumu,
  • Fryzury, fryzjerstwo, Warszawa, IdealnaFryzura.pl, wyróżnij się z tłumu, fryzjer męski, fryzjer damski
  • Fryzjer Warszawa – PrzykladowyFryzjer.pl,
  • PrzykladowyFryzjer.pl – Fryzjer męski.

A teraz kilka dobrych przykładów, które można w tym przypadku zastosować:

  • Fryzjer męski w Warszawie – PrzykladowyFryzjer.pl,
  • Fryzury męskie – PrzykladowyFryzjer.pl.

Jak widać po powyższych przykładach, podstrona dedykowana fryzurom męskim powinna mieć tytuł ściśle związany z prezentowaną na niej treścią. Ważne słowa kluczowe muszą znaleźć się na początku znacznika. Na końcu warto dodać nazwę salonu bądź adres strony – do celów czysto brandowych. Tytuł nie powinien być także zbyt długi, ponieważ Google może nie wyświetlić go w całości.

Metatagi

Na wstępie zaznaczam, że title wchodzi w skład metatagów, jednak ze względu na jego olbrzymie znaczenie został on potraktowany osobno. Choć czasy, w których wystarczyło napchać odpowiednie słowa kluczowe w metatagach by zdobyć wysoką pozycję już dawno i bezpowrotnie minęły, na niektóre z nich nadal warto zwrócić uwagę. Ich znaczenie w określaniu pozycji jest marginalne (jeśli w ogóle jakieś). Co więcej, część z nich wyszukiwarka może generować automatycznie. Z punktu widzenia SEO wyróżniamy następujące najważniejsze metatagi:

  • Robots (np. <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW,ALL”>),
  • Description (<META NAME=”description” CONTENT=””>),
  • Title (<TITLE></TITLE>).

Pierwszy z nich (Robots) określa, w jaki sposób strona ma być indeksowana przez wyszukiwarkę. Można zupełnie zablokować dostęp robotom wyszukiwarek z poziomu tego tagu. W tym celu wystarczy mu nadać wartość “noindex”. Wpisanie w tym miejscu wartości “nofollow” oznacza, że wszystkie linki wychodzące będą miały nadany atrybut “nofollow” i co za tym idzie, nie będą przekazywać PageRanku. Domyślnie znacznik ten ma nadaną wartość “index, follow”.

Znacznik Description to inaczej opis strony, jednak nie jest on brany pod uwagę przy ustalaniu pozycji w wyszukiwarce. Jest on istotny z tego względu, że jego zawartość wyświetla się w wynikach wyszukiwania. Opis powinien zatem jednocześnie odpowiadać zawartości danej podstrony, wpisanej przez użytkownika frazie w wyszukiwarce i zachęcać do kliknięcia. Jego poprawna i atrakcyjna konstrukcja ma duży wpływ na odwiedzalność witryny. Niedopuszczalne jest więc wypchanie go słowami kluczowymi, czy pustymi, nic nieznaczącymi frazesami. Nie powinien być także zbyt długi, ponieważ może nie zostać w całości wyświetlony w wynikach wyszukiwania. Jego długość powinna wynosić około 150 znaków. Wróćmy do przykładu salony fryzjerskiego i podstrony o fryzurach męskich. Oto kilka niepoprawnych przykładów:

  • salon fryzjerski Warszawa, fryzjer w Warszawie, najlepszy fryzjer w Warszawie, odwiedź nas, jesteśmy najlepsi, salon fryzjerski w Warszawie numer jeden
  • Jesteśmy najlepszym salonem fryzjerskim w Warszawie. Mamy najniższe ceny. U nas wszyscy są zadowoleni.

A to przykład poprawnie skonstruowanego znacznika Description:

  • Działający na terenie Warszawy salon fryzjerski PrzykladowyFryzjer.pl oferuje strzyżenie Panów. Z nami wyróżnisz się z tłumu i nie wyjdziesz z pustym portfelem.

Jak widać, pominęliśmy znacznik keywords odpowiadający za słowa kluczowe. Google usunęło go ze swoich wytycznych, co oznacza, że w ogóle nie warto zaprzątać sobie nim głowy. Sam Matt Cutts już kilka lat temu stwierdził, że nie ma on żadnego znaczenia dla wyników wyszukiwania. Znacznik ten może mieć wpływ na pozycję w innych wyszukiwarkach niż Google, jednak z obecnym udziałem giganta z Mountain View nie warto się tym problemem zajmować.

Poprawna nawigacja

Kolejnym istotnym elementem jest poprawna, drożna nawigacja witryny. Co oznacza “drożna”? Po pierwsze, żaden link wewnętrzny w ramach strony nie powinien prowadzić do podstrony, której w rzeczywistości nie ma (błąd 404). Wydaje się to być oczywiste, jednak w praktyce często zdarzają się zwykłe ludzkie błędy i niedopatrzenia. Drożność nawigacji można w łatwy sposób sprawdzić przy pomocy aplikacji Xenu. Dobrym pomysłem (zwłaszcza dla bardzo rozbudowanych stron) jest wprowadzenie nawigacji okruszkowej:

Takie rozwiązanie jest przydatne nie tylko z punktu widzenia robota wyszukiwarek, ale również użytkowników, którzy dzięki temu lepiej się orientują w nawigacji strony.

Projektując menu i całościową architekturę witryny, należy pamiętać o pewnej “złotej zasadzie”, której przestrzeganie znacznie poprawia zdolność indeksacji strony:

Dostęp do każdej podstrony serwisu posiadającego do 10 000 podstron powinien być możliwy po maksymalnie dwóch/trzech kliknięciach. W przypadku witryn większych dopuszcza się sześć kliknięć.

Struktura witryny

Niezwykle istotnym aspektem jest struktura strony WWW. Serwis z błędną, mało intuicyjną budową nie będzie miał prawa zaistnieć w wyszukiwarce. Rzecz ta odnosi się głównie do poprawnego zastosowania znaczników nagłówków h1, h2, h3, h4, h5 i h6. Bezwzględnie należy przestrzegać zasady, według której na danej podstronie może występować tylko jeden nagłówek najwyższego poziomu. Co więcej, powinien on odpowiadać tematyce podstrony. Zatem odpada sytuacja, w której na każdej podstronie serwisu znajduje się nagłówek h1 o takiej samej treści. Naturalnie, najważniejsze elementy witryny powinny być możliwie jak najwyżej w kodzie. Dzięki zastosowaniu arkusza stylów CSS można doprowadzić do sytuacji, w której właściwa treść podstrony znajduje się w kodzie wyżej niż menu nawigacyjne i logo, podczas gdy wyświetlanie tych elementów odbywa się drogą tradycyjną – najpierw top, potem cała reszta. Czy warto aż tak optymalizować stronę? W naszym przekonaniu nie. Jeśli w kodzie najpierw znajdzie się logo i menu, a dopiero potem właściwa treść podstrony, będzie to w zupełności wystarczające. Problem natomiast może stanowić umieszczenie zbyt dużej ilości reklam w górnej części witryny. Wówczas sami sobie szkodzimy.

Dobór fraz kluczowych

Jest to krok, od którego powinno się wszystko zacząć. Tak naprawdę, dobór frazy kluczowych należy wykonać przed tworzeniem jakichkolwiek treści na stronie (włącznie z ustaleniem znaczników sekcji head). Jest to element ważny z tego względu, że to właśnie na tym etapie określa się po jakich frazach użytkownicy mają znajdywać naszą witrynę w wynikach wyszukiwania. Powinny one odpowiadać nie tylko treści danej podstrony, ale również konwersji, którą chcemy osiągnąć. Przykładowo, prowadząc firmę tworzącą strony internetowe, nie możemy nakierować witryny firmowej na frazę “darmowe strony www”. Jeśli uda nam się wypozycjonować stronę na taką frazę, użytkownicy nie będą korzystać z usług firmy, ponieważ trafili na nią, szukając czegoś innego (np. darmowych generatorów stron internetowych).

Podobnie sytuacja wygląda w przypadku poszczególnych podstron serwisu. Każda podstrona witryny powinna być nakierowana na inne słowo/frazę kluczową. Wykonuje się to po to, aby nie występowało zjawisko kanibalizacji słów kluczowych (opisane w kolejnym punkcie). Frazy te powinny także ściśle odpowiadać zawartości danej podstrony.

Kanibalizacja słów kluczowych

Kanibalizacja słów kluczowych jest elementem, który najczęściej dotyka większe strony WWW z dużą ilością podstron. Jest to zjawisko bardzo niekorzystne, ponieważ w takiej sytuacji kilka podstron danego serwisu walczy ze sobą o pozycje w Google pod tą samą frazą. Google wówczas samo decyduje, która z tych podstron jest najistotniejsza (mało prawdopodobnym jest, że wyszukiwarka wyświetli wszystkie te podstrony wysoko w wynikach wyszukiwania). Ryzykujemy również, że linki prowadzące do podstron “zarażonych” kanibalizacją rozłożą się na wszystkie te podstrony, zamiast na jedną, najważniejszą. W takiej sytuacji wszystkie korzyści, które może zyskać jedna podstrona, zostają rozłożone na kilka. Rozwiązanie tego problemu zostało w znakomity sposób zaprezentowane w książce “Sztuka SEO. Optymalizacja witryn internetowych” autorstwa Erica Enge, Stephana Specnera, Jessie Stricchiola i Randa Fishkina.

Źródło: E. Enge, S. Spencer, J. Stricchiola, R. Fishkin, “Sztuka SEO. Optymalizacja witryn internetowych”, str. 134,135.

Jak widać na rysunku, robot wyszukiwarki trafił na cztery podstrony nakierowane na te same słowa kluczowe (znajdujące się w treści, znaczniku title, nagłówkach itp.). Rozwiązanie może być tylko jedno – zmiana treści na trzech podstronach tak, by były lepiej dopasowane do długiego ogona wyszukiwania i podlinkowanie na nich najważniejszej podstrony. Dzięki temu wyszukiwarka jest w stanie lepiej się zorientować która podstrona bardziej odpowiada zapytaniom użytkowników. Co więcej, trzy zmodernizowane podstrony mają większe szanse na zebranie ruchu z długiego ogona wyszukiwań.

Optymalizacja treści i obrazów

W chwili obecnej właściwa optymalizacja treści jest jednym z najistotniejszych czynników wpływających na pozycję witryny w wyszukiwarce. Niejednokrotnie zdarza się sytuacja, w której witryny z małą ilością linków doprowadzających znajdują się wysoko w wynikach wyszukiwania (zwłaszcza na mniej konkurencyjne frazy) właśnie dzięki właściwej optymalizacji treści. Poprzez optymalizację treści rozumie się właściwy dobór słów kluczowych oraz zredagowanie artykułów na podstronie właśnie pod kątem tych najistotniejszych fraz.

Gdy mamy już właściwie dobrane słowa kluczowe, należy przejść do ich “montażu” na każdej z podstron. Wybrane przez nas frazy kluczowe powinny się znajdować w następujących elementach witryny:

  • Znacznik title,
  • Znacznik meta description,
  • Nagłówek najwyższego poziomu,
  • Nagłówki niższego poziomu,
  • Atrybut alt obrazów,
  • Pogrubienia.

Oczywiście we wszystkim należy zachować umiar. Najlepiej kierować się zdrowym rozsądkiem i dobrem użytkowników. Nikt nie chce czytać materiałów, w których fraza kluczowa jest pogrubiona za każdym razem, gdy się pojawia (w zasadzie pogrubienie można zastosować tylko za pierwszym razem, gdy fraza pojawia się w tekście). Nie należy też upychać słów kluczowych na siłę w znacznikach nagłówków czy sekcji head. Podobnie sytuacja wygląda w przypadku atrybutu alt obrazów. Powinno się także stosować synonimy i odmiany słowa kluczowego. Unikajmy występowania w tekście fraz typu “hydraulik Warszawa”. Tego typu “chwyty” już dawno nie są skuteczne (albo wręcz szkodzą). Niech to będzie coś zupełnie naturalnego, np. “Pan Jan Kowalski jest hydraulikiem z Warszawy”.

Istotnym elementem jest także stosunek ilości treści właściwej do ilości kodu w witrynie. Nie ma tutaj żadnej magicznej, idealnej liczby. Jedyne, co można stwierdzić na pewno, to że im wyższy ten współczynnik, tym lepiej. Wartość na poziomie np. 4% jest zdecydowanie zbyt niska. Za możliwe do zaakceptowania uznaje się kilkanaście procent.

Duplikacja treści

Powielanie treści to jeden z najczęściej popełnianych błędów. Widoczne jest to głównie w przypadku sklepów internetowych, w których opisy produktów są kopiowane z innych stron bądź strony producenta. Nie ma możliwości, aby Google dobrze oceniło w ten sposób skonstruowaną treść. Synonimizowanie tekstów także może nie przynieść pożądanych rezultatów, ponieważ Google coraz lepiej radzi sobie z ich rozpoznaniem. Absolutnym wymogiem jest tworzenie na każdej podstronie unikalnej treści o długości przynajmniej kilkuset słów. Nie wystarczy, że napiszemy dwa zdania, ponieważ wówczas narażamy się na działanie tzw. aktualizacji “Thin Content” (nie potwierdzona przez Google aktualizacja algorytmu wyszukiwania nakładająca kary za małą ilość treści na stronie). Google rozpoznaje menu nawigacyjne czy stopkę i nie bierze ich pod uwagę przy ocenie unikatowości, więc nie trzeba się martwić o to, że top czy stopka są identyczne na każdej podstronie. W Sieci istnieje wiele narzędzi ułatwiających badanie pojawiających się duplikatów treści (np. CopySpace.com).

Wiele duplikatów jest niestety generowana nieświadomie. Najprostszym przykładem jest sytuacja, w której strona dostępna jest zarówno poprzez adres z przedrostkiem “www” jak i bez niego. Innym przypadkiem może być sytuacja, gdy ta sama zawartość wyświetla się po wpisaniu w pasku adresu “PrzykladowaDomena.pl” i “PrzykladowaDomena.pl/index.html”. Generatorami zduplikowanych treści mogą być także blogi, w których np. na stronie głównej, stronie z kategoriami i na kanale RSS wyświetlają się zajawki tych samych wpisów. Problem ten występuje również w przypadku podstron z tą samą treścią, których URL jest generowany dynamicznie w zależności od sesji użytkownika. Dla przeciętnego użytkownika nie ma w tym nic złego, jednak dla Google są to zupełnie różne adresy, które pokazują tę samą treść. Robot wyszukiwarki wówczas sam decyduje o tym, która wersja jest najważniejsza. Nie powinno się do takiej sytuacji dopuszczać. Jak sobie z tym radzić? Pierwszym rozwiązaniem jest przekierowanie 301 na właściwą podstronę, a drugim użycie kanonicznych URLi.

Jak zoptymalizować obrazy?

Robot Google ma bardzo ograniczone możliwości rozpoznawania zawartości obrazów. Co prawda wyszukiwarka dobrze sobie radzi z usuwaniem z wyników wyszukiwania grafik o zawartości erotycznej (na podstawie procentowej oceny zawartości odcieni skóry), jednak to w zasadzie wszystko, co da się rozpoznać po samej grafice. Robotowi wyszukiwarki należy zatem pomóc. Stosuje się dwie metody:

  • Nadanie odpowiedniej nazwy plikowi graficznemu,
  • Wykorzystanie atrybutów alt i title.

Raczej niezbyt rozsądnym jest nazwanie pliku graficznego “asdasd.jpg” lub “DSC102.jpg”. Jeśli obraz przedstawia psa, niech zdjęcie nazywa się np. “pies-york.jpg”. Co do atrybutów alt i title, należy unikać upychania słów kluczowych na siłę. Powinny one zostać wykorzystane zgodnie ze swoim przeznaczeniem, tzn. tytuł grafiki oraz jej opis. Oczywiście powinna się tam znaleźć właściwa fraza kluczowa (być może odmieniona przez przypadki lub jej synonim), jednak ładnie i subtelnie wkomponowana w całość.

Mapa strony i plik Robots.txt

Mapa witryny jest szczególnie istotna w przypadku dużych stron WWW. Krótko mówiąc, jest to spis wszystkich podstron danej witryny. Jej istnienie znacznie ułatwia robotowi Google indeksację całej witryny. W zasadzie, warto stworzyć dwie mapy – jedna w formacie XML dla robota i druga zwykła dla użytkowników. Mapę witryny z przeznaczeniem dla robota można zgłosić w narzędziach dla Webmasterów Google. Dzięki temu robot szybciej do niej dotrze. Mapa dla użytkowników powinna być umieszczona w głównej nawigacji witryny.

Plik robots.txt jest o tyle istotny, że za jego pomocą możemy całkowicie zablokować dostęp robotom wyszukiwarek do witryny. Możemy także ów dostęp zablokować tylko wybranym robotom. W tym artykule nie będziemy zajmować się poprawnym tworzeniem map witryn i pliku robots.txt. W celu zapoznania się z tymi dziedzinami odsyłam tu i tu.

Przyjazne adresy URL, wydajność witryny i poprawność kodu źródłowego

Choć pojawienie się słów kluczowych w adresie URL nie przynosi już takich korzyści jak kiedyś (niektórzy twierdzą, że ten element w ogóle nie ma wpływu na pozycję witryny), to nadal warto zadbać o to, aby wyeliminować dynamicznie generowane adresy. Można to wykonać przy użyciu pliku .htaccess zastępując identyfikatory numeryczne nazwą kategorii wpisów, a samym wpisom nadawać URL z powiązanymi słowami kluczowymi. Jeśli korzystasz z WordPressa, to masz ułatwione zadanie, ponieważ ten CMS wykonuje to za nas.

Choć wydajność witryny nie ma dużego znaczenia, to jednak warto zadbać, aby strona nie ładowała się kilkanaście sekund. Robot wyszukiwarki nie będzie czekał w nieskończoność, by zaindeksować serwis. Generalnie rzecz biorąc, jeśli witryna ładuje się w czasie do 3/4 sekund, to nie ma się czym przejmować. Google dysponuje również swoim własnym narzędziem do mierzenia wydajności stron (PageSpeed Insights – wskaźnik podawany jest w skali od 0 do 100 punktów). Jednak nie warto tym elementem się przejmować, chyba, że Twoja witryna osiąga bardzo słabe wyniki.

Podobnie jak wydajność strony, poprawność kodu źródłowego również nie jest kluczowym czynnikiem przy ustalaniu pozycji. Niemniej jednak warto zadbać, aby na naszej witrynie nie było rażących błędów w kodzie HTML. Współczesne przeglądarki część błędów ignorują i samodzielnie poprawiają, jednak nie są w stanie w ten sposób wyeliminować wszystkich. Nie da się jednak ukryć, że strona bez błędów w strukturze jest po prostu lepsza. Zwaliduj więc swoją witrynę przy pomocy jednego z dostępnych w Sieci narzędzi i popraw błędy, jeśli takowe są.

Częste błędy

Niedoświadczeni webmasterzy i pozycjonerzy niekiedy popełniają, wydawać by się mogło, proste błędy. Czasami wynikają one z niewiedzy, a czasami ze zwykłego niedopatrzenia. Opiszę teraz najczęstsze, na które się natykam w trakcie pracy nad stronami:

  1. Atrybut noindex w sekcji head – Niekiedy webmasterzy są rozczarowani, że pomimo upływu czasu, ich witryna nie jest widoczna w wynikach wyszukiwania. Jak się okazuje, błąd jest czasami banalny. W czasie prac nad stroną w sekcji head dodawany jest atrybut “noindex”, aby Google nie zaindeksowało niegotowej strony. Po zakończeniu prac webmaster zapomina, aby ten atrybut zdjąć.
  2. Błędne zapisy w pliku robots.txt – Wbrew pozorom, czasami łatwo o prostą gafę. Pomylenie pliku z katalogiem czy na odwrót lub pomylenie nazw robotów zdarza się częściej niż można by pomyśleć. W Sieci znajduje się wiele walidatorów plików robots.txt, które ułatwią identyfikację błędów.
  3. Źle dobrane słowa kluczowe – jest to szczególnie niebezpieczne w przypadku sklepów internetowych. Wielu właścicieli e-sklepów uważa, że jeśli znajdzie się wysoko np. na frazę “aparaty cyfrowe”, to będzie miało gwarancję dużej ilości klientów. Gdy użytkownik wpisuje tego typu wyrażenie w wyszukiwarkę, to w zasadzie nie wiadomo, czego chce – kupić aparat, poczytać artykuły o aparatach, czy może jeszcze czegoś innego. Właściwszym doborem słów kluczowych może być chociażby “sklep z aparatami cyfrowymi Nikon”.
  4. Więcej niż jeden nagłówek h1 – jest to błąd, o którym wielu mniej doświadczonych właścicieli stron w ogóle nie ma pojęcia. O dziwo, nawet duzi producenci skórek pod WordPressa go popełniają. Koniecznie zadbaj o to, aby na każdej podstronie był tylko jeden nagłówek najwyższego poziomu. I co ważne, aby wszędzie był on inny – z uwzględnieniem właściwych danej podstronie słów kluczowych.
  5. Keyword stuffing – upychanie stron na siłę słowami kluczowymi jest nielegalną techniką pozycjonowania. W zamierzchłych czasach przynosiła bardzo dobre rezultaty, jednak teraz jest to prosta droga do dna w Google. Wielu webmasterów i właścicieli stron jednak, o dziwo, nadal nie zdaje sobie sprawy z tego stanu rzeczy. Wielokrotnie analizując witryny, natykam się np. w stopkach na “nauczanie angielskiego, nauczanie angielskiego na odległość, angielski warszawa, szkoła językowa warszawa […]”. Keyword stuffing tyczy się także nadmiarowych ilości słów kluczowych we wszystkich innych elementach witryny (łącznie z adresami URL).
  6. Duplikacja treści – mówimy tutaj o nieumyślnym działaniu, czyli dostępności witryny z przedrostkiem “www” i bez niego i tym podobne (kwestia ta została szerzej opisana kilka akapitów wyżej). Celowo ponownie wskazuję na możliwość występowania tego problemu, ponieważ jest to jeden z najczęściej popełnianych błędów, o którym wiele osób nie ma pojęcia.

Podsumowanie

Jak widać, elementów, o które należy zadbać, jest naprawdę mnóstwo. Gdy będziesz wykonywał audyt SEO i optymalizację swojej strony WWW, prawdopodobnie nie raz będziesz musiał wrócić do tego artykułu, ponieważ przyswojenie sobie od razu wszystkiego po jednokrotnym przeczytaniu jest raczej niewykonalne.

Tak czy inaczej, trzymanie się zasad tu przedstawionych gwarantuje, że strona będzie przyjazna wyszukiwarce Google. Z tak przygotowaną witryną nie pozostaje nic innego, jak tylko zadbać o świetnej jakości content, który będzie generował naturalne linki. W niedługim czasie na blogu szerzej omówię niektóre elementy (jak np. dobór właściwych fraz kluczowych). Zachęcam zatem do zapisania się do newslettera, aby na bieżąco być informowanym o nowych wpisach.

Leave a comment