W obecnych czasach mechanizmy oceny stron stosowane przez Google są znacznie doskonalsze niż jeszcze 5-10 lat temu. Jednocześnie są także dużo bardziej skomplikowane – wykorzystują nawet funkcje zbliżone do sztucznej inteligencji (mowa o systemie RankBrain opartym na tzw. uczeniu maszynowym). Coraz skuteczniej wykrywane są także nienaturalne linki prowadzące do witryn, pozyskiwane w celu poprawy pozycji stron w wynikach wyszukiwania. To wszystko powoduje, że optymalizacja pod kątem SEO (ang. Search Engine Optimization) zyskuje jeszcze bardziej na znaczeniu. Jakich zatem najważniejszych błędów przy projektowaniu strony powinniśmy unikać, aby była ona wysoko oceniana przez algorytm Google i mogła zajmować czołowe miejsca w rezultatach wyszukiwarki?
Kanibalizacja
Zjawisko to występuje, gdy dwie lub więcej podstrony witryny posiadają bardzo zbliżoną zawartość, poruszają podobną tematykę itp. W takiej sytuacji podstrony te „konkurują” ze sobą o jak najwyższe miejsca w wynikach Google dla tych samych fraz kluczowych wpisywanych przez użytkowników. Często powoduje to naprzemienne wyświetlanie jednej bądź drugiej podstrony w rezultatach wyszukiwania, wahania zajmowanych przez nie pozycji, a nierzadko również trwałe obniżenie pozycji witryny dla danych fraz.
Nieprawidłowa architektura informacji
Z punktu widzenia algorytmów wyszukiwarek internetowych bardzo ważne jest, aby informacje umieszczone w witrynie podzielone były na spójne i logiczne sekcje, działy, kategorie, podkategorie itp. Cała zawartość serwisu powinna zostać pogrupowana na części skupiające powiązane ze sobą tematycznie treści i/lub odnoszące się do podobnych zagadnień. Dzięki temu wyszukiwarki są w stanie lepiej „zrozumieć” zawartość poszczególnych podstron, ich znaczenie oraz kontekst. To z kolei pozwala na trafniejsze dopasowanie podstron do zapytań użytkowników i wyświetlanie ich na wyższych pozycjach wyników wyszukiwania.
Niepoprawna struktura informacji stanowi utrudnienie dla algorytmu oraz sprzyja omówionemu wcześniej zjawisku kanibalizacji.
Fot. Duplikacja treści utrudnia prace algorytmów, a w konsekwencji – zdobycie wysokiej pozycji w Google. Fot. Pixabay
Brak lub niewłaściwe linkowanie wewnętrzne
Bez odpowiedniej sieci linków pomiędzy poszczególnymi podstronami witryny, roboty skanujące i indeksujące Google nie są w stanie swobodnie poruszać się po serwisie i poznać jego struktury. W przypadku bardzo dużej liczby podstron trudniejsze jest także ich indeksowanie.
Szczególnie ważnym elementem witryny w zakresie linkowanie wewnętrznego jest menu nawigacyjne. Błędem jest tworzenie go za pomocą technologii JavaScript czy Flash, ponieważ Google zazwyczaj ma problemy z odczytaniem tego typu zawartości na stronach www. Zalecane jest stosowanie menu tekstowego.
Fot. Przykład rozwijanego menu nawigacyjnego
Pamiętać należy także, że liczba linków wewnętrznych prowadzących do podstrony traktowana jest przez algorytm Google jako sygnał mówiący o tym, jak ważna jest dana podstrona w serwisie. Brak lub mała liczba odnośników wewnętrznych powoduje więc, że trudniej jest jej osiągnąć wysokie pozycje w wynikach Google. Wynika to także z faktu, że poprzez linki wewnętrzne wartość wskaźnika PageRank przenoszona jest ze strony głównej w głąb witryny. Brak odnośników sprawia, że podstrony nie otrzymują „mocy” ze strony głównej, przez co osiągają niższe miejsca w rezultatach wyszukiwania.
Zobacz również: Mobile SEO. Sprawdź dobre praktyki i przydatne narzędzia!
Duplicate content
Kopie treści to problem bardzo często pojawiający się w wielu witrynach, a szczególnie w sklepach internetowych. O zjawisku duplicate content w obrębie witryny mówimy, gdy taka sama lub prawie identyczna zawartość pojawia się na podstronach o innych adresach URL. W sklepach online problem ten częstokrotnie generowany jest w wyniku opcji sortowania, zawężania czy filtrowania produktów.
Fot. Opcje wyszukiwania produktów w e-sklepie
Tego typu duplikacji treści możemy uniknąć zapobiegając indeksowaniu podstron z wynikami różnego rodzaju grupowania produktów. W tym celu można zastosować w kodzie strony meta tag „robots” o zawartości „noindex” lub parametr rel=”canonical” wskazujący kanoniczną wersję podstrony (czyli taką, która zawiera wszystkie, nieposortowane i niezawężone produkty i powinna być indeksowana).
Inną formą duplicate content jest występowanie witryny pod adresami z przedrostkiem domeny lub bez niego, przykładowo: www.domena.com oraz domena.com. W przypadku serwisów korzystających z szyfrowanego protokołu SSL/TLS duplikację powodować może dodatkowo działanie strony pod „bezpiecznymi” adresami – https:// oraz adresami „zwykłymi” – http://. Ponieważ pojawianie się kopii treści jest negatywnie oceniane przez algorytm, dla całej witryny ustawić należy przekierowania 301, tak aby wszystkie podstrony dostępne były tylko w jednej wersji na początku adresu, np. https://www.domena.com.
Co istotne, duplikacja treści działa niekorzystnie na ocenę Google również wtedy, gdy dotyczy powielonej zawartości na zewnętrznych witrynach. Tworząc serwis należy więc unikać kopiowania treści z innych stron, w tym przykładowo opisów produktów w sklepie internetowym, co jest częstą praktyką.
Niepełna wersja mobile
Posiadanie wersji witryny przystosowanej do urządzeń przenośnych to konieczność, do której obecnie nikogo nie trzeba przekonywać. Z punktu widzenia SEO jest to tym bardziej istotne, że już od dłuższego czasu więcej niż połowa wyszukiwań w Google odbywa się na urządzeniach mobilnych. Co ważne, strony niespełniające wymogów Google tzw. „mobile-friendly” degradowane są na niższe pozycje mobilnych wyników wyszukiwania.
Fot. Przykład responsywnej strony internetowej o takiej samej zawartości dla mobile i desktop
Dostosowanie witryny do kryteriów Google oceniających przyjazność strony dla użytkowników mobilnych staje się jednak obecnie niewystarczające by osiągnąć pełny potencjał widoczności w wynikach Google. Przez wyszukiwarkę testowany jest bowiem nowy sposób indeksowania stron internetowych – „mobile-first indexing” – w którym na pozycje stron w rezultatach wpływa w pierwszej kolejności zawartość wersji mobilnej, a nie desktopowej. W nowym systemie treści zamieszczone na stronie mobile będą więc decydować o jej pozycjach w wynikach wyszukiwania nie tylko na urządzeniach przenośnych, ale także na komputerach. Jeśli tylko nie ma uzasadnionych przeciwskazań, wersja mobilna witryny powinna posiadać zatem pełen zakres funkcjonalności i taką samą zawartość jak wersja na komputery.
Podsumowanie
Oczywiście istnieje znacznie więcej różnego rodzaju nieprawidłowości na stronie internetowej, które powodują obniżenie jej wartości dla algorytmów wyszukiwarki. Wyżej została przedstawiona część najbardziej istotnych, mogących skutkować niekiedy wyraźnym pogorszeniem widoczności serwisu w rezultatach wyszukiwania. Unikając omówionych błędów pozwolimy witrynie na pełniejsze wykorzystanie potencjału i osiąganie wyższych pozycji w wynikach Google.
Zobacz również: Mobile SEO. Sprawdź dobre praktyki i przydatne narzędzia!
Komentarze