Autor: Bartek Raducha
Internet nauczył mnie, że istnieje wiele mitów o SEO.
W dużej mierze dlatego, że specjaliści od pozycjonowania stron roztaczają wokół niego aurę tajemniczości.
Z perspektywy przeciętnego użytkownika SEO może wyglądać jak czarna magia, którą znają tylko zawodowcy.
Stąd tak dużo mitów, które narosły wokół pozycjonowania stron internetowych.
W większości to po prostu internetowe legendy, które powtarzano, aż stały się prawdą.
Część z nich wynika po prostu ze zbytniego upraszczania. Pobawisz się ze mną w SEO myth busting?
Najciekawsze jest to, że Google – potęga na rynku wyszukiwarek internetowych – gra w otwarte karty jeśli chodzi o pozycjonowanie witryn.
Dzięki temu użytkownicy wiedzą więcej o wymaganiach dotyczących SEO. A do tego łatwiej obalić mity o SEO. Zwłaszcza jeśli chcesz samodzielnie zająć się robieniem strony internetowej.
Informacje o nowych wytycznych pojawiają się podczas konferencji, na wpisach blogowych i w mediach społecznościowych osób związanych z Googlem i branżą.
Skoro Google takich doniesień nie dementuje, to te informacje są wiążące. A mity o SEO upadają :).
Sporo tych mitów wynika też z niezrozumienia mechanizmów działania wyszukiwarki. Albo zrozumienia na wyrost ;). Ale nie uprzedzam faktów.
Ten mit pokazuje, że Google czuwa i dementuje nieaktualne informacje ;). W marcu 2016 roku Andrey Lipattsev ogłosił, że na pozycję strony www wpływają głównie linki, treść na stronie i mechanizmy algorytmu RankBrain. Brzmiało to sensownie, bo Lipattsev jest starszym specjalistą Google’a i zajmuje się jakością wyszukiwania.
Niedługo potem John Mueller to „miękko” odkręcił mówiąc, że wiele wytycznych dotyczących pozycjonowania zmienia się niemal z dnia na dzień.
Do tego podkreślił, że istotne są też trendy. Zaznaczył, że warto się skupić na większej liczbie rzeczy, w tym na zdobywaniu linków z wartościowych źródeł. Sam algorytm wyszukiwania też dostosowuje się do potrzeb użytkownika, a sama strona powinna być dobrze zoptymalizowana.
Najciekawsze było jednak to, że Mueller stwierdził, że „żeby odnieść sukces w pozycjonowaniu trzeba skupić się na realizacji wszystkich dwustu wytycznych Google’a”. Brzmi to ciekawie.
Czyli chociaż linki są ważne, to wiele innych wytycznych wciąż jest istotnych. Zwłaszcza że te pozostałe wytyczne często decydują o tym, czy strona jest w TOP3 czy na którejś stronie SERP-ów.
Ponad 600 000 ludzi tworzy strony za darmo, bez kodowania i przy wsparciu AI. Zobacz, jakie to proste
Jak widzisz, linki są ważne. Im wyżej oceniana jest strona linkująca, tym lepiej. Jest z tym związany jednak kruczek, który powoduje, że to twierdzenie jest mitem.
Roboty Google’a umieją czytać i potrafią ocenić jakość artykułu. Czyli jeśli w kiepskim tekście znajdzie się link do jakiejś strony, algorytmy mogą go zignorować.
Zwłaszcza jeśli dotyczy czegoś innego, niż dotyczy strona, do której linkuje. Za to jeśli linkowana strona jest sensownym uzupełnieniem, to taki odnośnik z pewnością będzie się liczył.
Innymi słowy: linki dodane od czapy, nawet do stron o wysokim autorytecie, mogą nic nie dać.
To chyba najstarszy mit dotyczący treści na stronie ;). Z drugiej strony internet powstał też po to, żeby dzielić się wiadomościami, więc ten mit uderza w samą ideę sieci :).
Bardzo fajnie wytłumaczył to John Mueller: jeśli strona składa się wyłącznie ze zduplikowanych treści, które nie podają źródła, to roboty Google’a nie mają żadnego interesu w tym, żeby pokazywać taką stronę w wynikach wyszukiwania.
Czyli jeśli „przedrukujesz” na swojej stronie czyjś artykuł, za jego zgodą i podając link do źródła, to nie musisz bać się spadku pozycji swojej strony w wynikach wyszukiwania. Oczywiście warto pamiętać o copyrightach i traktować poważnie kwestie własności intelektualnej.
Największym problemem, który może powodować ponowne publikowanie treści na stronie, jest obniżenie pozycji strony źródłowej. Czyli strona, na której jest zduplikowana treść, może wpłynąć negatywnie na pozycję strony oryginalnej.
Chodzi o to, że Google zobaczy dwie strony z taką samą treścią i wybierze tę, która lepiej dopasowuje się do algorytmu wyszukiwania. To ona będzie miała wysoką pozycję w Google.
Pamiętaj jednak, że to zupełnie skrajny przypadek i raczej się nie zdarza. Głównie dlatego, że strony z oryginalnymi i często cytowanymi treściami wyświetlają się w wynikach wyszukiwania wyżej.
Z drugiej strony – warto też publikować własne treści. Ktoś może je skopiować i podlinkować do nas.
Czyli jeśli masz nową stronę, to roboty Google’a będą blokować jej wyświetlanie w wynikach wyszukiwania. Oczywiście – w ochronie przed spamem. Bo skoro każdego dnia powstaje mnóstwo nowych stron, to duża ich część jest po prostu spamem.
Z tym mitem ponownie rozprawia się John Mueller. Zadeklarował otwarcie, że nie ma czegoś takiego jak Google sandbox (w wolnym tłumaczeniu: piaskownica Google) w odniesieniu do nowych stron.
Żeby to potwierdzić, warto przytoczyć słowa Matta Cuttsa z Google: „różnica między domeną, która ma sześć miesięcy, a taką, która ma rok, jest w rzeczywistości niewielka” (oryg.: „The difference between a domain that’s six months old versus one year old is really not that big at all”).
Powiedzmy sobie szczerze: szybkość ładowania strony jest ważna. Więc to taki mit połowiczny, ale przez bardzo długi czas był najpopularniejszym mitem o SEO i do dzisiaj może wprowadzać w błąd.
Google traktuje szybkość strony to jeden z czynników przy pozycjonowaniu od 2010 roku. Obecnie roboty wyszukiwarki traktują szybkość strony jako wyznacznik, który wyróżnia strony. Im szybsze strony, tym lepiej.
Oczywiście jeśli strona ładuje się ponad 3 minuty – wtedy będzie oznaczona jako wolna, a przez to – jej pozycja może spaść.
Co nie zmienia faktu, że szybkość strony wpływa pośrednio na pozycję w wynikach wyszukiwania. Pogarsza user experience, podwyższa współczynnik odrzuceń i obniża czas na stronie, co też jest istotne dla robotów Google’a.
Więc szybkość strony jest ważna, ale nie kluczowa.
Tak i nie ;). „Fred” to zbiór aktualizacji, który odpowiada za analizę jakości linków. Jednak – w przeciwieństwie do poprzednich dużych aktualizacji algorytmu – nie jest tym samym, czym była na przykład Panda (czyli dużą aktualizacją algorytmów).
Dlaczego nazwa tej aktualizacji jest w cudzysłowie? Gary Illes z Google’a powiedział, że nie ma czegoś takiego, jak jednorazowa aktualizacja algorytmu Google’a o nazwie Fred. Każda nowa aktualizacja algorytmu jest roboczo nazywana Fred.
W tej samej wypowiedzi dodał, że jedynym sposobem na utrzymanie wysokiej pozycji w wynikach wyszukiwania jest tworzenie wartościowych i często cytowanych treści.
I że to takie cytowania dają najwięcej jeśli chodzi o pozycję, a wahania w zasięgu zawsze się zdarzają i są oznaką ciągłej pracy nad doskonaleniem wyszukiwarki.
Czyli „Fred” pojawia się mniej więcej dwa-trzy razy dziennie, bo tak często pojawiają się aktualizacje silnika wyszukiwania ;).
Tak w dużym skrócie można powiedzieć, że ten popularny mit ma w sobie ziarno prawdy. Bo skoro jakieś strony lądują niżej w wynikach wyszukiwania, to ich właściciele rzadko skupiają się na tym dlaczego.
Efektem Quality Updates algorytmu Google’a jest spadek pozycji – tak, to prawda. Jednak nie jest prawdą, że jest to efekt jakiejś kary. Powód jest inny, chociaż efekt pozostaje taki sam.
Jak mówi Fili Wiese: Quality Updates powodują coś innego – podwyższają pozycję wartościowych stron. Algorytm bada strony i te, które mają do zaoferowania coś fajnego – idą do góry. Te, które maja słabsze treści lub działają gorzej – lądują niżej.
Jak widzisz – efekt jest ten sam, ale powody spadku (lub wzrostu) zupełnie inne. Różnica subtelna, ale kluczowa, jeśli zależy Ci na tym, żeby odzyskać utraconą pozycję w SERP-ach.
Niektórzy specjaliści SEO mówią, że kanoniczny link zawsze jest wybierany przez roboty Google’a. Niestety – tak nie jest, nawet jeśli samodzielnie wybierzesz konkretną wersję strony jako główną.
Algorytm Google’a może wyświetlać też inne wersje strony – niekanoniczne. Wszystko zależy od tego, która wersja strony odpowiada lepiej zapytaniu. Na przykład – jest szybsza lub ma lepiej uporządkowaną treść.
Te detale są ważne dla algorytmu, więc czasem w SERP-ach zobaczysz wersje strony do druku (zdarza mi się to często, gdy szukam artykułów naukowych).
Czyli nawet jeśli wybierzesz którąś z wersji strony jako kanoniczną, to Google może ją uznać za gorszą i wybrać inną niż Ty.
Jeśli chcesz dowiedzieć się które strony niekanoniczne są przyjaźniejsze wyszukiwarkom, sprawdź w Google Search Console. Znajdziesz je w wykluczonych adresach – to adresy oznaczone jako „Wyszukiwarka Google wybrała inną stronę kanoniczną niż użytkownik”. Możesz się zdziwić ;).
Jeśli chcesz, żeby strona kanoniczna była tą, którą pokazuje Google, to musisz przyłożyć się do jej optymalizacji. Innymi słowy: zrobić dobre SEO. Dzięki temu roboty będą wiedziały, że taka strona jest kanoniczna, a przy okazji – warto ją wyświetlać.
Jak widzisz – jest tych mitów kilka ;). Wiele z nich brzmi skomplikowanie, a do tego wiąże się z nimi spadek konkretnej strony w SERP-ach. Jednak powód takiej zmiany jest o wiele mniej skomplikowany. Mam nadzieję, że pomogłem Ci dowiedzieć się więcej o tym, które twierdzenia dotyczące SEO, fraz kluczowych, jakości treści i contentu są po prostu mitami :).
Nie oszukujmy się: mitów o SEO jest o wiele więcej. Wybrałem tylko te, które najczęściej wprowadzają w błąd. Dodałbym od siebie jeszcze to, że „strony zrobionej w kreatorze stron nie da się wypozycjonować” to kolejny mit o SEO. Ale obaliliśmy go naszą stroną internetową - wyniki organiczne mogą robić wrażenie ;).
Kreator stron www WebWave umożliwia tworzenie stron www z pełną swobodą. Strony internetowe możesz tworzyć zaczynając od czystej karty lub wykorzystując szablony www. Strona www bez kodowania? To łatwe - zacznij już teraz.
contact@webwavecms.com
+48 731 395 898
Porozmawiaj z nami na czacie
Od godziny 08:00 do 24:00
Ta strona została stworzona w kreatorze WebWave.
Znajdziesz nas na:
Kreator WebWave.
Oferta.