Twój e-mail
Zapisz się!
Zapisz się!
Udało się!
Podaj e-mail!

Blog

Tu dowiesz się, jak zrobić stronę internetową.

Chcesz być na bieżąco?

tworzenie stron www przyjaznych Google

Każdy kto kiedykolwiek zajmował się pozycjonowaniem stron wie, że jak Google informuje o  aktualizacji algorytmu, to trzeba się do tego dostosować jeszcze zanim zostanie ta nowość wprowadzona. W lipcu tego roku Gigant w Mountain View podzielił się informacją o zmianie systemu indeksowania stron.

Dowiedzieliśmy się tego z ich oficjalnego bloga - Googleblog. Jest to regularnie aktualizowana przez ich programistów strona, na której znajdziesz wszelkie istotne informacje, zanim jeszcze pojawią się na polskich serwisach i portalach, które obserwujesz.

Czy w związku z tym nadchodzi nowa rewolucja w pozycjonowaniu czy to tylko mała zmiana, która nie będzie miała dużego znaczenia?

 

Jakie nowości szykuje Google?

“W interesie utrzymania zdrowego ekosystemu i przygotowania się na potencjalne przyszłe wydania open source, wycofujemy cały kod, który obsługuje nieobsługiwane i niepublikowane reguły (takie jak noindex) 1 września 2019 roku.”

W wolnym tłumaczeniu oznacza to, że nie będzie już możliwości określenia wewnątrz pliku robots.txt, co powinno pojawić się w wyszukiwarce, a co nie.

Dawniej można było wykluczyć wybrane strony lub nawet pojedynczy elementy.

Jeżeli wydaje Ci się, że jest to zbyt pochopna decyzja ze strony Google… od kilku lat regularnie wspominali na swoim blogu o tym, aby nie polegać na pliku robots.txt w kwestii nieindeksowania stron.

Dlaczego niektóre podstrony warto usunąć z indeksu?

Istnieją specjalnie strony i katalogi, które zapełnione są poufną treścią. Raczej wolisz ją ukryć przed robotami, prawda? Czy też testowe strony serwisów z np. powieloną treścią.

Jeżeli prowadzisz sklep internetowy, to wówczas możesz posiadać wiele pustych stron, które są wynikiem wycofania danego produktu.

Niezależnie jakiego typu witrynę prowadzisz, istnieje spora szansa, że masz na niej również jakiś regulamin lub politykę prywatności. Treści tego typu nie muszą być widoczne dla każdego - w końcu są skierowane wyłącznie do użytkowników, którzy korzystają z Twoich usług.

 

Czym dokładnie jest plik robots.txt?

Jest to nic innego jak plik tekstowy umieszczany na serwerze, który odpowiada za komunikację z robotami indeksującymi. Taka wiadomość w butelce.

Przede wszystkim wykorzystywany był on do nadawania lub odbierania dostępu do plików w folderze strony internetowej - czyli indeksowania.

Dołącz do 170 tysięcy ludzi, którzy tworzą strony za darmo i  bez kodowania

Kreator stron internetowych WebWave umożliwia tworzenie stron www z pełną swobodą. Strony internetowe możesz tworzyć zaczynając od czystej karty lub wykorzystując szablony.

STWÓRZ SWOJĄ STRONĘ ZA DARMO 

Jakie są alternatywne metody dla wycofywanego robot.txt?

Oficjalny post na blogu Google wymienia pięć sposobów kontrolowania indeksowania:

  • Noindex w metatagach robotów - używanie tagu noindex oznacza, że wyszukiwarka ma możliwość zaindeksować daną stronę, jednak w żadnym przypadku nie otrzymała pozwolenia na pokazywanie jej w wynikach wyszukiwania.

  • 404 i 410 kodów statusu HTTP - Oba kody statusu oznaczają, że strona nie istnieje, co spowoduje usunięcie takich adresów URL z indeksu Google po ich zaindeksowaniu i przetworzeniu.

  • Ochrona podstrony hasłem - ukrycie strony i wymóg uprzedniego logowania zazwyczaj powoduje usunięcie z indeksowania

  • Disallow w plikach w robots.txt - wyszukiwarki mogą indeksować tylko te strony, o których wiedzą. Zablokowanie dostępu na stronę zazwyczaj oznacza, że jej zawartość nie będzie indeksowana. Podczas gdy wyszukiwarka może również indeksować adres URL na podstawie linków z innych stron. To jednak brak widoczności treści spowoduje, że takie strony będą znacznie mniej widoczne w przyszłości.

  • Search Console Usuń narzędzie URL - używając narzędzia Google możesz szybko i tymczasowo usunąć dany URL z indeksowania.

Czy w związku z tym nadchodzi nowa rewolucja w pozycjonowaniu czy to tylko mała zmiana, która nie będzie miała dużego znaczenia?

Bądź na bieżąco

Jeżeli chcesz być zawsze na bieżąco, pamiętaj o regularnym sprawdzaniu Googleblog, gdzie dowiesz się z pierwszej ręki każdej nowej informacji na temat indeksowania.

Jednak bez poprawnie stworzonej strony używanie plików robots.txt nie jest proste.

W WebWave zapewniamy bezproblemowy dostęp do tego elementu - oczywiście bez potrzeby kodowania go gdziekolwiek. Wystarczy, że skopiujesz potrzebne Ci treści do okna edycji zawartości robots.txt.

Dlatego, jeżeli zastanawiasz się gdzie założyć swoją stronę www - skończ poszukiwania, bo udało Ci się znaleźć najbardziej przyjazny dla użytkownika kreator stron www.

Koniecznie przeczytaj podobne artykuły:

 

Autor: Julia Mądraszewska

 

25 lipca 2019

Blog

Darmowe szkolenie z tworzenia stron internetowych 

WYPRÓBUJ ZA DARMO

Wypróbuj nasz kreator stron internetowych i uzyskaj dostęp do darmowego szkolenia. Po rejestracji wyślemy Ci e-maila z linkiem do zapisu na szkolenie on-line. Na godzinnym szkoleniu dowiesz się jak samodzielnie stworzyć swoją stronę internetową!

Google przestanie wspierać noindex w plikach robots.txt

 

ZACZNIJ TERAZ

PANEL WEBMASTERA

Logowanie

Kreator stron www WebWave umożliwia tworzenie stron www z pełną swobodą. Strony internetowe możesz tworzyć zaczynając od czystej karty lub wykorzystując szablony www. Strona www bez kodowania? To łatwe - zacznij już teraz.

Panel webmastera

KONTAKT

contact@webwavecms.com
+48 731 395 898

KREATOR

OFERTA

DLA KLIENTÓW

WEBWAVE

MATERIAŁY

Ta strona została stworzona w całości przy użyciu naszego kreatora stron www WebWave. Na tej stronie wykorzystujemy ciasteczka. Dowiedz się więcej.

PL

EN

POZNAJ NAS BLIŻEJ W SIECI

Zacznij Teraz

RO