Strona przygotowana pod SEO – kompletny przewodnik dla webmasterów

Co znajdziesz w tym artykule?

Jeżeli tworzysz strony dla klientów, to wiesz jedno: prędzej czy później większość z nich trafi do agencji SEO. I wtedy bardzo często zaczyna się klasyczny scenariusz:

  • „Strona jest ładna, ale nieprzygotowana do pozycjonowania”.
  • „Tu trzeba poprawić strukturę”.
  • „To trzeba przerobić, bo Google tego nie zindeksuje”.
  • „Musimy przebudować menu / URL / nagłówki / obrazki”.

A Ty – mimo że wykonałeś swoją pracę dobrze – nagle stajesz się tym, do którego wracają pretensje. Nie dlatego, że strona została wykonana źle. Dlatego, że nie została wykonana SEO-ready.

To nie znaczy, że masz być specjalistą SEO. To znaczy, że:

Strona musi spełniać wymagania techniczne, dzięki którym SEO-wiec może później pracować bez przebudowy fundamentów.

Ten przewodnik ma pomóc Ci zrobić dokładnie to: oddawać strony, które po trafieniu do agencji SEO nie generują nerwów, poprawek i niepotrzebnego zamieszania.

Zobaczmy więc, co naprawdę leży po Twojej stronie, co możesz zrobić dodatkowo, a co już nie jest Twoją rolą.

Dlaczego warto projektować strony „SEO-ready”?

Najładniejsza strona może kryć pod spodem problemy, które wyjdą dopiero podczas audytu SEO. I to właśnie wtedy klient wraca do webmastera z pytaniem:

„Dlaczego tego nikt wcześniej nie zrobił?”

To nie jest złośliwość, to brak świadomości technologicznej po stronie klienta. Dlatego warto, żebyś jako twórca stron miał jasność, czego wymaga Google i czego będzie oczekiwać agencja SEO.

Strona SEO-ready daje Ci trzy rzeczy:

1. Mniej poprawek po wdrożeniu

Zamiast przerabiać URL-e, poprawiać strukturę nagłówków czy ratować wydajność po fakcie – robisz to od razu.
Efekt?
SEO-wiec zaczyna pracę od optymalizacji, a nie od gaszenia pożarów. Klient usłyszy, że jego strona jest świetnie przygotowana i będzie chętnie polecał Cię dalej,

2. Mniej niezręcznych rozmów z klientem

Najgorsze są sytuacje, kiedy stronę trzeba przebudować drugi raz, bo SEO wymaga rzeczy, o których klient nie wiedział, a Ty nie miałeś w budżecie.

Gdy strona jest SEO-ready, Ty masz czyste ręce, a klient wie, czego się spodziewać.

3. Lepszą reputację w branży

SEO-wiec, który widzi dobrą strukturę, logiczne URL-e, responsywność, prawidłowy HTML i szybki serwer – od razu rozpoznaje, że pracował tam ktoś, kto zna się na rzeczy.

To działa. Tak buduje się zaufanie między webmasterami a agencjami.

🔹Co jest rolą webmastera, a co nie? Jasny podział


Dzięki temu unikniesz nieporozumień, a klient będzie wiedział, za co dokładnie odpowiadasz.

Co webmaster MUSI zrobić (podstawy SEO-ready)

To rzeczy, które zawsze leżą po Twojej stronie. Jeśli ich zabraknie, SEO-wiec zablokuje prace albo każe przerabiać stronę od nowa.

Webmaster musi zadbać o:

✓ Architekturę strony

  • logiczne menu
  • czytelna struktura kategorii
  • sensowne rozmieszczenie podstron
  • brak „osieroconych” stron

✓ Struktura URL

  • krótkie, czytelne adresy
  • bez polskich znaków
  • bez przekombinowanych parametrów
  • konsekwentny format (np. z/bez ukośnika na końcu)

✓ Semantyczny HTML

  • jeden <h1>
  • poprawne <h2>/<h3>
  • znaczniki <section>, <article>, <nav>
  • uzupełnione alt przy obrazach

✓ Wydajność i Core Web Vitals

  • szybki serwer
  • kompresja obrazów
  • lazy loading
  • minimalizacja JS/CSS
  • brak blokujących skryptów
  • stabilny layout (CLS)

✓ Crawlability i indeksacja

  • poprawny robots.txt
  • sitemap.xml
  • canonical
  • brak duplikatów (http/https, www/non-www)
  • brak błędów 404 i 500 po wdrożeniu

✓ Responsywność

Google ocenia stronę jak na telefonie — to jest absolutna podstawa.

✓ Bezpieczeństwo

  • SSL
  • przekierowanie 301 do wersji https
  • aktualne komponenty (szczególnie w CMS)

Co webmaster MOŻE zrobić (miły bonus)

Jeśli to wchodzi w zakres projektu, świetnie. Jeśli nie – nie jest to podstawa.

  • wstępne wdrożenie schema (breadcrumbs, article)
  • przygotowanie szablonów treści pod SEO-wca
  • optymalizacja obrazów pod WebP/AVIF
  • dorzucenie linkowania wewnętrznego w kluczowych miejscach
  • poprawa dostępności (a11y)

Co NIE jest rolą webmastera (i nie musisz tego robić)

To często nie jest jasno komunikowane, a powinno być.

SEO-wiec jest od:

  • doboru słów kluczowych
  • planowania treści
  • tworzenia opisów kategorii, produktów i artykułów
  • analizy konkurencji
  • budowania profilu linków
  • optymalizacji pod SERP-y
  • rozbudowy strategii contentowej

Webmaster może to ułatwić, ale nie musi tego robić. Twoim zadaniem jest dać technicznie poprawne fundamenty, nie pozycjonować stronę.

Jasne — przerabiam poprzedni rozdział na wersję:

  • bardziej opisową,
  • z przykładami z realnej pracy webmasterów,
  • pokazującą konsekwencje,
  • w tonie spokojnym i praktycznym,
  • a listy pozostawiam tylko tam, gdzie są potrzebne.

🔹Fundament techniczny „SEO-ready” – co musi działać zanim strona ruszy


Większość problemów SEO nie zaczyna się od treści, nagłówków czy braku słów kluczowych. Zaczyna się dużo wcześniej – na poziomie serwera, kodu i konfiguracji, których klient nie widzi, a SEO-wiec nie naprawi.

Dlatego ten rozdział jest najważniejszy z całego przewodnika. Bo jeśli fundament jest niestabilny, to wszystko, co później zrobi agencja SEO, stanie się drogą pod górę.

Tu masz rzeczy, które muszą być zrobione po stronie webmastera, zanim strona trafi do klienta i dalej – do SEO-owca.

Hosting i serwer – SEO zaczyna się ZANIM powstanie pierwsza podstrona

To rzecz, która często zaskakuje klientów.
Strona może być piękna, nowoczesna i dopracowana, ale jeśli stoi na serwerze, który:

  • działa wolno,
  • gubi połączenia,
  • nie ma SSL,
  • nie obsługuje HTTP/2,
  • ma duże opóźnienia,

to Google zakłada jedno: strona nie jest wysokiej jakości.

SEO-wiec nie ma wpływu na to, gdzie stoi strona.
Ty – tak.

Dlatego te kilka elementów to absolutne minimum.

SSL + pełne przejście na HTTPS

Tu nie chodzi tylko o zieloną kłódkę. W praktyce największe problemy SEO, jakie wracają do webmasterów, wynikają nie z braku SSL, ale z:

Google sam potrafi wykryć „duplikaty” w tych wariantach, ale przekierowanie 301 jest obowiązkowe, bo bez tego: część sygnałów rankingowych się rozprasza i trudniej o spójne indeksowanie.

Efekt?

Klient dostaje raport od SEO-owca z informacją: „Strona ma duplikaty. Wymaga poprawek od programisty”. I wraca do Ciebie.

Tymczasem to można zamknąć jednym przekierowaniem.

Szybkość odpowiedzi serwera (TTFB)

TTFB to czas, jakiego serwer potrzebuje, żeby w ogóle zacząć wysyłać stronę. Jeśli serwer „myśli” pół sekundy, to nawet najlepszy kod nie pomoże.

SEO-wiec może zdiagnozować wysoki TTFB, ale jego poprawa wymaga pracy programisty lub admina.

Często to wygląda tak: Strona testowana na komputerze działa „OK”, ale w narzędziach SEO widać: TTFB 800 ms.

Teoretycznie nie jest to czynnik rankingowy, ale dla Google to sygnał, że strona jest mało responsywna. Że jest „ciężka”, „stara” czy „niskiej jakości”.

I to, niestety, idzie na konto webmastera – nawet jeśli to wina serwera klienta.

HTTP/2 lub HTTP/3

To techniczny szczegół, ale bardzo prosty w praktyce:

Jeśli hosting tego nie obsługuje → strona ładuje zasoby wolniej.
Jeśli obsługuje → Googlebot widzi szybkie, nowoczesne serwowanie.

Webmaster nie musi nic konfigurować. Musi jedynie upewnić się, że warstwa serwerowa nie ciągnie projektu w dół.

Cache i kompresja – niewidoczne, ale kluczowe

Wiele stron działa „tak sobie”, bo brakuje podstaw:

  • kompresji gzip/brotli,
  • cache serwerowego,
  • nagłówków cache dla statycznych plików.

To są rzeczy, których klient nie rozumie, SEO-wiec nie dotknie, a Ty widzisz pierwsze.

Jeśli te elementy działają, strona ma naturalną przewagę techniczną i agencja SEO nie musi zgłaszać „pilnych zmian”.

Bezpieczeństwo — element, który Google ocenia równie surowo, jak UX

Strona, która często pada ofiarą ataków lub używa nieaktualnych komponentów, ma dwa problemy:

  • może wpaść na listy spamowe,
  • może zostać oznaczona przez Google jako potencjalnie niebezpieczna.

A jeśli dojdzie do infekcji -spada widoczność, a SEO praktycznie przestaje działać.Dlatego jako webmaster masz realny wpływ na spokój klienta, jeśli zadbasz o kilka prostych rzeczy.

Typowe problemy, które wracają do webmastera:

  • strona zaindeksowana z malware – Google oznacza jako niebezpieczną i może tymczasowo usunąć ją z wyników
  • nieaktualne wtyczki powodują błędy lub podatności
  • brak zabezpieczenia panelu admina
  • dziwne przekierowania spowodowane wstrzykniętym JS

SEO-wiec tego nie naprawi. To techniczna odpowiedzialność webmastera.

Dlatego:

  • wymuś HTTPS,
  • aktualizuj komponenty,
  • usuń domyślne konta,
  • zadbaj o poprawne uprawnienia plików,
  • używaj firewalli aplikacyjnych, jeśli to WordPress.

To nie są „dodatki”. To minimalny poziom bezpieczeństwa.

Wersja mobilna – Google ocenia stronę tak, jakby korzystał z niej użytkownik telefonu

Google używa mobilnego user-agenta do indeksowania, dlatego wersja mobilna decyduje o tym, co widzi algorytm.

Przykład z życia:

Strona wygląda świetnie na laptopie. Klient jest zachwycony.

Ale mobilnie:

  • treść jest mniejsza,
  • niektóre elementy są ukryte,
  • obrazy są za duże,
  • menu „wchodzi” na połowę ekranu.

Efekt?

SEO-owiec mówi: „Ta strona musi być poprawiona”. Klient mówi: „Ale przecież wygląda dobrze!”. I wraca do Ciebie.

Dlatego wersja mobilna to nie „fajny dodatek”. To punkt obowiązkowy.

Core Web Vitals – elementy, które Google traktuje jak test jakości strony

Tutaj również większość problemów powstaje nie przy treści, lecz na etapie kodu.

Agencja SEO może zrobić audyt, ale:

  • nie poprawi JS,
  • nie przerobi stylów,
  • nie zoptymalizuje grafiki,
  • nie ruszy slidera,
  • nie usunie ciężkich bibliotek.

To jest w całości Twoje podwórko. Poniżej trzy wskaźniki, które Google mierzy dla wszystkich stron, i na które masz wpływ.

  1. LCP – Largest Contentful Paint

To moment, kiedy największy element na stronie (np. zdjęcie w hero, główny nagłówek) stanie się widoczny.

Najczęstsze problemy:

  • zbyt duże zdjęcia hero,
  • slider zamiast statycznego obrazu,
  • wideo ładowane od razu,
  • heavy JS blokujący załadowanie treści.

Jeśli LCP jest zbyt wolny, SEO-wiec nie zrobi cudów. To jest problem techniczny  i wraca do Ciebie.

  1. CLS – Cumulative Layout Shift

„Skaczący” layout. Tu pojawiają się klasyczne błędy:

  • brak wymiarów obrazków,
  • ładowanie fontów bez font-display,
  • bannery i pop-upy powodujące przeskoki,
  • dynamiczne elementy bez zarezerwowanego miejsca.

To drobiazgi, ale Google widzi je jako sygnał niskiej jakości UX.

  1. INP – Interaction to Next Paint

Nowy wskaźnik, który zastępuje dawny FID. Mówi o tym, jak szybko strona reaguje na kliknięcia.

INP zabija:

  • za dużo JS,
  • duże biblioteki,
  • rozbudowane animacje,
  • niedopracowane buildery.

SEO-owiec tego nie dotknie. To Twój świat.

Checklista dla webmastera: Fundament SEO-ready

Przed przekazaniem strony sprawdź:

  • HTTPS działa i ma poprawne przekierowanie
  • istnieje tylko jedna wersja domeny
  • serwer ma szybki TTFB
  • działa HTTP/2 lub HTTP/3
  • aktywna kompresja (gzip/brotli)
  • skonfigurowany cache
  • aktualne wtyczki i motywy
  • zabezpieczony panel admina
  • w pełni responsywna mobilna wersja
  • dobre LCP, CLS, INP
  • zoptymalizowane obrazy
  • brak zbędnych skryptów JS

🔹Crawlability i indeksacja – najczęstsze błędy webmasterów, które później zabijają SEO


Jeżeli miałbym wskazać jeden obszar, w którym webmasterzy nieświadomie robią najwięcej szkód SEO, to byłby to właśnie ten: crawlability i indeksacja.

To dlatego, że:

  • klient tego nie widzi,
  • strona wygląda „w porządku”,
  • w przeglądarce wszystko działa,
  • problem ujawnia się dopiero po tygodniach, czasem miesiącach.

A kiedy SEO-wiec uruchamia audyt i widzi blokady, duplikaty albo bałagan w indeksie, pojawia się klasyczne pytanie:

„Dlaczego strona nie jest przygotowana pod SEO?”

Przyjrzyjmy się więc tym krytycznym elementom, o które musisz zadbać zanim strona trafi do klientów i agencji SEO.

Robots.txt – drobny plik, wielkie konsekwencje

robots.txt to jeden z najmniejszych plików na stronie, ale ma gigantyczne znaczenie:

  • może przypadkiem zablokować całą stronę przed indeksacją,
  • może zablokować ważne sekcje,
  • może przepuszczać rzeczy, które nie powinny być dostępne,
  • i często… zostaje nietknięty po migracji.

Najczęstszy, absolutny klasyk błędów:

W trakcie developmentu strona ma:

Disallow: /

Po wdrożeniu nikt tego nie usuwa.

Google grzecznie respektuje zakaz.
Po kilku dniach klient pisze:

„Naszej strony nie ma w Google. Dlaczego?!”

I zaczyna się rozwiązywanie zagadki.

Dlatego jedna z najważniejszych rzeczy, które musisz zrobić po wdrożeniu, to otworzyć robots.txt i upewnić się, że strona ma pozwolenie na indeksację.

To minuta pracy. A oszczędza godziny tłumaczeń.

Sitemap.xml – mapa, której potrzebuje Googlebot

Sitemap to nie jest obowiązek. Ale praktycznie każda większa witryna jej potrzebuje.

Dlaczego?

Bo sitemap pomaga Google:

  • szybciej znaleźć nowe podstrony,
  • lepiej zrozumieć strukturę serwisu,
  • wskazać ważne treści,
  • uniknąć błędów indeksacji.

SEO-wiec może ją zgłosić w Search Console, ale: jeśli CMS nie generuje jej poprawnie lub w ogóle jej nie ma – to Twoja część pracy.

Najczęstsze problemy:

  • sitemap generuje wersje robocze lub ukryte
  • sitemap ma linki do nieistniejących stron
  • sitemap zawiera URL-e z błędami 404
  • sitemap nie aktualizuje się automatycznie

Dla Google to sygnał: „strona nie jest uporządkowana”.

Canonical – mała etykieta „to jest właściwa strona”

Canonicale to coś, co działa dobrze, dopóki nie przestaje działać. A kiedy działa źle, psuje SEO w spektakularny sposób.

Wyobraź sobie:
Strona produktowa, artykuł blogowy, podstrona kategorii – wszystko wygląda dobrze, ale w kodzie każdej z tych stron canonical prowadzi… na stronę główną. Bo został wzięty z szablonu.

Google wtedy może pomyśleć: „O, to są kopie homepage. Ignorujemy.”

W efekcie podstrony mają mniejsze szanse na wypozycjonowanie.

Canonicale są jak podpis: pomagają Google ustalić, która wersja jest pierwotna.

Duplikaty domeny – cztery wersje tej samej strony

Google uważa każde z poniższych za osobną stronę:

Jeśli nie wymusisz jednej wersji, Google:

  • rozdziela budżet indeksowania na cztery strony,
  • indeksuje treści losowo,
  • uważa część podstron za duplikaty,
  • ignoruje część URL-i.

To dokładnie ten problem, przez który klient słyszy: „Trzeba zrobić audyt, żeby to uporządkować”.

W praktyce – wystarczy jedno prawidłowe przekierowanie 301. To jest odpowiedzialność webmastera.

Strony osierocone – istnieją, ale Google ich nie znajdzie

„Osierocona” strona to taka, do której nie prowadzi żaden link wewnętrzny. Są na serwerze, mają poprawny URL… ale Google ich nie zobaczy.

Zdarza się to najczęściej:

  • w sklepach z rozbudowaną strukturą,
  • w blogach z paginacją,
  • przy ręcznym tworzeniu podstron, które nie trafiły do menu,
  • w systemach, gdzie klient dodaje treści, ale nie linkuje ich nigdzie.

Dla SEO to:

  • niewidoczne treści,
  • straty w budżecie indeksowania,
  • chaos w strukturze.

Dla Ciebie – jeden z najbardziej typowych „błędów webmastera”, który wraca w formie uwagi od agencji.

Błędy 404 i 500 po wdrożeniu — cichy zabójca SEO

To nie są tylko „zepsute linki”.

Co widzi Google:

  • strona nie działa → niska jakość
  • użytkownicy nie dostają treści → słaby UX
  • część podstron znika → nie ma co rankować

Co słyszy klient: „Pozycje spadły po wdrożeniu, coś jest nie tak.”

SEO-wiec robi crawling i widzi listę błędów. To trafia wraca do Ciebie, bo:

  • przeniosłeś stronę,
  • zmieniłeś foldery,
  • nowe URL-e nie mają przekierowań,
  • część linków prowadzi do starych lokalizacji.

To jeden z najczęstszych powodów, dla których klient wraca z pretensjami.

Problemy z JavaScriptem – Google nie zawsze widzi to, co użytkownik

Wiele nowoczesnych motywów i builderów bazuje na intensywnym użyciu JS:

  • animacje,
  • slidery,
  • lazy-load,
  • dynamiczne generowanie treści.

Google renderuje JS, ale z opóźnieniem i nie zawsze poprawnie przy builderach lub źle załadowanych komponentach. I efekt bywa taki, że:

  • użytkownik widzi treść,
  • Google widzi… pustą stronę.

To problem numer 1 przy stronach opartych na JS-heavy builderach.

Najczęstsze pułapki:

  • treść ładuje się dopiero po interakcji JS
  • dynamiczne sekcje bez SSR
  • niedołączone moduły JS powodują błędy w konsoli
  • blokady CORS przy wywołaniach zewnętrznych

SEO-wiec może to zdiagnozować, ale nie naprawi bez Ciebie.

Checklista — crawlability i indeksacja

Przed oddaniem strony upewnij się, że:

  • robots.txt nie blokuje ważnych zasobów
  • sitemap.xml istnieje i ma aktualne linki
  • canonical jest poprawny i unikalny
  • wszystkie wersje domeny kierują na jedną
  • nie ma stron osieroconych
  • nie ma błędów 404 i 500
  • Google może renderować kluczowe treści
  • dynamiczne elementy są widoczne dla crawlbotów
  • linkowanie wewnętrzne jest spójne
  • brak duplikatów URL przez parametry i paginację

🔹Architektura i URL – jak stworzyć stronę, którą Google rozumie bez wysiłku

Wygląd strony może być dowolny. Technologie mogą być różne. Treści mogą się zmieniać. Ale jedna rzecz pozostaje niezmienna:

Google potrzebuje jasnej, logicznej struktury serwisu.

 Takiej, w której łatwo:

  • odnaleźć treści,
  • przejść od ogółu do szczegółu,
  • połączyć podstrony w sensowną całość.

To właśnie architektura i struktura adresów URL decydują o tym, czy SEO-wiec powie klientowi:

„Strona jest technicznie przygotowana – możemy działać”,

czy raczej:

„Musimy najpierw uporządkować całą strukturę”.

Co właściwie oznacza „logiczna architektura strony”?

W skrócie:

Użytkownik ma zrozumieć stronę od pierwszych sekund… a Google ma ją zrozumieć w pierwszym crawl’u.

W praktyce oznacza to:

  • jasne menu,
  • klarowną hierarchię,
  • przemyślane kategorie i podkategorie,
  • brak porozrzucanych podstron,
  • brak ukrytych sekcji.

Przykład z życia

Wyobraź sobie sklep online z elektroniką. Jeżeli architektura wygląda tak:

Strona główna → Produkty → Telefony → Samsung → Galaxy S23

Google jest w domu.

Ale jeżeli wygląda tak:

Strona główna → Produkty → Kategorie → Inne → Nowe → Telefony → S23

Boty zaczynają błądzić.

A kiedy algorytm nie potrafi określić hierarchii, spada:

  • crawl budget,
  • widoczność kategorii,
  • jakość indeksacji.

I SEO-wiec musi tym zarządzić… co w praktyce oznacza wracanie do Ciebie.

Zasada „3 kliknięć” — prosta, ale brutalnie skuteczna

Google nie poda oficjalnej reguły, ale praktyka jest bezlitosna: żadna ważna podstrona nie powinna być dalej niż 3 kliknięcia od strony głównej.

Dlaczego to jest ważne?

Bo:

  • przyśpiesza indeksację,
  • podnosi wartość podstron,
  • ułatwia użytkownikom nawigację,
  • zmniejsza prawdopodobieństwo orphan pages.

Typowy błąd

Budujesz podstronę ważną dla klienta (np. „Kursy online” lub „Oferta SEO”), ale trafia tam tylko jeden link z footer’a.

Klient uważa, że strona istnieje. Google uważa, że nie.

Breadcrumbs – mały element, ogromna pomoc dla SEO

Breadcrumbs to ścieżka okruszków, np.:

Strona główna → Blog → SEO → Jak przygotować stronę pod pozycjonowanie

I chociaż to wygląda niewinnie, dla Google to:

  • sygnał struktury,
  • dodatkowe linkowanie wewnętrzne,
  • poprawa indeksacji,
  • lepsza nawigacja mobilna.

Breadcrumbs bardzo ułatwiają zrozumienie struktury i poprawiają nawigację — większość SEO-wców je rekomenduje

Jeśli są – masz spokój.

Struktura URL – Twoja najważniejsza decyzja przy projekcie

To jedna z tych rzeczy, których klient nie widzi, ale SEO-wiec ocenia jako pierwszą.

Dobry URL jest jak dobry adres. Zły URL jest jak labirynt.

Jak powinien wyglądać przyjazny URL?

✔ krótki
/oferta jest lepsze niż /nasza-wyjątkowa-oferta-na-2025-roku

✔ bez polskich znaków
(zgodnie z zasadą: maksymalnie prosto dla botów)

✔ bez dziwnych parametrów
?id=45&ver=31 — to dla Google bałagan

✔ opisowy, ale nie przesadzony
/kurs/seo-podstawy zamiast /kurs-seo-podstawy-nauczysz-sie-tego-i-tego

✔ stabilny w czasie
nie może zmieniać się po każdym liftingu strony

✔ wersja z i bez końcowego ukośnika — jedna, konsystentna wersja

Typowe błędy, które później wracają:

  • URL-e generowane automatycznie przez builder (długie, skomplikowane)
  • URL-e kategorii typu /kategoria-123123123/
  • zmiana URL bez przekierowania 301
  • brak konsekwencji (raz kategoria/, raz category/)
  • podstrony typu /strona-glowna/ zamiast po prostu /

Każdy z tych błędów kończy się uwagą od SEO-wca.

Unikanie duplikacji stron – cichy zabójca SEO

Duplikaty to jeden z największych problemów, jaki może mieć strona.

Najczęstsze źródła duplikatów:

  • /category/ i /kategoria/ istnieją równolegle
  • /blog/ i /aktualnosci/ mają tę samą treść
  • filtry w e-commerce tworzą setki adresów URL, które nie mają canonicali
  • ten sam artykuł pod dwoma adresami
  • parametry URL pochodzące z reklam (np. ?utm_source=…)

Klient tego nie widzi. SEO-wiec widzi to od razu — i wraca do Ciebie.

Co powinno być widoczne dla Google, a co nie?

Kluczowe zasoby, które muszą być dostępne:

  • treści,
  • obrazy,
  • arkusze CSS,
  • JS potrzebny do renderowania treści,
  • strony kluczowe dla oferty.

Natomiast elementy, które powinny być wyłączone:

  • strony systemowe (koszyk, panel użytkownika),
  • zaplecze CMS,
  • podstrony robocze,
  • wyniki wyszukiwania wewnętrznego,
  • staging i wersje testowe.

To często wymaga przygotowania prostych reguł w robots.txt i odpowiednich meta tagów.

Checklista – architektura i URL

Przed przekazaniem projektu upewnij się, że:

  • struktura jest logiczna i płytka (maks 3 kliknięcia)
  • menu odzwierciedla strukturę treści
  • breadcrumbs działają poprawnie
  • każdy URL jest krótki i spójny
  • brak polskich znaków i dziwnych parametrów
  • tylko jedna wersja kategorii/strony jest indeksowana
  • canonical jest ustawiony tam, gdzie potrzeba
  • brak duplikatów generowanych przez filtrację
  • URL-e nie zmieniają się przy każdej edycji

🔹Semantyczny HTML i struktura treści – fundament, który decyduje, czy Google „widzi” stronę tak jak użytkownik


Jeśli architektura jest szkieletem strony, to semantyka HTML jest jej językiem. To właśnie HTML mówi Google:

  • co jest najważniejszym nagłówkiem,
  • która część to opis, a która nagłówek sekcji,
  • gdzie znajduje się treść właściwa,
  • co jest nawigacją,
  • jaką rolę pełnią obrazy.

Problem w tym, że wiele nowoczesnych motywów i builderów traktuje HTML jak efekt uboczny. To, co użytkownik widzi jako „ładny układ”, wewnątrz bywa:

  • przeładowane divami,
  • pozbawione nagłówków,
  • chaotyczne,
  • pozbawione struktury logicznej,
  • trudne do zinterpretowania dla Google.

Efekt?

SEO-wiec otwiera audyt i widzi: „Strona jest ładna, ale Google jej nie rozumie”.

A klient wraca do Ciebie. A tego chcemy uniknąć.

Jeden nagłówek H1 – nie opcja, tylko zasada

Wielu webmasterów traktuje nagłówki jako element wizualny. SEO traktuje je jako fundament semantyki.

Dlatego każda podstrona MUSI mieć dokładnie jeden nagłówek H1.

To powinno być:

  • tytuł usługi,
  • tytuł artykułu,
  • nazwa kategorii,
  • nazwa produktu.

Częsty błąd:

  • tytuł wizualny jest <div class=”heading”>,
  • a nagłówki H2 robią za dekoracje,
  • albo builder generuje 3x H1, bo sekcje nagłówkowe mają własne style.

Klient tego nie widzi. Google widzi chaos.

Jeśli H1 jest ustawiony źle, SEO-wiec zgłosi to jako błąd techniczny.

Logiczna hierarchia H2, H3… – jak spis treści, który czyta Google

Najprościej o tym myśleć tak:

  • H1 = tytuł książki,
  • H2 = rozdziały,
  • H3 = podrozdziały,
  • H4–H6 = szczegóły (używane rzadziej).

Jeżeli struktura wygląda tak:

H1
→ H2
→ H2
→ H3
→ H3

To Google rozumie kolejność treści.

Jeżeli wygląda tak:

H1
→ H3
→ H5
→ H2

to Google nie rozumie niczego.

I absolutnie nie chodzi o wygląd – chodzi o strukturę kodu.

HTML, który mówi językiem Google: <article>, <section>, <nav>, <aside>

Wielu webmasterów tego nie używa, bo buildery tego nie wymuszają.

A szkoda.

Semantyczne znaczniki:

  • <article> – główna treść
  • <section> – sekcje logiczne
  • <nav> – nawigacja
  • <aside> – boczne treści
  • <header>, <footer> – części szablonu
  • <main> – główna zawartość strony

Sprawiają, że Google rozumie, co jest czym.

Jeśli cała strona to jedna wielka kolekcja <div>:

  • Google nie wie dokładnie, gdzie jest treść,
  • nie wie, co jest kluczowe,
  • nie odróżnia nawigacji od contentu.

To nie zatrzyma indeksacji, ale obniży jakość interpretacji strony, co odbija się na SEO.

Alternatywny tekst dla obrazów – nie tylko dla niedowidzących

alt=”” to nie jest fanaberia.

To:

  • sposób, aby Google „zrozumiało”, co jest na obrazie,
  • wsparcie dla dostępności (WCAG),
  • podstawa SEO dla grafik.

Najczęstszy błąd: Każdy obrazek ma alt „image.png” albo – gorzej – alt jest pusty. SEO-wiec wtedy pisze: „Brakuje altów. Prosimy poprawić po stronie programisty.” A klient myśli: „Dlaczego tego nie było od początku?”

Czysty kod a SEO – mniej „divów”, mniej problemów

HTML nie musi być piękny — musi być czytelny:

  • dla Google,
  • dla crawlbotów,
  • dla przyszłych aktualizacji,
  • dla SEO-wców, którzy z Tobą współpracują.

Zbyt skomplikowane drzewo DOM:

  • spowalnia ładowanie,
  • obniża INP,
  • utrudnia analizę,
  • zwiększa ryzyko, że Google „zgubi” część treści.

W builderach typu Elementor / Divi często jest tak:

  • jeden nagłówek = 6 warstw divów
  • jedna sekcja = 12 wrapperów

Póki wygląda dobrze – OK. Ale SEO patrzy w kod.

Jeśli kod jest trudny do interpretacji, SEO-wiec to odnotuje.

Unikanie ukrytych treści – Google tego nie lubi

Częsty problem:

  • treść pod zakładką,
  • treść w modalach,
  • treść generowana via JS dopiero po kliknięciu.

Jeżeli ukryte części zawierają ważne fragmenty dla SEO, Google:

  • może nie uznać ich za główną treść,
  • potraktować je jako mniej ważne,
  • zignorować niektóre fragmenty.

To nie znaczy, że akordeony są złe.
Są OK, jeśli treść jest jednakowa w wersji mobilnej i desktopowej, a elementy są wczytywane normalnie — nie „dowiązywane” skryptem.

Checklista – semantyczny HTML dla webmasterów

  • Każda podstrona ma jeden, unikalny H1
  • Nagłówki H2 i H3 tworzą logiczną strukturę
  • Cała treść główna jest w <main>
  • Artykuły są w <article>
  • Sekcje mają <section>
  • Menu jest w <nav>
  • Obrazy mają opisowe alt’y
  • Brak zbędnych warstw <div>
  • Kluczowa treść nie jest ukryta za JS

🔹Szablony treści — jak przygotować stronę, aby SEO-wiec mógł pracować bez przeróbek


Dla SEO praca zaczyna się tam, gdzie kończy się budowa strony.

SEO-wiec potrzebuje możliwości:

  • edycji meta danych,
  • tworzenia treści,
  • dodawania nagłówków,
  • linkowania wewnętrznego,
  • rozbudowywania kategorii,
  • dodawania grafik,
  • aktualizacji opisów.

Jeśli szablon strony mu to uniemożliwia — cała praca przerzuca się z powrotem na Ciebie.

Dlatego ten rozdział jest o tym, co MUSISZ przewidzieć przy budowie, żeby pozycjonowanie mogło działać „na czysto”, bez burzenia fundamentów.

SEO-wiec nie może pracować na tym, czego nie widzi — daj mu dostęp do wszystkiego, co istotne

Największy problem przy źle przygotowanych szablonach polega na tym, że część kluczowych elementów znajduje się:

  • w kodzie,
  • w builderze,
  • w twardo zaszytych blokach,
  • w plikach PHP,
  • w modułach, których klient nie może edytować.

SEO-wiec może zgłosić potrzebę zmiany treści – ale jeśli treść jest „zabetonowana” w szablonie, to wszystko wraca jako zadanie dla webmastera.

Dlatego warto zrobić to tak, żeby:

👉 SEO-wiec mógł samodzielnie edytować treści w miejscach, które mają znaczenie dla pozycjonowania.

Szablon pod SEO: które pola MUSZĄ być edytowalne?

To jest absolutna podstawa, którą musisz zapewnić.

✔ Pole na Title (meta title) -Najważniejszy tag dla SEO.  Każda podstrona musi mieć możliwość ustawienia własnego title.

✔ Pole na Meta Description- SEO-wiec je optymalizuje. Nie może być generowane automatycznie.

✔ Edytowalny nagłówek H1 – Żadnych zaszytych na stałe wartości z szablonu typu: „Oferta”. SEO-wiec musi móc zmienić to pod frazy kluczowe.

✔ Miejsce na unikalną treść podstrony (opis kategorii, opis usługi) – Częsty błąd:
kategorie w sklepach są puste, bo szablon nie przewiduje opisu.

SEO-wiec później powie: „Proszę dodać opis kategorii o długości 1500 znaków.” A klient odpowie: „Gdzie?” I wraca do Ciebie.

✔ Możliwość dodania nagłówków H2, H3 w treści- Treści SEO to nie tylko akapity. Muszą mieć strukturę.

✔ Pole na opis alternatywny obrazów (alt)

✔ Możliwość dodania linków wewnętrznych- SEO-wiec tego potrzebuje, żeby budować strukturę tematyczną.

Co z zaawansowanymi funkcjami SEO – czy musisz to wdrażać?

Są elementy, które możesz dodać, jeśli projekt jest większy.
Nie są obowiązkowe, ale robią ogromną różnicę.

Możesz wdrożyć (mile widziane):

  • breadcrumbs z danymi schema,
  • pola na dane strukturalne (np. FAQ, Article),
  • oddzielne pola na opis kategorii i meta dane w e-commerce,
  • docelową ścieżkę URL dla produktów/kategorii,
  • moduł do edycji kanonicznych adresów (w WordPressie — Yoast/RankMath to załatwia),
  • pole na „krótki opis produktu” + „długi opis”.

Nie musisz wdrażać (to rola SEO-wca):

  • contentu pod konkretne frazy,
  • strategii klastrów tematycznych,
  • zaawansowanych schematów (Recipe, JobPosting, Event),
  • analizy słów kluczowych,
  • planowania treści.

Twoja praca to udostępnić pola, nie wypełniać ich według strategii SEO.

Strona blogowa – tu jest najwięcej problemów, jeśli szablon jest źle zrobiony

SEO-wiec musi mieć możliwość:

  • edycji H1,
  • dodawania H2/H3,
  • dodawania linków,
  • dodawania grafik z alt,
  • zarządzania kategoriami,
  • zarządzania tagami,
  • publikowania dłuższych treści.

Jeżeli szablon bloga jest:

  • zbyt sztywny,
  • ma ograniczoną liczbę bloków,
  • nie pozwala na odpowiednią strukturę,

to SEO-wiec tego nie obejdzie – wszystko wraca do Ciebie.

Kategorie i produkty — szczególnie w sklepach

W e-commerce SEO opiera się w dużej mierze na:

  • opisach kategorii,
  • opisach produktów,
  • strukturze linkowania.

Dlatego musisz przewidzieć:

✔ pole na długi opis kategorii (nawet jeśli klient na start nie chce treści — SEO-wiec to będzie chciał)

✔ możliwość wstawienia treści nad produktami i pod produktami

✔ pole na meta dane kategorii

✔ możliwość edycji kolejności wyświetlania produktów (wspiera UX i SEO)

✔ niezależne URL-e dla kategorii i produktów (z unikaniem duplikatów)

Dostępność (a11y) to też SEO — i warto o tym pamiętać

SEO-wiec może Ci o tym nie powiedzieć, ale Google od lat patrzy na:

  • poprawność aria-labels,
  • strukturę nagłówków,
  • kontrasty,
  • dostępność na klawiaturze.

To wpływa na ocenę jakości strony.

Nie musisz robić pełnej zgodności WCAG.
Ale warto:

  • oznaczyć nawigację,
  • przypisać role do elementów,
  • unikać treści ukrytej dla screen readerów.

To jest dodatkowy plus techniczny.

Checklista – szablony przygotowane pod SEO

Przed oddaniem projektu upewnij się, że:

  • Title i meta description są edytowalne
  • H1 jest edytowalny
  • szablon podstrony zawiera miejsce na treść główną
  • można dodawać nagłówki H2/H3 w edytorze
  • można dodać linki wewnętrzne
  • obrazy mają pole na ALT
  • blog umożliwia tworzenie długich treści
  • kategorie mają pole na opis
  • produkty mają unikalne pola opisowe
  • breadcrumbs mogą być wdrożone

🔹Co robi agencja SEO i dlaczego to NIE jest rola webmastera


Jeżeli kiedykolwiek klient wrócił do Ciebie z listą uwag od agencji SEO typu:

  • „dodaj więcej treści pod słowa kluczowe”,
  • „trzeba zoptymalizować opisy produktów”,
  • „blog wymaga merytorycznych artykułów”,
  • „potrzebujemy linkbuilding”,
  • „zrób analizę słów kluczowych”,

to wiesz, że granice odpowiedzialności między SEO a webdevem są często… rozmyte.

Ten rozdział jest po to, żeby postawić je klarownie i spokojnie.

Rola webmastera kończy się na przygotowaniu technicznym

To, co robi webmaster:

  • buduje stronę,
  • dba o kod,
  • ustawia strukturę,
  • pilnuje wydajności,
  • wdraża szablony treści,
  • zapewnia poprawne indeksowanie,
  • konfiguruje hosting i środowisko,
  • eliminuje błędy techniczne.

Czyli: webmaster dostarcza fundament, na którym SEO może pracować.

Ale fundament nie jest strategią. Fundament nie jest contentem. Fundament nie jest marketingiem.

Czego nie powinieneś robić jako webmaster (i nie jest to brak kompetencji)

To bardzo ważny punkt.
Zbyt wielu webmasterów bierze sobie do serca rzeczy, które… nie są ich zadaniem.

Webmaster NIE odpowiada za:

1. Dobór słów kluczowych

To wymaga:

  • analizy konkurencji,
  • oceny intencji wyszukiwania,
  • pracy w narzędziach jak Ahrefs, Senuto, Semrush,
  • wiedzy marketingowej.

To jest czysta praca SEO.

2. Tworzenie strategii treści

SEO-wiec planuje:

  • jakie artykuły będą w klastrach tematycznych,
  • jakie podstrony trzeba dodać,
  • jak zbudować mapę treści pod intencje użytkowników.

Webmaster tego nie planuje ani nie powinien.

3. Pisanie opisów kategorii, produktów czy artykułów pod frazy

To nie jest praca techniczna. To praca:

  • copywriterów SEO,
  • content marketerów,
  • specjalistów.

Webmaster ma jedynie przygotować miejsce na te treści.

4. Linkbuilding

Czyli:

  • zdobywanie linków zewnętrznych,
  • analiza backlinków,
  • budowanie profilu linków.

To kompetencje, których webmaster nie musi mieć i klient nie może ich oczekiwać.

5. Stały monitoring SEO i reagowanie na spadki

SEO-wiec monitoruje:

  • Search Console,
  • widoczność,
  • CTR,
  • kanibalizację,
  • problemy z indeksacją.

Webmaster odpowiada tylko za naprawę rzeczy technicznych, które SEO-wiec wskaże — jeśli wynikają z kodu, a nie z treści.

6. Aktualizowanie treści zgodnie z trendami SEO

SEO jest procesem. Z czasem:

  • zmieniają się frazy,
  • pojawiają się nowe konkurencyjne treści,
  • Google wprowadza nowe wymagania.

Webmaster nie odpowiada za to, że strona spada w wynikach rok po wdrożeniu.
To rola agencji SEO – nie Twoja.

🔹Co agencja SEO robi, gdy strona jest „SEO-ready” – i co zdejmuje z Twoich barków?


Kiedy strona jest przygotowana technicznie, SEO-wiec może przejąć pałeczkę:

1. Audyt treści i dobór fraz

SEO-wiec:

  • analizuje rynek,
  • planuje strategię słów kluczowych,
  • wyznacza priorytety treści,
  • decyduje, które podstrony mają największy potencjał.

Ty nie musisz tego wiedzieć.

2. Dodawanie działów, klastrów, artykułów

Jeśli Twoje szablony są poprawne, SEO-wiec:

  • stworzy nowe artykuły,
  • rozbuduje blog,
  • doda treści do kategorii,
  • zoptymalizuje opisy usług.

I nie wraca do Ciebie, bo nie musi nic zmieniać w szablonie.

3. Optymalizacja meta danych, nagłówków, treści

SEO-wiec:

  • ustawi meta title,
  • ustawi meta description,
  • przebuduje nagłówki,
  • zoptymalizuje układ treści.

To właśnie dlatego szablony muszą być elastyczne i nie blokować zmian.

4. Zarządzanie linkowaniem wewnętrznym

SEO-wiec dba o:

  • linki między treściami,
  • sugestie nowych powiązań,
  • redukowanie orphan pages.

Ty tylko musisz umożliwić dodawanie linków.

5. Linkbuilding i działania poza stroną (off-site)

SEO-wiec:

  • zdobywa linki,
  • analizuje profil linków,
  • planuje taktyki off-site.

To marketing — nie budowa strony.

6. Analiza wyników i korekta strategii

SEO to proces:

  • reagowanie na spadki,
  • rozbudowa treści,
  • analiza intencji wyszukiwania,
  • testowanie nowych rozwiązań.

Webmaster nie uczestniczy w strategii. Dba tylko o fundament.

🔹Dlaczego jasny podział ról jest tak ważny?


1. Chroni Ciebie przed pretensjami klienta

Klient nie może wrócić po dwóch miesiącach i powiedzieć: „Nie ma efektów SEO — proszę to poprawić”. Jeśli strona była przygotowana poprawnie, nie masz za co odpowiadać.

2. Chroni SEO-wca przed pracą za Ciebie

SEO-wiec nie musi walczyć ze złym HTML, brakiem breadcrumbs czy fatalnymi URL-ami.

3. Chroni projekt przed niepotrzebnymi kosztami

Najczęściej to wygląda tak:

  • klient płaci za stronę,
  • idzie do SEO,
  • SEO mówi „trzeba przebudować”,
  • klient płaci drugi raz,
  • jest niezadowolony.

Dobry podział ról rozwiązuje 90% takich sytuacji.

4. Ułatwia przyszłą współpracę

Strona przygotowana technicznie = SEO-wiec pracuje płynnie = klient widzi efekty. Ty już dawno jesteś w następnym projekcie i to jest najlepszy scenariusz.

Checklista — co NIE jest rolą webmastera (i warto to mówić klientom od razu)

  • nie dobierasz słów kluczowych
  • nie planujesz strategii SEO
  • nie piszesz treści pod frazy
  • nie wykonujesz linkbuildingu
  • nie analizujesz konkurencji SEO
  • nie monitorujesz widoczności
  • nie odpowiadasz za pozycje w Google
  • nie „utrzymujesz SEO”

Twoja rola kończy się tam, gdzie zaczyna się marketing i strategia.

🔹Checklista „SEO-ready”- techniczne minimum, zanim oddasz stronę klientowi


To jest rozdział, który warto trzymać zawsze pod ręką. Zebrałem tu wszystkie elementy, które muszą być na miejscu zanim strona pójdzie do klienta, a później trafi w ręce agencji SEO.

Ta lista nie jest „życzeniowa”. To absolutne minimum, które gwarantuje, że:

  • SEO-wiec nie wróci z reklamacją,
  • klient nie będzie musiał płacić drugi raz,
  • a Ty nie będziesz wracać do projektu po miesiącu.

Podzieliłem checklistę na kilka sekcji, żeby była bardziej czytelna.

Hosting i środowisko (warstwa serwera)

To musi być zrobione:

  • strona działa wyłącznie w wersji HTTPS
  • poprawne przekierowanie: http → https (301)
  • poprawne przekierowanie: www → non-www lub odwrotnie
  • serwer ma włączone HTTP/2 lub HTTP/3
  • TTFB jest na akceptowalnym poziomie (najlepiej < 300 ms)
  • włączona kompresja (gzip/brotli)
  • włączony cache serwerowy
  • brak mixed content (zasoby HTTP na stronie HTTPS)
  • certyfikat SSL działa na wszystkich subdomenach (jeśli wymagane)

Indeksacja i crawlability

Najważniejsze rzeczy do sprawdzenia:

  • robots.txt nie zawiera Disallow: /
  • robots.txt nie blokuje CSS/JS potrzebnych do renderowania
  • sitemap.xml istnieje i działa
  • sitemap.xml zawiera tylko działające URL-e
  • canonical ustawiony poprawnie dla każdej podstrony
  • wszystkie wersje domeny prowadzą do jednej
  • brak stron osieroconych
  • kluczowe podstrony mają min. 1 link wewnętrzny
  • brak duplikatów strony przez parametry (utm, filtracja, paginacja)
  • brak 404 i 500 po wdrożeniu

Architektura i URL

Przed oddaniem projektu upewnij się, że:

  • struktura ma logiczne poziomy (maksymalnie 3 kliknięcia do każdej ważnej podstrony)
  • nawigacja jest jasna i kompletna
  • breadcrumbs działają prawidłowo
  • URL-e są krótkie, czytelne, bez polskich znaków
  • adresy kategorii są spójne
  • nie ma dziwnych, technicznych adresów (np. /kategoria-123123/)
  • URL-e nie zmieniają się przy każdej edycji treści
  • tylko jedna wersja kategorii jest indeksowana
  • brak starej struktury URL pozostawionej po redesignie

Semantyczny HTML i treść

To jest fundament SEO — i Twoja odpowiedzialność techniczna:

  • każda podstrona ma dokładnie jeden H1
  • nagłówki H2/H3 są logiczne i nie pomijają poziomów
  • treść główna znajduje się w <main>
  • artykuły są w <article>
  • sekcje są w <section>
  • menu jest w <nav>
  • obrazy mają opisowe alt’y
  • brak nadmiernej liczby <div> (szczególnie przy builderach)
  • kluczowa treść nie jest ukryta za JS
  • brak „duplikatów treści” wynikających z szablonu

Wydajność i Core Web Vitals

Najczęstsze problemy SEO wynikają z kiepskiej wydajności. Sprawdź:

  • LCP ładuje się szybko (brak ogromnych grafik w hero)
  • CLS jest minimalny (layout nie skacze)
  • INP jest dobry (strona reaguje płynnie)
  • obrazy są zoptymalizowane (WebP/AVIF)
  • lazy loading działa
  • JS nie blokuje renderowania
  • nie ma ciężkich sliderów na każdej podstronie
  • nie ma nadmiarowych fontów
  • zewnętrzne skrypty są minimalne

Szablony pod SEO – czy SEO-wiec będzie mógł pracować bez Ciebie?

  • meta title można edytować
  • meta description można edytować
  • H1 można edytować
  • treść podstron można tworzyć w edytorze (bez ograniczeń)
  • kategorie mają pole na opis
  • wpisy blogowe mogą mieć nagłówki, listy, linki
  • obrazy można wzbogacić o alt-y
  • breadcrumbs są wdrożone lub gotowe do wdrożenia
  • nie ma „zabetonowanych” fragmentów treści w kodzie

Po wdrożeniu – szybki test kontrolny

To są 3 testy, które warto zrobić zanim wyślesz stronę klientowi.

  • test w Google PageSpeed (mobile + desktop)
  • test adresu w Search Console („Sprawdź URL”)
  • crawl strony w narzędziu typu Screaming Frog (choćby darmowym)

Jeśli te trzy testy przejdą bez większych błędów — projekt jest SEO-ready.

Najważniejsze pytanie przed oddaniem projektu

Gdy przejdziesz checklistę, zadaj sobie jedno proste pytanie:

Czy SEO-wiec będzie mógł pracować bez proszenia mnie o poprawki techniczne?

Jeśli odpowiedź brzmi „tak” → strona jest SEO-ready.
Jeśli „nie jestem pewien” → wróć do checklisty.

🔹Najczęstsze błędy webmasterów, które później wracają jako reklamacje 


Tutaj pokażę Ci kilka realnych sytuacji, jakie widzimy w codziennej pracy — takich, które generują najwięcej nieporozumień między klientem, SEO-owcem i webmasterem.

Każdy z tych przykładów możesz potraktować jako sygnał: „Uważaj na to, zanim strona pójdzie do klienta.”

Blokada w robots.txt – strona „zniknęła” z Google

Scenariusz: Strona była rozwijana na wersji testowej z Disallow: /. Po wdrożeniu nikt tego nie zdjął.

Efekt: Google nie widzi strony. Klient panikuje. SEO-owiec odsyła do Ciebie.

Jak tego uniknąć: Zawsze sprawdź robots.txt po wdrożeniu — minuta pracy, zero stresu.

Redesign bez przekierowań – spadek ruchu o 70%

Scenariusz: Zmieniona została struktura URL-i. Stare adresy przestały istnieć. Nie było mapy przekierowań 301.

Efekt: SEO „spada”, a klient słyszy, że „strona została źle wykonana”.

Jak tego uniknąć: Przy każdej zmianie struktury przygotuj listę przekierowań.

Zabetonowane treści – SEO nie ma gdzie optymalizować

Scenariusz: Nagłówki, opisy lub sekcje były wpisane „na stałe” w szablon. CMS nie pozwalał ich edytować.

Efekt: SEO-owiec nie może zmienić treści, więc klient wraca do Ciebie.

Jak tego uniknąć: Wszędzie, gdzie treść ma znaczenie dla SEO – umożliwiaj edycję.

Slider na pierwszym ekranie – pięknie, ale zabija prędkość

Scenariusz: Klient chciał „coś żywego na stronie”. Wstawiłeś slider i animacje.

Efekt: PageSpeed na mobile spada dramatycznie, SEO-owiec zgłasza problem z LCP i znowu trafia to do Ciebie.

Jak tego uniknąć: Jeżeli możesz – zamień slider na statyczny hero.

Treść ładowana dopiero po JS – Google może jej nie widzieć

Scenariusz: Builder generuje treść dopiero po wykonaniu skryptów. Na komputerze wszystko wygląda OK.

Efekt: Googlebot widzi pustą stronę. Agencja zgłasza „brak treści do indeksacji”.

Jak tego uniknąć: Kluczowa treść musi być w HTML po załadowaniu strony, nie „po kliknięciu”.

Brak opisów kategorii w sklepach – bo szablon ich nie przewidział

Scenariusz: Sklep działa, kategorie wyglądają ładnie, ale… nie ma gdzie dodać opisów.

Efekt: SEO-owiec nie ma jak rozbudować treści. Klient wraca: „Proszę dodać miejsce na opis”.

Jak tego uniknąć: Każda kategoria powinna mieć przygotowane pole na treść.

Zbyt głęboka architektura – Google gubi się w gąszczu podstron

Scenariusz: Kategoria w kategorii, jeszcze jedna pod nią… i tak robią się 4–5 poziomy.

Efekt: SEO-owiec mówi, że „to trzeba uprościć”, a klient pyta, dlaczego robota wraca do Ciebie.

Jak tego uniknąć: Maksymalnie 3 poziomy – to bezpieczna granica.

Kilka H1 na stronie – efekt uboczny builderów

Scenariusz: Motyw lub builder generuje H1 w kilku modułach.

Efekt: SEO-owiec widzi chaos semantyczny, klient słyszy „strona źle zbudowana”.

Jak tego uniknąć: Zawsze sprawdź źródło – H1 musi być jeden.

Duplikaty wersji strony = cztery różne adresy działają równolegle

Scenariusz: Domena działa pod: http, https, www, non-www.

Efekt: Google widzi duplikaty. SEO zatrzymuje się na starcie.

Jak tego uniknąć: Jedna wersja, reszta przekierowana 301.

Błędy 404 po przenosinach = „strona nie działa”, choć działa

Scenariusz: Po migracji część plików i linków przestała działać.

Efekt: SEO-owiec widzi błędy i daje listę poprawek.

Jak tego uniknąć: Po każdej migracji – szybki crawl strony i poprawa linków.

Co łączy wszystkie te sytuacje?

Nie chodzi o złe strony. Chodzi o drobiazgi, które:

  • klient zwykle ignoruje,
  • SEO-owiec wyłapuje,
  • a webmaster musi poprawić w drugiej rundzie.

Jeżeli te błędy wyeliminujesz zanim strona trafi do klienta, masz spokój.
I SEO-owiec ma spokój. I klient ma spokój.

🔹Podsumowanie – dobra strona „SEO-ready” to spokój dla Ciebie, klienta i agencji SEO


Na końcu wszystko sprowadza się do jednej rzeczy:

Twoją rolą jako webmastera nie jest pozycjonowanie strony.
Twoją rolą jest stworzenie fundamentu, na którym SEO może działać bez przeszkód.

Klient tego na początku nie widzi.
SEO-owiec zobaczy wszystko w ciągu 10 minut audytu.
Dlatego tak ważne jest, żeby:

  • strona była poprawnie zbudowana technicznie,
  • struktura była logiczna,
  • treści były możliwe do edycji,
  • nic nie blokowało indeksacji,
  • a szablony nie ograniczały pracy SEO.

Dzięki temu:

  • nie wracasz do projektu po miesiącu, żeby poprawiać techniczne drobiazgi,
  • nie tłumaczysz się z rzeczy, które nie były Twoją odpowiedzialnością,
  • klient nie płaci dwa razy, bo fundament był „niedomknięty”,
  • SEO-owiec może wejść i pracować od pierwszego dnia, bez burzenia tego, co już zrobiłeś.

I właśnie o to chodzi w podejściu „SEO-ready”.

Nie o to, żebyś był specjalistą SEO.
Nie o to, żebyś znał wszystkie algorytmy Google.
Nie o to, żebyś przewidział trendy na rok do przodu.

Tylko o to, żeby strona:

  • miała poprawny kod,
  • czytelną strukturę,
  • dobrą wydajność,
  • pełną dostępność treści,
  • brak blokad i pułapek technicznych.

Resztą zajmie się agencja SEO – z przyjemnością, jeśli zobaczy, że po Twojej stronie wszystko zostało przygotowane „na czysto”.

A jeśli masz wątpliwości podczas projektu…

Możesz zawsze zrobić jedną rzecz, która ratuje 90% problemów:

zastanowić się, czy Google będzie w stanie zrozumieć tę stronę równie łatwo, jak użytkownik.

Jeśli odpowiedź brzmi „tak” — projekt jest na właściwym kursie.