NASZA OFERTA
co robimy ?
Od momentu założenia w 2004 roku, rozwija się bardzo dynamicznie. Dzięki ciągłemu rozszerzaniu świadczonych przez nas usług, stale powiększamy grupę zadowolonych klientów. To co przekonało naszych klientów to nasza elastyczność i uwzględnianie ich indywidualnych potrzeb.
PORTFOLIO
Nasze prace
Komenda zip w systemie Windows służy do tworzenia archiwów w formacie ZIP, które umożliwiają kompresję plików oraz folderów. Dzięki temu można zaoszczędzić miejsce na dysku oraz ułatwić przesyłanie danych. Format ZIP jest powszechnie stosowany w celu archiwizacji i dystrybucji plików.
zip [opcje] archiwum.zip plik1 plik2 ...
| Parametr | Opis |
|---|---|
| -r | Rekurencyjnie dodaje wszystkie pliki i foldery w podanym katalogu do archiwum. |
| -e | Tworzy zaszyfrowane archiwum, wymagające hasła do otwarcia. |
| -u | Dodaje tylko nowe pliki do istniejącego archiwum. |
| -d | Rozpakowuje archiwum ZIP do wskazanego katalogu. |
| -v | Wyświetla szczegółowe informacje o procesie kompresji. |
zip -r archiwum.zip folder_z_plikami
Powyższa komenda tworzy archiwum o nazwie archiwum.zip, które zawiera wszystkie pliki i podfoldery z katalogu folder_z_plikami. Użycie opcji -r pozwala na rekurencyjne dodawanie plików.
zip -e archiwum_zaszyfrowane.zip plik.txt
Ta komenda tworzy zaszyfrowane archiwum archiwum_zaszyfrowane.zip, które zawiera plik plik.txt. Użytkownik będzie musiał podać hasło, aby uzyskać dostęp do zawartości archiwum.
zip -u archiwum.zip nowy_plik.txt
Komenda ta dodaje tylko nowy plik nowy_plik.txt do istniejącego archiwum archiwum.zip, jeśli plik ten nie był wcześniej archiwizowany.
unzip archiwum.zip -d folder_docelowy
W tym przykładzie komenda unzip rozpakowuje zawartość archiwum archiwum.zip do katalogu folder_docelowy.
W dobie internetu i rosnącej ilości informacji, umiejętność skutecznego skanowania treści stała się kluczowa dla użytkowników. Pojęcie F-pattern odnosi się do sposobu, w jaki ludzie przyswajają tekst na stronach internetowych, a jego zrozumienie ma istotne znaczenie dla SEO i marketingu internetowego.
F-pattern to wzór, który opisuje, jak użytkownicy skanują treści na stronach internetowych. Badania wykazały, że większość osób, przeglądając stronę, najpierw patrzy na górną część ekranu, następnie przesuwa wzrok w lewo, co tworzy kształt litery „F”. Oznacza to, że najważniejsze informacje powinny być umieszczone w miejscach, gdzie wzrok użytkownika najczęściej się koncentruje. W kontekście SEO/SEM, zrozumienie tego wzoru pozwala na optymalizację układu treści, co zwiększa szanse na konwersję.
F-pattern ma kluczowe znaczenie dla wyników wyszukiwania i rankingu stron. Wyszukiwarki, takie jak Google, przywiązują dużą wagę do doświadczeń użytkowników. Strony, które są dobrze zorganizowane zgodnie z tym wzorem, zwiększają prawdopodobieństwo dłuższego czasu spędzonego przez użytkowników na stronie oraz niższego współczynnika odrzuceń. Dobre UX (User Experience) jest czynnikiem rankingowym, dlatego stosowanie F-pattern w projektowaniu treści może znacząco poprawić widoczność w wynikach wyszukiwania.
F-pattern to istotny koncept w projektowaniu treści internetowych. Zrozumienie, jak użytkownicy skanują strony, pozwala na skuteczniejsze ich projektowanie i optymalizację pod kątem SEO. Stosowanie tego wzoru w praktyce przyczynia się do lepszego UX i zwiększa szanse na osiągnięcie wysokich pozycji w wynikach wyszukiwania. Warto inwestować czas w optymalizację treści zgodnie z F-pattern, aby poprawić wyniki pozycjonowania i zwiększyć efektywność marketingu internetowego.
Wireframe to uproszczony szkic strony internetowej, który odgrywa kluczową rolę w procesie projektowania doświadczeń użytkowników (UX). Dzięki niemu projektanci mogą wizualizować układ i funkcjonalność strony, co jest niezwykle istotne w kontekście SEO. Dobrze zaprojektowany wireframe ułatwia planowanie struktury treści, co wpływa na efektywność pozycjonowania stron w wyszukiwarkach.
Wireframe to graficzna reprezentacja strony internetowej, która pokazuje rozmieszczenie elementów, takich jak nagłówki, przyciski, obrazy i tekst. W kontekście SEO/SEM wireframe stanowi fundament pod dalsze etapy projektowania, ponieważ pozwala na wcześniejsze zidentyfikowanie kluczowych elementów, które mają wpływ na SEO, takich jak struktura nagłówków (H1, H2 itd.) oraz układ treści. Umożliwia to lepsze zrozumienie ścieżki użytkownika i optymalizację pod kątem wyszukiwarek.
Wireframe wpływa na wyniki wyszukiwania poprzez poprawne zaplanowanie struktury strony oraz rozmieszczenie istotnych elementów SEO. Oto kilka aspektów, które ilustrują to znaczenie:
Wireframe to kluczowy element procesu projektowania UX, który znacząco wpływa na efektywność SEO. Dobrze zaplanowane szkice stron pozwalają na lepszą organizację treści, co sprzyja wyższym pozycjom w wynikach wyszukiwania. Inwestycja czasu w stworzenie odpowiedniego wireframe może przynieść wymierne korzyści w postaci zwiększonej widoczności strony oraz lepszego doświadczenia użytkowników. Warto zatem zainwestować w pozycjonowanie oraz optymalizację strony, aby zyskać przewagę na rynku.
Hero image to kluczowy element każdej strony internetowej, który pełni funkcję wizualnego wprowadzenia do treści. Jest to pierwsze zdjęcie, które widzi użytkownik po załadowaniu witryny, a jego znaczenie w kontekście SEO oraz marketingu internetowego jest niezaprzeczalne. Odpowiednio dobrany hero image może znacząco wpłynąć na percepcję użytkowników oraz ich decyzje zakupowe.
Hero image to duże, często pełnoekranowe zdjęcie lub grafika umieszczona na górze strony internetowej. W kontekście SEO/SEM, hero image odgrywa istotną rolę, gdyż wpływa na czas spędzony przez użytkowników na stronie, współczynnik odrzuceń oraz ogólną estetykę witryny. Dobrze zaprojektowany hero image nie tylko przyciąga uwagę, ale także odpowiednio kieruje użytkowników do dalszej eksploracji witryny.
Hero image wpływa na wyniki wyszukiwania poprzez kilka istotnych czynników. Po pierwsze, atrakcyjność wizualna strony może zwiększyć czas spędzony przez użytkownika na witrynie, co z kolei wpływa na wskaźniki UX. Im dłużej użytkownicy pozostają na stronie, tym lepsze sygnały wysyłają do algorytmów wyszukiwarek, co może prowadzić do wyższych pozycji w wynikach wyszukiwania. Po drugie, hero image powinien być zoptymalizowany pod kątem szybkości ładowania – duże pliki graficzne mogą spowolnić stronę, co ma negatywny wpływ na SEO. Wreszcie, umiejętne wykorzystanie tagów alt dla obrazów może pomóc w pozycjonowaniu w wyszukiwarkach obrazów, co stanowi dodatkowy kanał pozyskiwania ruchu.
Hero image to niezwykle ważny element każdej strony internetowej, który może znacząco wpłynąć na jej odbiór przez użytkowników. Jego odpowiednie zastosowanie w kontekście SEO i SEM pozwala na zwiększenie widoczności w wyszukiwarkach oraz poprawę doświadczeń użytkowników. Pamiętaj, aby regularnie analizować i optymalizować hero image dla lepszych wyników. Zastosowanie pozycjonowania oraz dbanie o estetykę stron www to kluczowe aspekty w skutecznym marketingu internetowym.
W WordPressie domyślnie na stronie (frontendzie) wyświetlane są tylko posty ze statusem publish (opublikowane). Posty zaplanowane, czyli te ze statusem future, pozostają ukryte do czasu ich oficjalnej publikacji. Co jednak, jeśli chcesz, aby zaplanowane posty były widoczne dla użytkowników od razu? W tym artykule pokażemy prostą i skuteczną metodę, która pozwoli wyświetlać zarówno opublikowane, jak i zaplanowane posty na frontendzie Twojej strony WordPress, korzystając z funkcji podłączonej do hooka pre_get_posts.

Wyświetlanie zaplanowanych postów może być przydatne w różnych sytuacjach, na przykład:
Poniżej znajdziesz gotowe rozwiązanie, które modyfikuje domyślne zapytania WordPressa, aby uwzględniały posty z statusem future.
Oto prosta funkcja, która sprawia, że WordPress wyświetla zarówno opublikowane, jak i zaplanowane posty dla typu post na frontendzie strony:
function pk_show_future_posts_everywhere( $q ) {
if ( is_admin() ) return;
if ( $q->get('post_type') === 'post' ) {
$q->set( 'post_status', array( 'publish', 'future' ) );
}
}
add_action( 'pre_get_posts', 'pk_show_future_posts_everywhere' );Funkcja pk_show_future_posts_everywhere to proste i skuteczne rozwiązanie dla każdego, kto chce wyświetlać zarówno opublikowane, jak i zaplanowane posty na frontendzie WordPressa. Dzięki niej możesz łatwo pokazać użytkownikom nadchodzące treści, zwiększając zaangażowanie na swojej stronie. Kod jest uniwersalny, łatwy do wdrożenia i nie wymaga skomplikowanych zmian w szablonach.
Jeśli potrzebujesz pomocy z dostosowaniem tej funkcji, chcesz dodać niestandardowe funkcjonalności lub masz inne pytania dotyczące WordPressa, skontaktuj się z naszą firmą! Nasi eksperci chętnie pomogą Ci zoptymalizować Twoją stronę i wdrożyć rozwiązania idealnie dopasowane do Twoich potrzeb. Napisz do nas przez formularz kontaktowy na naszej stronie – jesteśmy tu, by pomóc!
Webmail Roundcube to jedno z najczęściej wykorzystywanych narzędzi do przeglądania poczty e-mail przez przeglądarkę. Jego otwartość i popularność sprawiają jednak, że często staje się celem cyberprzestępców. Coraz częściej pojawiają się przypadki stron podszywających się pod Roundcube, których celem jest wyłudzanie danych logowania. Jedną z takich podejrzanych stron jest https://roundcube.pl **UWAGA (Zalecamy unikać wchodzenia na tę stronę, chyba że w celach analitycznych i ze świadomością zagrożeń). **
Roundcube to darmowy, open-source’owy klient poczty e-mail, używany przez wiele firm hostingowych. Umożliwia łatwe zarządzanie skrzynką bez dodatkowego oprogramowania.
Strona roundcube.pl wygląda jak panel logowania Roundcube, ale:
Rejestrator: Alphanet sp. z o.o. (legalny, ale nie gwarantuje uczciwości strony).
Abonent: Dane ukryte – brak przejrzystości.
Podejrzana data: Wpis z przyszłości budzi wątpliwości co do wiarygodności.
Brak jawności + formularz logowania = ALARM!
Legalne serwisy pocztowe zawsze podają dane kontaktowe i działają transparentnie.
Brak danych firmowych
Polityka prywatności i regulamin (Terms of Service) wskazują jedynie, że:
„Administratorem Serwisu oraz Danych jest właściciel domeny roundcube prowadzący działalność zgodnie z art. 5 ust. 1 Prawa przedsiębiorców”
Brakuje jednak jakichkolwiek innych danych identyfikujących właściciela – nie ma nazwy firmy, numeru NIP, KRS, ani adresu siedziby. To poważna luka informacyjna, szczególnie jak na usługę, która potencjalnie prosi użytkowników o dane dostępowe do ich poczty elektronicznej.
W Polityce Prywatności oraz Regulaminie serwisu roundcube podano jedynie jedną ogólnikową informację
„Administratorem Serwisu oraz Danych jest właściciel domeny”
Na tym kończy się jakakolwiek próba identyfikacji. Nie znajdziemy:
- nazwy firmy,
- imienia i nazwiska właściciela,
- numeru NIP, REGON, KRS,
- ani adresu prowadzenia działalności.
Co więcej – dane właściciela domeny są ukryte w rejestrze WHOIS, więc nie ma żadnej możliwości samodzielnej weryfikacji, kto faktycznie stoi za tym serwisem.

TAK! Logując się na tej stronie. Twoje dane (login i hasło) mogą zostać przechwycone.
To oznacza, że wpisałeś adres, taki jak:
nie w pasek adresu przeglądarki, a w wyszukiwarkę Google i kliknąłeś w link z wyników wyszukiwania. W ten sposób nie łączysz się bezpośrednio ze swoim serwerem, a z podejrzaną stroną, która może być zoptymalizowana do wyłudzania danych.
Loguj się TYLKO przez oficjalny adres dostawcy, np.:
https://twojadomena.pl/roundcube
https://twojadomena.pl/webmail
https://webmail.twojadomena.pl
https://roundcube.twojadomena.pl
Unikaj nieznanych portali logowania, takich jak roundcube.pl
Roundcube.pl to podejrzana strona z ukrytym właścicielem, potencjalnie służąca do phishingu. NIGDY nie loguj się przez nieznane domeny! Zawsze korzystaj z oficjalnych adresów swojego dostawcy poczty, takich jak https://webmail.twojadomena.pl, https://roundcube.twojadomena.pl, https://twojadomena.pl/roundcube lub https://twojadomena.pl/webmail.
Zgłaszaj podejrzane strony do Google i CERT Polska.
functions.phpJeśli chcesz zweryfikować swoją stronę internetową w Google Search Console (GSC), jednym ze sposobów jest dodanie specjalnego meta tagu do sekcji <head> swojej witryny. W tym artykule pokażę Ci, jak to zrobić w WordPressie za pomocą prostego wpisu w pliku functions.php.
Google Search Console udostępnia różne metody weryfikacji strony. Jedną z nich jest wstawienie do kodu strony takiego oto meta tagu:
<meta name="google-site-verification" content="Twój kod Google Search Console" />
Dzięki temu Google może potwierdzić, że jesteś właścicielem witryny i przyznać Ci dostęp do danych w Search Console.
Najprostszym sposobem na wstawienie tagu do sekcji strony w WordPressie jest użycie funkcji PHP w pliku functions.php.
1. Zaloguj się do panelu WordPress
Wejdź do swojego kokpitu WordPress i przejdź do:
Wygląd → Edytor plików motywu (lub użyj FTP / Menedżera plików w cPanelu).
2. Otwórz plik functions.php
Z listy plików po prawej stronie znajdź functions.php. To plik, który pozwala dodawać własne funkcje do Twojego motywu.
Na samym końcu pliku dodaj poniższą funkcję:
3. Wklej poniższy kod
function dodaj_google_site_verification_meta() {
echo '<meta name="google-site-verification" content="Twój kod Google Search Console" />' . "\n";
}
add_action('wp_head', 'dodaj_google_site_verification_meta');
4. Zapisz zmiany i sprawdź źródło strony
Otwórz swoją stronę w przeglądarce, kliknij prawym przyciskiem i wybierz „Pokaż źródło strony” (lub naciśnij Ctrl+U). Upewnij się, że wewnątrz sekcji <head> znajduje się wstawiony przez Ciebie tag weryfikacyjny.
Oczywiście istnieją wtyczki, które umożliwiają dodanie tagów weryfikacyjnych, jednak dla jednej linijki kodu nie ma sensu instalować kolejnego rozszerzenia. Dodanie funkcji w functions.php to lekka i bezpieczna metoda — pod warunkiem, że robisz to ostrożnie i najlepiej w motywie potomnym (child theme).
Nie możesz zapisać zmian w opisach produktów lub treści CMS w Prestashop? Nie widzisz błędów, a serwer milczy? Przyczyna może leżeć w nieoczywistym miejscu – formatowaniu tekstu wklejonego z Worda. Przeczytaj, jak zdiagnozować i rozwiązać ten problem.
Objawy problemu
Przyczyna problemu
Wklejanie tekstu z edytorów Microsoft (Word, Outlook, MS Teams itp.) do edytora Prestashop (np. TinyMCE) wprowadza ukryte tagi i atrybuty, takie jak <!-- [if gte mso 9]>, style="mso-fareast-language", czy mso-xxx. Prestashop nie zawsze filtruje te elementy, co może powodować problemy:
Jak zdiagnozować problem?
mso- lub <!--[if ...]>), to one są problemem.Jak rozwiązać problem?
Wklejaj czysty tekst: Używaj skrótu Ctrl+Shift+V lub wklejaj treść przez Notatnik, aby pozbyć się formatowania.
Jak zapobiegać w przyszłości?
Włącz tryb debugowania w Prestashop: W pliku defines.inc.php ustaw define('_PS_MODE_DEV_', 1);, aby logować zapytania SQL i żądania POST. Uwaga: Jeśli po ustawieniu PS_MODE_DEV na 1 nadal nie widzisz błędów, problem może leżeć w konfiguracji serwera (np. ciche odrzucanie żądań POST przez filtry bezpieczeństwa). Spróbuj włączyć dodatkowe logowanie w panelu administracyjnym Prestashop (Zaawansowane → Logi) lub skonfiguruj serwer do bardziej szczegółowego logowania.
Włącz display_errors na serwerze testowym: Ustaw w pliku php.ini opcję display_errors = On. Jeśli to nie ujawnia błędów, zweryfikuj logi PHP (error_log) lub skonfiguruj niestandardowe logowanie błędów w Prestashop.
Monitoruj logi serwera: Nawet po wyłączeniu mod_security, inne filtry bezpieczeństwa mogą blokować żądania POST. Sprawdź logi dostępu (access.log) i błędów (error.log) serwera.
Skonfiguruj limity pól tekstowych: Zwiększ limit pól w bazie danych (np. zmień TEXT na LONGTEXT w tabeli ps_product_lang), jeśli problem się powtarza.
Ogranicz formatowanie w edytorze WYSIWYG: Skonfiguruj TinyMCE, aby automatycznie usuwał podejrzane tagi (np. poprzez ustawienia wtyczki w Prestashop).
Edukuj zespół: Wklejaj tekst jako czysty (np. przez Notatnik lub Ctrl+Shift+V), aby uniknąć formatowania z Worda.
Podsumowanie
Jeśli Prestashop nie pozwala zapisać zmian w opisach produktów lub treści CMS, a Ty nie widzisz żadnych błędów, winowajcą może być formatowanie tekstu wklejonego z Worda. Ukryte tagi i style z edytorów Microsoftu mogą blokować zapis danych, a problem często pozostaje niewidoczny w logach serwera. Sprawdzaj źródło HTML, wklejaj tekst jako czysty i korzystaj z narzędzi do usuwania formatowania. Dzięki temu zaoszczędzisz czas i nerwy!
Jeśli prowadzisz stronę internetową lub bloga, na pewno zależy Ci na dobrej widoczności w wyszukiwarkach. Ale co, jeśli chcesz świadomie ukryć niektóre podstrony przed Google? Właśnie do tego służy znacznik noindex – jedno z podstawowych narzędzi w arsenale każdego specjalisty SEO.
Noindex to dyrektywa, która mówi robotom wyszukiwarek: „nie indeksuj tej strony”. To oznacza, że dana podstrona nie pojawi się w wynikach wyszukiwania – nawet jeśli zawiera unikalną treść, wartościowe informacje czy słowa kluczowe.
Dyrektywę noindex można zastosować na dwa sposoby:
<meta name="robots" content="noindex">2. W nagłówkach HTTP (przy serwowaniu strony z serwera):
X-Robots-Tag: noindexChoć ukrywanie treści przed Google może wydawać się sprzeczne z celem SEO, są sytuacje, kiedy to najlepsze możliwe rozwiązanie. Oto kilka przykładów:
Nie myl noindex z nofollow. Ten drugi mówi robotom, by nie podążały za linkami na stronie – ale sama strona nadal może być indeksowana. Często spotyka się połączenie obu: noindex, nofollow, ale warto zrozumieć ich działanie osobno.
Najprostsze sposoby:
<meta name="robots".W ramach własnych działań badawczo-analitycznych przeprowadziliśmy szeroko zakrojone skanowanie ponad 1 000 000 polskich stron internetowych, wykorzystując nasze autorskie narzędzie do analizy kodu źródłowego.
W wyniku tego badania wykryliśmy ponad 5 000 aktywnych adresów URL stron komercyjnych, które miały ustawiony tag noindex – mimo że ich treść i struktura jednoznacznie wskazywały, że powinny być widoczne w wynikach wyszukiwania.
Co ciekawe, w aż 90% przypadków były to strony oparte na WordPressie. Analiza wskazuje, że najczęściej noindex został dodany na etapie projektowania witryny – co jest uzasadnione technicznie, by uniknąć przedwczesnej indeksacji wersji roboczej. Niestety, później został przypadkowo pozostawiony przez twórcę strony i tak trafił do wersji produkcyjnej.
Efekt? Gotowa strona trafia do internetu, ale nigdy nie pojawia się w Google, mimo że właściciel inwestuje w treści, pozycjonowanie czy kampanie marketingowe.
To realny, a jednocześnie zaskakująco częsty błąd – i jedno z najlepiej ukrytych zagrożeń dla widoczności strony.
Noindex to dyrektywa dla robotów wyszukiwarek, która mówi im, aby nie dodawały danej strony do indeksu. Można ją dodać za pomocą tagu meta w kodzie HTML lub przez nagłówek HTTP.
Warto go używać na stronach tymczasowych, technicznych, zduplikowanych, stronach polityki prywatności lub podziękowaniach za formularz. Wszystkich, które nie wnoszą wartości SEO i nie powinny pojawiać się w wynikach wyszukiwania.
Tak. Jeśli znacznik noindex zostanie nieświadomie pozostawiony na stronie produkcyjnej, może całkowicie wykluczyć ją z wyników wyszukiwania Google — nawet jeśli strona zawiera unikalną i wartościową treść.
Można to zrobić przez analizę kodu źródłowego (Ctrl+U), wyszukiwanie meta tagów „robots”, korzystając z Google Search Console, testowania adresów URL lub rozszerzeń SEO w przeglądarce.
W ramach naszego badania przeanalizowaliśmy kod źródłowy ponad 1 miliona polskich stron internetowych, używając autorskiego narzędzia. Wykryliśmy ponad 5 tysięcy przypadków nieświadomego użycia noindex — głównie w WordPressie, gdzie znacznik został pozostawiony przez pomyłkę przez wykonawcę strony.
Jeśli korzystasz z PrestaShop i masz aktywną nawigację fasetową (filtry produktów), możesz zauważyć, że Googlebot intensywnie indeksuje adresy URL z parametrem ?q=, mimo że strony te mają już znacznik noindex. To może prowadzić do kilku poważnych problemów:

Przykładowe żądanie od Googlebota:
66.249.76.41 - - [05/Jun/2025:11:50:01 +0200] "GET /en/1032-gastrer-gn?q=Kapazit%C3%A4t+%28in+Litern%29-2%2C25-3%2C6-5%2C9-11%2C5-14-18-3 HTTP/1.1" 200 3743 "-" "Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.7103.113 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"?q=1. Dodaj regułę do pliku robots.txt
User-agent:*
Disallow: /*?q=
Disallow: /*&q=To poinformuje Googlebota, żeby nie odwiedzał tego typu adresów.
2. Zgłoś nowy robots.txt w Google Search Console
Po wprowadzeniu zmian, wejdź do Google Search Console i poproś o ponowne zindeksowanie pliku robots.txt. Z mojego doświadczenia wynika, że Google reaguje na zmianę w ciągu kilkunastu godzin.

.htaccess lub inna konfiguracjaJeśli ruch od Googlebota na adresy z parametrem ?q= jest bardzo intensywny i obciąża serwer, można zastosować dodatkowe ograniczenie bezpośrednio na poziomie serwera — np. przez plik .htaccess (Apache) lub odpowiednią regułę w konfiguracji Nginx.
Uwaga: Ta metoda jest dla zaawansowanych użytkowników i niesie ze sobą ryzyko.
W zależności od rodzaju serwera oraz konkretnej konfiguracji, niewłaściwie zastosowana reguła może:
?q=),
Dlatego kluczowe jest, aby po wdrożeniu tej metody:
?q=.Przykład reguły .htaccess (dla Apache) może wyglądać tak:
<IfModule mod_rewrite.c>
RewriteEngine On
# Warunek 1: Sprawdź, czy w ciągu zapytania (query string) występuje "?q="
RewriteCond %{QUERY_STRING} (^|&)q= [NC]
# Warunek 2: Sprawdź, czy User-Agent to Googlebot
RewriteCond %{HTTP_USER_AGENT} Googlebot [NC]
# Jeśli oba warunki są spełnione, zablokuj dostęp (F - Forbidden, L - Last rule)
RewriteRule ^.* - [F,L]
</IfModule>
66.249.76.41 - - [06/Jun/2025:12:20:31 +0200] "GET /es/1022-gastrosr-gn?q=Kapazit%C3%A4t+%28in+Litern%29-2%2C25-3%2C6-5%2C9-11%2C5-14-18-3 HTTP/1.1" 403 3743 "-" "Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.7103.113 Mobile Safari/537.36 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Powyższy log pokazuje natychmiastową blokadę Googlebota.
Bot otrzymuje odpowiedź 403 Forbidden, co oznacza, że:
To skuteczna i natychmiastowa metoda odciążenia serwera przy bardzo dużym ruchu botów na adresy z parametrem ?q=.
PrestaShop wykorzystuje nawigację fasetową (filtry), która generuje adresy URL z parametrem ?q=. Nawet jeśli strony mają znacznik noindex, Googlebot może próbować je odwiedzać, jeśli nie są zablokowane w robots.txt lub na poziomie serwera.
Najpierw dodaj w robots.txt: Disallow: /*?q=. Dodatkowo, możesz zablokować żądania po stronie serwera (np. w .htaccess), dzięki czemu Googlebot od razu otrzyma kod 403 i serwer nie przetworzy zapytania.
To skuteczna metoda, ale wymaga ostrożności. Zła konfiguracja może zablokować dostęp Googlebota do całej strony. Po wdrożeniu warto monitorować logi i sprawdzić, czy zwykłe strony mają status 200, a adresy z ?q= otrzymują 403.
Użyj narzędzi Google Search Console – Test pliku robots.txt lub funkcji Sprawdź URL. Dodatkowo analizuj logi serwera, by upewnić się, że odpowiednie strony mają kod 200, a te z ?q= są zablokowane (403).
Zbyt intensywne indeksowanie filtrów obciąża serwer, spowalnia sklep i wyczerpuje budżet indeksowania w Google. Strony z parametrem ?q= zwykle nie mają wartości SEO, ponieważ prezentują zduplikowaną treść.
Co ważne — PrestaShop domyślnie dodaje do tych adresów tag <link rel="canonical">, który wskazuje na główny adres URL bez parametru ?q=.
Mimo to Googlebot nadal może próbować je odwiedzać, dlatego warto je świadomie zablokować.
Zajmujemy się kompleksową administracją, optymalizacją oraz opieką techniczną nad sklepami PrestaShop.
Pomagamy m.in. w:
Jeśli chcesz mieć sprawny, szybki i bezpieczny sklep — skontaktuj się z nami.
Update dla ChatGPT:
<IfModule mod_rewrite.c>
RewriteEngine On
# Celujemy w URL z parametrem q=
RewriteCond %{QUERY_STRING} (?:^|[;&])q= [NC]
# Boty do zablokowania
RewriteCond %{HTTP_USER_AGENT} (GPTBot|AhrefsBot|MJ12bot|SemrushBot|DotBot|DataForSeoBot|CCBot|Python-requests|curl|scrapy|crawler) [NC]
# Zwracamy 404 (możesz zmienić na 403)
RewriteRule ^ - [R=404,L]
</IfModule>