Michał Chlewiński: Cześć Kaspar! Kilka tygodni temu mogliśmy zobaczyć Cię na Festiwalu SEO w Katowicach, gdzie Twoja prezentacja a konkretnie Q&A wzbudziło bardzo duże zainteresowanie, a po jego zakończeniu jeszcze wiele minut odpowiadałeś na pytania uczestników. Jak oceniasz całość Festiwalu?

Kaspar Szymanski: Cześć Michał! To był mój pierwszy Festiwal SEO w Katowicach i było świetnie. Ciekawe prezentacje, zwłaszcza wystąpienie Łukasza Żeleznego, chociaż muszę przyznać że nie miałem okazji wysłuchać wszystkich występów. Organizatorzy zapewnili program na wysokim poziomie z udziałem międzynarodowych, znanych prelegentów takich jak Dixon Jones. Gratulacje dla Artura Strzeleckiego i jego zespołu.

Festiwal SEO Katowice 2015 Dixon Jones Majestic.com

Jednym z prelegentów FSEO 2015 był obok Kaspara również Dixon Jones z Majestic.com

M: W Katowicach mówiłeś m.in. o tym, że pracownik SQT pod pewnymi względami nie różni się od pracowników każdej dużej firmy – ma wyznaczone targety, w związku z czym np. nie sprawdza innych stron podpiętych pod konto GWT na którym znajduje się domena zgłoszona do ponownego rozpatrzenia bo zwyczajnie nie ma na to czasu. Czy możesz powiedzieć coś więcej o specyfice pracy takich osób?

K: W moim doświadczeniu praca osób odpowiadających za jakość wyników wyszukiwania w Google z czasem się zmienia. Większość z nich nabierając doświadczenia specjalizuje się w konkretnej dziedzinie, na przykład jako mentor, deweloper czy w komunikacji korporacyjnej. Ze względu na dynamikę internetu i wyników wyszukiwania oraz zmiany w polityce firmowej nie istnieje coś takiego jak zastój. Pracownicy Google stale określają swoje role oraz ich zadania na nowo.

M: A jak wyglądała Twoja codzienna praca w czasach, gdy pracowałeś dla Google?

K: Bardzo ciekawie! Nie mogę szczegółowo opisywać w jaki sposób wygląda zwalczanie spamu w wynikach wyszukiwania, ale mogę powiedzieć, że była to z pod wieloma względami ekscytująca praca. Świadomość, że pracuje się nad ulepszaniem produktu używanego przez tak wiele osób jest bardzo motywująca. Dużo satysfakcji sprawiał mi również dialog z webmasterami, na konferencjach czy też na forach Google.

M: Google zaleca, aby podjąć jak najwięcej działań mających na celu usunięcie linków (w tym kontakt z właścicielami linkujących stron) i opisanie tych działań w prośbie o ponowne rozpatrzenie. Czy osoba, którą tą prośbę sprawdza ma w takim razie czas na weryfikację prawdziwości opisanych w niej działań?

K: Ze względu na wieloletnie doświadczenie w opracowywaniu wniosków o ponowne rozpatrzenie, przykładamy W SearchBrothers ogromny nacisk na dokumentacje kroków podjętych w celu oczyszczenia profilu linków. Sprawdzenie uzasadnienia podania nie jest czasochłonne i może mieć decydujący wpływ na decyzję o przyjęciu czy też odrzuceniu wniosku. Przesyłaną dokumentacje należy traktować jak najbardziej serio.

M: Czy jeżeli pierwsza prośba o ponowne rozpatrzenie dla danej strony zostanie odrzucona, kolejna trafi do tego samego pracownika Google?

K: Przetwarzanie podań o ponowne rozpatrzenie nie jest tak proste jak to by się mogło wydawać. Jest tylko jedna sprawdzona metoda, żeby dogłębnie zapoznać się z tym procesem. Pierwszym krokiem w tym celu jest wyszukanie frazy: Product Quality Operations Google.

Kaspar Szymanski na Festiwalu SEO Katowice 2015

Kaspar na Festiwalu SEO Katowice 2015

M: Wspomniałeś też, że kary ręczne przyznawane są na określony czas, choć nie warto czekać aż się skończą. Jakiego rzędu są to długości? Jaka jest maksymalna długość kary?

K: Bardzo długa.

M: Duży sklep (50 000+ produktów różnych producentów) zastanawia się nad tym czy lepszym wyjściem jest import opisów produktów dostarczonych przez producenta (identyczne mają również konkurencyjne sklepy) czy brak opisów (jedynie tabele że specyfikacjami, które również posiada konkurencja) – które rozwiązanie, zakładając że wszystkie pozostałe parametry są identyczne, jest Twoim zdaniem lepsze? Brak opisów, czy zduplikowane?

K: 50.000 produktów to jest raczej mały sklep 🙂 SEO jest bardziej skomplikowane niż wybór dobrych opisów, które mogą się przekładać na wzrost współczynnika klikalności. Zakładając że oba sklepy są identyczne, co nie jest możliwe ze względu na przykład na branding czy linki, jeżeli cala ich optymalizacja ogranicza się do tej jednej decyzji i nie uwzględnia dystrybucji budżetu na pobieranie przez boty, szybkości serwera, kanonicznych URLi, ilości oraz jakości indeksowanych treści i tysiąca innych czynników wpływających na pozycje na frazy, to kwestia opisów nie będzie odgrywała większej roli. W konsekwencji żadna z tych witryn nie będzie widoczna w wynikach Google.

Kompetentne SEO nie ogranicza się do jednorazowej optymalizacji pojedynczego, wybranego elementu witryny. Optymalizacja serwisów online z prawdziwego zdarzenia wymaga wykorzystania możliwie dużej puli aktualnych danych i zrozumienia współdziałania pojedynczych sygnałow odbieranych przez wyszukiwarki.

M: W 2012 w wywiadzie dla Sebastiana Miśniakiewicza (link do wywiadu) mówiłeś o tym, że negatywne SEO nie ma racjonalnego zastosowania i „będąc właścicielem witryny nie ma co się za bardzoprzejmować tym, co może knuć konkurencja”. Czy Twoje zdanie wraz z upływem czasu i zmianą „strony barykady” w tym temacie uległo zmianie?

K: Negatywne SEO przypomina trochę Yeti. Każdy już coś na ten temat słyszał, kilka osób jest przekonanych, że jest wszechobecne, ale dla dużej większość nie ma żadnego znaczenia. O negatywnym SEO można od czasu do czasu czytać na łamach branżowych blogów, ale jeszcze nikt się nie porwał na próbę udokumentowanego ataku na duży serwis za pomocą linków. Powód jest prosty: negatywne SEO nie jest wykluczone, ale jest szalenie kosztowne i czasochłonne. Wymaga profesjonalnego prowadzenia kampanii i na końcu nigdy nie ma pewności, czy cały wysiłek miał jakikolwiek efekt.

M: Wiadomo, że coraz bardziej należy uważać z wykorzystaniem anchorów w linkach zewnętrznych. Czy strona może jednak ucierpieć (zostać ukarana) za błędy związane z tym w linkowaniu wewnętrznym?

K: Z jednej strony wytyczne Google nic na ten temat nie wspominają. Z drugiej strony jednak wytyczne podlegają regularnym, często publicznie przemilczanym aktualizacjom. Nie zdziwiłoby mnie uaktualnienie na temat wewnętrznych anchor tekstów.

M: Prowadząc audyty stron klientów – jakiego typu błędy w optymalizacji witryn spotykasz najczęściej?

K: Brak lub błędne zastosowanie kanonicznych URL-i często prowadzi do poważnych, niezamierzonych konsekwencji dla widoczności witryny. Szczególnie, ale nie tylko, w połączeniu z użyciem metatagu noindex. Rzadko spotykamy się z celowym zarządzaniem budżetem pobierania witryny przez Googlebota (przyp. red.: więcej na ten temat pisała ostatnio Kamila Janczak na blogu Bartosza Góralewicza), co się bezpośrednio przekłada na to czy witryna jest widoczna w Google czy nie. Równie częste są problemy z ilością i jakością dostępnej treści oraz z jakością linków, co może oznaczać że witryna jest zagrożona przez Pandę oraz Pingwina. Większość witryn boryka się z kilkoma problemami. Kombinacja wszystkich powyższych oraz innych, niewymienionych nie jest niczym nadzwyczajnym.

M: Czy Twoim zdaniem możliwe jest wyeliminowanie wpływu linków jako czynnika rankingowego, a jeżeli tak to co mogłoby je skutecznie zastąpić?

K: Linki to podstawowa forma nawigacji w sieci, zarówno dla użytkowników jak i dla botów. Myślę że to się nie zmieni z dnia na dzień i dlatego linki pozostaną istotnym czynnikiem dla wyszukiwarek.

M: Z jakich narzędzi korzystacie przy okazji codziennej pracy w SearchBrothers? W jakim stopniu są to rozwiązania ogólnodostępne, a w jakim dedykowane, które sami stworzyliście.

K: Do pobierania danych korzystamy z kilku ogólnie dostępnych narzędzi, miedzy innymi ze Screaming Frog, Botify, OnPage.org, DeepCrawl. Ogromną pomocą w analizie linków na dużą skalę jest Powerdrill.com, które obecnie jest w fazie ograniczonego testu beta. Narzędzia budowane przez nasz zespół deweloperów są  wyłącznie na użytek wewnętrzny i nie przewidujemy udostępniania ich w najbliższym czasie.

M: Najwartościowsze źródło wiedzy z tematyki SEO to Twoim zdaniem:

K: Z publicznie dostępnych blogów zaglądam regularnie na SearchEngineLand.com, StateOfDigital.com i na kilka blogów Google, najważniejsze to Webmaster Central Blog oraz Public Policy Blog. Najwartościowszym źródłem wiedzy są jednak spotkania, takie jak SEOktoberfest, UnGagged czy BrightonSEO.

M: Narzędzie bez którego nie wyobrażasz sobie codziennej pracy to:

K: Ubuntu na Lenovo 🙂

M: Największy mit SEO, z którym się spotykasz:

K: Nieśmiertelnym jest mitem jest, że AdWords ma wpływ na organiczne wyniki wyszukiwania, oraz że pracownicy Google AdWords pomagają swoim klientom z SEO. Oba stwierdzenia to nonsens.

M: Co robisz, gdy nie zajmujesz się SEO?

K: Moja największą pasja jest lotnictwo. Sporo wolnego czasu poświęcam lataniu.

M: Czy planujesz organizację szkoleń z zakresu SEO?

K: Tak. Organizujemy szkolenia regularnie i kolejna seria jest w przygotowaniu. Na pewno będę o tym pisał na Google+ oraz na Twitterze.

M: Jakie są Twoje plany zawodowe na najbliższe miesiące, planujesz rozwój innych projektów niż SearchBrothers.com?

K: Najbliższe sześć miesięcy zapowiada się bardzo intensywnie. Poza przygotowaniami do serii szkoleń, mamy zaplanowane występy na kilku konferencjach SEO i pracujemy nad kolejnymi publikacjami. Do tego dochodzi praca z klientami. Nie możemy narzekać na brak wyzwań.

___

Kaspar SzymanskiKaspar Szymanski przez ponad 7 lat zajmował się w ramach zespołu Search Quality w Google walką ze spamem oraz komunikacją z webmasterami. W branży SEO znany jako Guglarz, zasłynął dzięki publikacjom i wystąpieniom w imieniu Google, propagującym tworzenie wartościowych serwisów internetowych. Obecnie, jako współzałożyciel serwisu SearchBrothers.com, Kaspar oraz jego wspólnik Fili Wiese oferują doradztwo i pomoc właścicielom witryn, dotkniętych konsekwencjami naruszenia Wytycznych Google dla Webmasterów.

Witryna:https://SearchBrothers.com

/* */