Skocz do zawartości


Zdjęcie

Oficjalny wywiad z Search Quality Team Google


  • Zaloguj się, aby dodać odpowiedź
Brak odpowiedzi do tego tematu

EXPERTO

EXPERTO
  • Zabanowany(a)
  • PipPipPipPip
  • 14273 postów
  • Pomógł: 5
  • Lokalizacja:P.O.T.C.O.A.W.M.B.W.
  • Płeć:Mężczyzna
  • Zainteresowania:- Śliczne Panny.
    - Przyroda.
    - Kulturystyka.
    - Sztuki Walki.
    - Forum.
    - Samochody.
  • Staż [miesiące]:od 2003
  • Wzrost [cm]:188
  • Waga [kg]:100-102

Napisano Ponad rok temu

Oficjalny wywiad z Search Quality Team Google
Zapraszam wszystkich do przeczytania oficjalnego wywiadu z pracownikiem zespołu SQT Google, zajmującym się jakością wyników. Tłumaczenie w języku angielskim w godzinach wieczornych.

1. Witaj Kaspar, pracujesz w Google, czy możesz powiedzieć coś więcej na temat swoich obowiązków?

Od: Od początku mojej pracy w Google zajmuję się jakością naturalnych wyników. Redukcja spamu w wynikach wyszukiwania, zwanych również SERP, jest nadal moim głównym zadaniem. Poza tym jak wiesz, chętnie zajmuję się komunikacją z webmasterami. Robię to poprzez różne kanały w kilku językach. Moim ulubionym jest bezpośrednia rozmowa podczas okazji takich jak Google Day w zeszłym roku, kiedy mieliśmy okazję osobiście porozmawiać.

2. Wiele osób twierdzi, że wszystkie działania zmierzające do poprawy pozycji strony internetowej są źle widziane ze strony Google.

Od: Jest to stwierdzenie, z którym absolutnie nie mogę się zgodzić. Jeżeli doradca SEO poprawia pobieralność strony, udostępnia nową, oryginalną treść dla botów wyszukiwarek i podwyższa widoczność witryny, nie wychodząc poza nasze porady dla webmasterów, nie widzę powodu, dla którego Google mogłoby patrzeć na to negatywnie.

3. Przeglądając topowe słowa kluczowe zauważyłem, że brak tam nawet jednej domeny pozycjonowanej dozwolonymi technikami. Czy to oznacza, że stosowanie wytycznych mija się z celem, bo ich stosowanie nie przynosi efektu?

Od: Nie mogę się zgodzić ze stwierdzeniem, że stosowanie metod white hat nie ma sensu. W polskim indeksie Google jest wiele dobrych stron plasujących się odpowiednio do ich wysokiej jakości. Jeżeli pytanie brzmi, czy w przeszłości strony używające metody wychodzące poza nasze wytyczne jakości pojawiały się w SERPach, to tak, miało to miejsce. Ale nie oznacza to, że metody white hat nie mają sensu. Jest wręcz przeciwnie. Szczególnie od końca zeszłego roku, kiedy wyjaśniliśmy stanowisko Google w odniesieniu do systemów wymiany linków (SWL), widzę pozytywny rozwój. Każdy webmaster, który pragnie zbudować i utrzymać reputację swojej strony, powinien uwzględnić Porady Google dla Webmasterów. Przy każdej okazji przypominam webmasterom, że budowanie reputacji strony wymaga czasu, a osiągnięte wyniki można łatwo utracić korzystając z podejrzanych metod. Wspominasz o witrynach, w przypadku których masz wątpliwości. Dlaczego nie zgłosisz ich przez raport spamu w Narzędziach Google dla Webmasterów tak, jak to efektywnie robiłeś w przeszłości? Jak wiesz, te zgłoszenia pomagają polepszyć jakość naszego indeksu i czynią Internet lepszym miejscem dla nas wszystkich.

4. Czy nagły przyrost linków o niskiej jakości może powodować sankcje ze strony wyszukiwarki?

Od: Pytasz o coś, czym jest wiele osób zainteresowanych - czy poprzez masowe dodawanie linków konkurencja jest w stanie mi zaszkodzić? Zdarzyło się już, że negatywne SEO przynosiło efekty, ale nie dzięki systemom wymiany linków. I nie, nie będę dolewał oliwy do ognia w dyskusji na temat, w jakim stopniu te próby były nieskuteczne. Pozwól jednak, iż dodam, że czas spędzony na dodawaniu lub generowaniu linków w celu zaszkodzenia konkurencji to czas zmarnowany.

5. Jakie jest Wasze zdanie na temat systemów wymiany linków przekazujących Page Rank i czy emitowanie takich linków może narazić stronę na konsekwencje. Jeżeli tak, to jakie są to konsekwencje?

Od: SWLe przekazujące PageRank wykraczają poza Porady Google dla Webmasterów i jest prawdopodobne, że ich użycie wpłynie negatywnie na reputację ston, które je wyświetlają.

6. Systemy wymiany linków w Polsce istnieją już od 2004 roku, do dziś ich stosowanie przynosi efekt w postaci wzrostu pozycji. Czy można spodziewać się bardziej zmasowanych działań wobec witryn emitujących linki SWL?

Od: Podczas kiedy SWLe przekazujące PageRank mogą dawać krótkotrwałą przewagę, nie można liczyć na długookresowe wyniki bazujące na ich użyciu. Równocześnie utrata reputacji strony spowodowana ich wykorzystaniem może być poważna i nieadkwatna do krótkotrwałych korzyści. I tak, w ciągu najbliższych miesięcy będziemy się koncentrować na tym temacie.

7. Czy generowanie automatycznych zapytań do wyszukiwarki - pobieranie wyników w celu monitoringu ilości zaindeksowanych podstron, sprawdzenia pozycji jest działaniem legalnym i zgodnym z regulaminem Waszej wyszukiwarki?

Od: Misja Google to organizowanie i udostępnianie adekwatnych wyników użytkownikom, a nie udostępnianie informacji w celu pozycjonowania. Dlatego automatyczne zapytania naruszają zasady naszego regulaminu, a w szczególności punktu 5. naszych zasad użytkowania serwisu. I jeżeli jest to robione na dużą skalę, może spowodować blokadę adresu IP. Poza tym zautomatyzowane zapytania są coraz mniej przydatne, ponieważ staramy się uwzględniać elementy spersonalizowanego wyszukiwania i wyniki dla użytkowników wygladają inaczej niż dla zapytań zautomatyzowanych. Myslę, że bardziej sensowne jest monitorowanie logów (referrer Google) i sprawdzanie, jakie frazy sprowadzają Internautów na stronę.

8. Zdania webmasterów na temat wpływu PR na pozycję strony są podzielone. Można zauważyć, że strony o niższym PR są często na wyższych pozycjach. Z moich obserwacji wynika jednak, że podstrony serwisu z wysokim PR umieszczane są znacznie wyżej, bez konieczności działań pozycjonerskich. Na podstawie tych obserwacji zauważyłem, że dziś przy większym serwisie dużo lepiej jest pracować na zaufanie do witryny i Page Rank, niż skupiać się na pozyskiwaniu wielkiej liczby linków o niskiej jakości. Jaka jest Twoja opinia odnośnie ilość a jakość linków do strony głównej, a wpływ na cały serwis internetowy?

Od: Nie koncentrowałbym swoich starań na budowaniu PageRank, ponieważ to nie jest tak naprawdę coś, na co się ma bezpośredni wpływ jako webmaster. Zgadzam się natomiast z Tobą w kwestii budowania renomy strony poprzez dodawanie treści o jak najlepszej jakości. Spotkałem się z opinią, że taka strategia nie jest łatwa, a ponadto czasochłonna. Ciężko jest sypać dobrą treścią z rękawa, ale jednak nie zmienia to faktu, że nieustannie obserwujemy, jak kolejne nowe strony pozyskują dobre reputacje. Blip.pl to przykład stosunkowo młodej witryny, która przez doskonałą treść szybko pozyskały widoczność w wynikach. Myślę, że najlepsza odpowiedzią na Twoje pytanie to jest: tak, strategia celująca w pozyskiwanie jakościowych linków, które nie znikną po krótkim czasie poprzez dodawanie treść dobrej jakości, jest bardziej obiecująca niż rozpaczliwe próby zdobycia jak największej liczby linków. Z czasem, jakościowe linki nadane ze względu na jakość witryny mają znacznie większy wpływ na rozwój strony w SERPach, niż duża liczba linków słabej jakości.

9. Załóżmy, że na mojej stronie posiadam top graficzny z napisem Reklama internetowa. Czy dopuszczalnym jest zastosowanie ukrytego tekstu pod grafiką o tej samej treści, czy zgodnym jest zastosowanie znaczników opisujących grafikę alt=”reklama internetowa”?

Od: O ile bot i użytkownicy “oglądają” dokładnie tę sama treść, nie widzę naruszenia wytycznych Google. Ta sama i niezaspamowana treść na i pod grafiką jest w porządku. Ale jeżeli zaczniesz chować linki lub treść w celu zwiększenia gęstości słów kluczowych, ryzykujesz reputacją witryny.

10. Czy stworzenie tematycznego moderowanego katalogu stron z odnośnikami zewnętrznymi wiąże się z koniecznością użycia znacznika rel=nofollow?

Od: Na polskim rynku reputacja katalogów ucierpiała przez to, że przez jakiś czas były one na dużą skalę używane do spamowania. Dlatego moderatorzy tematycznych katalogów wysokiej jakości mogą być zaniepokojeni, mimo że nie mają do tego powodu. Jeżeli prowadzisz moderowany katalog na konkretny temat, którego treść wzbogaca zasoby Internetu, nie ma potrzeby, żeby dodać nofollow do wychodzących linków. Inaczej wygląda sytuacja, jeżeli wymagany jest link zwrotny, ponieważ wtedy mamy raczej do czynienia z wymianą linków, niż z linkowaniem bazującym na jakości treści. Moderatorzy, którzy wymagają linki zwrotne do swoich katalogów, nie powinni oczekiwać długotrwałych dobrych wyników w indeksie Google. Podobnie ma się sytuacja z katalogami wymagającymi opłat rejestracyjnych, ponieważ może to wyglądać jak płatne linkowanie.

11. Wielu pozycjonerów twierdzi, że nie walczycie z Black Hat SEO, bo same strony pozycjonowane nie naruszają wytycznych, a jedynie zaplecze, które jest tworzone w celu podniesienia pozycji. Tym samym często pada stwierdzenie, że to dzięki pozycjonerom Google wie, jak poukładać swój ranking, szczególnie w wypadku topowych słów kluczowych.

Od: Myślę, że Google dawało sobie już całkiem dobrze radę z indeksowaniem i katalogowaniem stron, zanim ktokolwiek zaczął optymalizować w celu zwiększenia widoczności w naszym indeksie :-) Dlatego możesz być pewien, że walczymy z wszystkimi metodami black hat.

12. Czy korzystanie z płatnych form reklamowych typu Adwords ma wpływ na pozycję strony internetowej?

Od: Nie. Płatne wyniki nie mają wpływu na naturalne wyszukiwanie.

13. Udzielając się na forum Google dla Webmasterów zauważyłem, że wielu webmasterów zwraca się z prośbą o pomoc przy tak zwanej diagnozie powodów nałożenia kary. Najczęściej takie pytania padają na drugi dzień od spadku witryny w wynikach wyszukiwania. Po jakim czasie właściciel strony może zacząć się niepokoić?

Od: Świetne pytanie, cieszę się że podejmujesz ten temat! W Google eksperymenty i aktualizacje są na porządku dziennym. Internet nieustannie się rozwija, nowe witryny pozyskują linki i wyrabiają sobie renomę. Inne możliwe czynniki wpływające na liczbę wyszukiwań to na przykład święta narodowe lub ładna pogoda, która skłania ludzi do wyjścia na spacer zamiast siedzenia przed monitorem. Należy pamiętać, iż między innymi z wymienionych powodów wyniki wyszukiwania podlegają ciągłym zmianom i jedno lub dwudniowe spadki nie mają żadnego znaczenia i nie powinny nikogo przejmować. Dopiero kiedy operator site nie zwraca żadnych wyników lub gdy ruch przychodzący z Google przez powiedzmy kilka tygodni stale spada można się niepokoić. Pierwszym krokiem powinno być porównanie wskazówek Google dla webmasterów z witryną oraz analiza niedawno wprowadzanych zmian. Czy architektura strony podlegała jakimś zmianom? Czy były stosowane systemy wymiany linków? A może witryna padła ofiarą hakera? W momencie kiedy poszukiwania przyczyn nie powiodą się, najlepiej jest poprosić o opinie uczestników Forum Google dla Webmasterów. Po ustaleniu przyczyny zalecałbym wysłanie podania o ponowne rozpatrzenie, oczywiście dopiero po usunięciu wszystkich problemów.
Zdziwiłbyś jednak zapewne widząc, jak wielu webmasterów zgłaszających swoje strony na forum w rzeczywistości nie ma żadnych powodów do obaw.

14. Kupiłem domenę, która wcześniej została ukarana przez Google (ban), czy jako nowy właściciel mogę spać spokojnie?

Od: Jeżeli kupiłeś domenę z podejrzaną przeszłością, pierwsze co ja bym zrobił to zlikwidowanie spamu na stronie i zgłoszenie o ponowne rozpatrzenie. Jeżeli wytłumaczysz sytuację w kilku słowach, jest bardzo prawdopodobne, że domena będzie miała szansę na odbudowanie reputacji i zaufania. Tak samo jest z wygasłymi domenami, które są tymczasowo przejmowane przez spamerów. Po odzyskaniu domeny i oczyszczeniu jej z treści à la cheap-viagra-free-vicodine po prostu należy wysłać podanie o ponowne uwzględnienie z wyjaśnieniem sytuacji i wszystko powinno wrócić do normy.

15. Pozyskiwanie linków i rozbudowa serwisu internetowego, przykład: Posiadam serwis firmowy oferujący usługi z zakresu pozycjonowania, nie chciałbym rozbudowywać go o zbyt wiele treści, stworzyłem osobny serwis poruszający zagadnienia związane z optymalizacją, czy bez obaw mogę umieścić link do swojej strony firmowej?

Od: Czy wszystkie linki są na temat? Internauci mogą być nimi zainteresowani? Jeżeli obie odpowiedzi są “tak”, to nie widzę problemu. Pamiętaj tylko proszę, żeby nie przesadzać z liczbą linków. Linkowanie do dziesiątek domen może wyglądać podejrzanie.

16. Jakich wykonawców SEO należy unikać?

Od: Osobiście raczej byłbym ostrożny, jeżeli doradca SEO nie jest w stanie dokładnie wyjaśnić, jak zamierza zwiększyć widoczność witryny w Internecie. Polecam również wymaganie jasnego zobowiązania do stosowania etyki white hat, ponieważ bez niej nie można wykluczyć użycia podejrzanych metod. A jak wiadomo, coś takiego może na dłuższą metę wyrządzić więcej szkód niż pożytku. W naszym Centrum Pomocy jest artykuł z konkretnymi wskazówkami na ten temat. No i oczywiście sprawdziłbym referencje wykonawcy.

17. Jak wygląda nasz krajowy rynek SEO na tle innych państw?

Od: Jakieś dwa lata temu bym odpowiedział, że różni się od innych krajów stosowanymi technikami. Na dzień dzisiejszy, różnicę widzę tylko w liczbie ludzi zaangażowanych w ten temat. W porównaniu do innych krajów i biorąc pod uwagę wielkość rynku, odnoszę wrażenie, że na polskim jest nadal mniej osób pracujących w tej branży. Myślę, że polski rynek będzie się dalej rozwijał z podobną dynamiką jak w ciągu ostatnich lat.

18. Jak dużą ilość spamu wyszukiwarkowego generuje się w Polsce w stosunku do np. USA, Niemiec, Wielkiej Brytanii?

Od: Obawiam się, że spam nie zna granic.

19. Poznałem Ciebie osobiście i Waszą firmę od środka - miła, przyjazna atmosfera, normalni ludzie. Mimo to wiele osób związanych z SEO traktuje zespół Google, szczególnie ten zajmujący się jakością wyników, jako ludzi czyhających na każdy ich błąd.

Od: Dziękuję za miłe słowa. Zgadzam się, otoczenie i atmosfera w Google są wyjątkowo dobre. Praca z tą wyjątkową grupą ludzi sprawia mi ogromną przyjemność. Wiem, co masz na myśli, wspominając o webmasterach niedarzących zespołu Search Quality pozytywnymi uczuciami. Jest to jak najbardziej zrozumiałe, że ludzie się denerwują, jeżeli ich strony nie plasują się w wynikach Google tak, jak by sobie tego życzyli. Ale uwierz mi proszę, że nikt z mojego zespołu nie życzy webmasterom niepowodzeń. Wręcz przeciwnie. Jest jak najbardziej w naszym interesie, żeby wiele stron o wysokiej jakości było w naszym indeksie, ponieważ jest to jeden z czynników wpływających na nasze wyniki pracy. Tak naprawdę, wiele osób pracujących nad Search Quality, ze mną włącznie, jest również webmasterami. Z mojego punktu widzenia to wszyscy jesteśmy i pracujemy w tej samej branży.

20. Co poradziłbyś osobom, które dopiero zaczynają interesować się pozycjonowaniem?

Od: Dużo czytać! Jest wiele świetnych źródeł informacji na różne tematy. Oczywiście znajomość Porad Google dla Webmasterów jest konieczna, ale nie zaniedbywałbym również stron z Często Zadawanymi Pytaniami oraz naszej, Tobie dobrze znanej, Grupy Pomocy dla Webmasterów. Polecam również czytanie blogów, takich jak Twój lub Marty oraz wielu innych. No i oczywiście dołączyłbym do najpopularniejszego forum branży PIO, żeby się uczyć na doświadczeniach innych i wyciągać własne wnioski. No i jest jeszcze świetny Przewodnik o SEO napisany przez mojego kolegę i przyjaciela Brandona. Początkującym bardzo polecam.

21. Jak wiemy Feedburner został zakupiony przez firmę Google, czy ilość subskrybentów bloga ma wpływ na ocenę w wynikach wyszukiwania?

Od: Nie, nie ma.

22. Wiele osób skarży się na otrzymywane niesłusznie kary za zbyt duży przyrost linków z systemów wymiany linków, jednocześnie twierdząc, że nie są odpowiedzialni za pozyskiwanie tych linków. Czy taka sytuacja może mieć miejsce?

Od: Linki przychodzące to z pewnością jeden z sygnałów, które bierzemy pod uwagę, ale nie jedyny. Pomyśl na przykład o stażu linków, to jest również czynnik, któremu się przyglądamy. Ale na tym analiza się nie kończy. Dlatego webmaster, który widzi nagły przyrost linków wątpliwej jakości, nie ma powodów, żeby się niepokoić, ponieważ oznacza to wyłącznie, że jakiś złośliwy konkurent marnował czas, bezowocnie próbując zaniżyć pozycję obcej witryny zamiast polepszyć swojej własnej.

23. Czy używanie statystyk Google może mieć wpływ na poprawę pozycji strony w wyszukiwarce?

Od: Nie, korzystanie z Google Analytics nie ma wpływu na pozycję strony w SERPach.

24. Google negatywnie odnosi się do systemów wymiany linków wpływających na Page Rank, jednocześnie zezwalając na reklamę za pomocą systemu reklamowego Adwords.

Od: Jest dokładnie tak, jak mówisz! Co ma sens, ponieważ AdWords jest programem umożliwiającym kierowanie reklam do wybranej grupy docelowej nieprzekazującym PageRank i nienadużywany do celów SEO.

25. Obecnie istnieją certyfikaty Google Analytics, Adwords, czy Google myślało o wprowadzeniu certyfikatu związanego z szeroko rozumianą optymalizacją stron internetowych, wyróżniając w ten sposób osoby prawidłowo optymalizujące serwisy www?

Od: To jest interesujący pomysł, chociaż nie jestem pewien, na ile można by było go zrealizować. Oferta takiego certyfikatu mogłaby dać przewagę webmasterom pracującym dla korporacji w stosunku do właścicieli stron z mniejszymi budżetami. W tej chwili nie mogę potwierdzić żadnych planów w tym kierunku.

26. Jak wiemy użytkownicy wyszukiwarki, wpisując hasło w polu wyszukiwania nie zawsze oczekują takich samym wyników, czy Google zastanawiało się nad wprowadzeniem dedykowanych wyników zależnych od odbiorcy – behawioralne wyniki naturalne?

Od: Zróżnicowane wyniki na to samo zapytanie niekoniecznie oznaczają spersonalizowane wyniki, ponieważ mogą one pochodzić z rożnych Data Center w zależności od nasilenia ruchu oraz geograficznego położenia użytkownika. Nasze wyniki są spersonalizowane, o ile użytkownik jest zalogowany na swoim koncie Google. Na ten temat można długo opowiadać, ale nie chcę tutaj powielać informacji. Zainteresowanym polecam rzucić okiem na sekcję Często Zadawanych Pytań.

27. Podczas GoogleDay na jednej z prezentacji był zaprezentowany etap prac nad analizą języka naturalnego. Wynikało z niego, że jesteście na końcowym etapie analizy zapytań w języku naturalnym. Mając jednak na uwadze, że język polski jest trudniejszy w analizie języka naturalnego, zastanawiam się, czy prace są na podobnym etapie.

Od: W tej chwili nie mogę zdradzać żadnych detali, ale potwierdzam, że ulepszamy naszą analizę semantyczną zarówno dokumentów, jak i zapytań użytkowników.

28. Posiadam stronę w języku polskim. Czy fizyczne położenie serwera względem geolokalizacji ma wpływ na ocenę strony internetowej?

Od: Fizyczne położenie serwera może mieć wpływ na pozycję strony w wynikach na poszczególne zapytania, na przykład geograficzne. Ale podobnie jak mówiłem wcześniej, to jest tylko jeden sygnał brany pod uwagę. Innym jest domena najwyższego poziomu. O ile nie chodzi o krajową domenę jak .pl/ lub .de/, można skorzystać z narzędzia do geolokalizacji w Narzędziach dla Webmasterów i wskazać Google kraj docelowej grupy użytkowników.

29. Strona domowa Google jest przykładem stworzenia wydajnej strony internetowej, czy optymalizacja wydajności strony mająca na celu zwiększenie szybkości ładowania i ograniczenia żądań do serwera np. stosowanie nagłówków expires, css sprite ma wpływ na ocenę strony internetowej?

Od: Zaskakująco niewiele stron w Internecie jest zbudowanych z uwzględnieniem wydajności lub nawet wg jakichkolwiek standardów. Myślę, że wiele stron aktualnie plasujących się na czołowych pozycjach zniknęłoby, gdybyśmy uwzględniali ten czynnik. Z drugiej strony, przypuśćmy, że bot napotyka trudności w przemierzaniu strony bogatej w treść. Jeżeli ta sytuacja się powtarza, to częstotliwość jego odwiedzin może się zmienić, co wpływa na odświeżanie informacji w naszym indeksie. W tej chwili wydajne kodowanie ma sens, ale jeżeli webmaster postara się wyłącznie o to, żeby bot mógł jego witrynę pobrać, to też powinno wystarczyć. Aczkolwiek, jak wiesz bez przerwy eksperymentujemy i ulepszamy nasze algorytmy. Dlatego nie wykluczałbym możliwości uwzględniania tego czynnika w przyszłości.

30. Wykluczając samo indeksowanie dokumentów i ułatwienie dotarcia do nich robotom Google, które możemy umożliwić przez mapę strony to, jaka struktura linkowania wewnętrznego jest najlepsza względem rozkładu PageRank?

Od: To pytanie pada regularnie. Nie ma czegoś takiego jak idealna strategia, którą mógłbym zdradzić, dlatego że wpływ, który wewnętrzne linki mogą mieć na pozycje strony ulega z czasem zmianom. Moja osobista rada to, żeby nie spędzać zbyt dużo czasu na aktywnym kierowaniu wewnętrznego przepływu PageRank. Wystarczy linkować dokumenty wewnątrz witryny tak, żeby zarówno boty jak i użytkownicy mogli za nimi podążać.
Pedanci wśród webmasterów korzystających z CMSów mogą nadać nofollow do loginu części administracyjnej, ponieważ ani odwiedzający, ani bot z tego linku nie skorzysta. Albo wykluczyć ten dział strony w robots.txt, równocześnie lekko podnosząc standard zabezpieczeń witryny przed hakerami, nieustannie usiłującymi manipulować strony i nadużywać ich reputacji.
Pamiętaj jednak proszę, że nie możesz wykluczyć indeksowania dokumentów korzystając z Sitemaps.

31. Jeżeli treść mojej strony powielana jest na wielu innych serwisach bez mojej zgody, to może mieć to negatywny wpływ na ocenę mojej strony?

Od: Nie martwiłbym się tym. Spotykam się z tym pytaniem ciągle i odpowiedź jest wciąż ta sama. Myślę, że wiele osób byłoby zdumione, jak precyzyjnie algorytm Google identyfikuje oryginalne źródło informacji. Czy strony ze skopiowaną treścią pojawiały się w SERPach wyżej niż oryginalne witryny? Tak. Ale z biegiem czasu widać, że coś takiego nie zdarza się nagminnie. Moim zdaniem nie ma się, czym martwić.

32. Pozycjonuje witrynę celem jest osiągnięcie wysokiej pozycji, jednak miewam przypadki, że moje podstrony znajdują się wysoko w wynikach dla słów kluczowych, które nie były moim celem jak i użytkownicy nie wykazują dużego zadowolenia generując w ten sposób duży procent porzuceń. Czy jest jakiś sposób, by poinformować Google, że podstrony naszego serwisu pojawiają się dla haseł, które niekoniecznie odpowiadają treści lub użytkownikowi. Np. opcja w narzędziach dla webmasterów - blokuj dla tego hasła.

Od: Obecnie nie ma możliwości blokowania hasła dla konkretnej strony. Najlepszą metodą wpływania na to, jak Google traktuje dokument jest analiza i ewentualnie odpowiednia aktualizacja treści.

33. Wielu właścicieli stron obawia się negatywnego wpływu linkowania przez konkurencję za pomocą systemów wymiany linków. Czy istniałaby możliwość wprowadzenia kontroli nad tym, kto linkuje do witryny, nie przez odrzucanie linków ale np. przez ich akceptacje w narzędziach Google dla webmasterów? Właściciel strony internetowej posiadałby pełną kontrolę nad linkami wskazującymi.

Od: Jak wspominałem w moim poście o niechcianych linkach to nie jest problem, który powinien webmasterom spędzać sen z powiek. Propozycja możliwości akceptowania lub odrzucania linków w Narzędziach dla Webmasterów padała nie raz i bierzemy ją pod uwagę, ale nie jest ona w chwili obecnej traktowana pierwszorzędnie.

34. Ostatnimi czasy bardzo wiele witryn jest atakowanych, podczas udanego ataku doklejany jest kod pobierający złośliwe oprogramowanie. Czy taka sytuacja, poza pojawieniem się komunikatu w wynikach, wpływa negatywnie na pozycję serwisu?

Od: O ile treść strony nie została zmieniona, problem niebezpiecznego kodu generalnie nie powinien mieć długotrwałego wpływu na ranking, chociaż nie można wykluczyć, że podczas ponownej oceny strony może dojść do tymczasowych wahań. Mam na myśli jedynie strony, które są hakowane w celu rozpowszechniania złośliwego oprogramowania.

Sytuacja przedstawia się inaczej, jeżeli haker zmieni treść strony, np. dodając masę ukrytych linków. Wtedy mozliwe jest, że będziemy próbowali nawiązać kontakt z właścicielem strony lub odpowiedzialnym webmasterem, aby go/ją powiadomić o tymczasowym usunięciu witryny z wyników Google. Mail który staramy się wysłać zawiera również informacje, gdzie znajduje się treść wstawiana przez hakera oraz jakie są kolejne kroki w celu ponownego rozpatrzenia strony, po jej wcześniejszym naprawieniu.

35. Wielu seomasterów uważa, że linki w treści są mocniejsze niż pod artykułem. Osobiście, uważam to trochę sprzeczne z logiką. Jeżeli tworzę ciekawy artykuł to mogę się odnieść w treści do dołu podstrony, gdzie jest zestaw źródeł uzupełniających. Umieszczenie linka zewnętrznego w treści zmusza użytkownika do przejścia na kolejną domenę nie pozwalając mu na zapoznanie się z całym artykułem, lub zmuszając go do przewijania strony. Czy wg Ciebie z pkt widzenia SEO i użyteczności lepiej jest umieścić linki zewnętrzne uzupełniające zawartość w treści artykułu, czy pod artykułem w treści pozostawiając jedynie link do sekcji z danym odnośnikiem zewnętrznym?

Od: Osobiście nie podważałbym zdolności użytkowników, co do odnalezienia się na stronach o zróżnicowanej nawigacji. Patrząc z perspektywy użyteczności, nie uważam, że linki w tekście stanowią gorsze rozwiązanie niż linki w stopce. Nie chciałbym polecać żadnego rozwiązania, ponieważ sądzę że oba mogą mieć swoje zastosowanie. Ostatecznie jest to decyzja webmastera, co jest najbardziej użyteczne dla jego grupy docelowej.

36. Czy Google rozpoznaje subdomeny, darmowe aliasy, domeny regionalne i funkcjonalne w PL?

Od: Tak. Mieliśmy drobny problem z regionalnymi domenami w Narzędziach dla Webmasterów ale na szczęście został on szybko rozwiązany.

37. Z czego wynikają różne odstępy czasu pomiędzy kolejnymi aktualizacjami Page Rank, kiedy można spodziewać się kolejnej aktualizacji?

Od: PageRank jest dla nas nadal istotnym czynnikiem i jest obliczany nieustannie. Ponieważ podlega on ciągłym zmianom, zalecamy webmasterom aby nie przywiązywali do niego zbyt dużej uwagi. Dlatego też sporadyczne aktualizacje PageRank w Google Toolbar nie są ogłaszane ani tłumaczone.

38. Właściciele stron często zbyt ogólnie dobierają słowa kluczowe. Np właściciel forum motoryzacyjnego chciałby pozycjonować się na hasło “forum”, a właściciel agencji nieruchomości w Szczenie na hasło “Szczecin”. Najczęściej kończy się to długim oczekiwaniem na efekt, słabą skutecznością lub całkowitym brakiem efektu. Bardzo podobnie sytuacja wygląda w przypadku prowadzenia kampanii AdWords. Osobiście zawsze przeprowadzam wstępne rozeznanie przy pomocy próbnej kampanii AdWords, analizując jakość i ilość ruchu. Jakie zasugerowałbyś rozwiązania ułatwiające dobór słów kluczowych by odradzić użytkownikom pozycjonowanie się na zbyt ogólne słowa kluczowe.

Od: Interesujące pytanie. Jedną z metod, która wydaje się dawać dobre rezultaty w przypadku stron na jeden konkretny temat jest krótka ankieta wśród przyjaciół lub rodziny. Prosząc o opis tematu strony można ustalić, czego poszukiwać mogą internauci. Ta metoda nie jest może bardzo naukowa, ale za to zaskakująco efektywna. Zachowanie użytkowników zmienia się bez przerwy i obserwujemy trend w kierunku wyszukiwania fraz składających się z więcej niż jednego czy dwóch słów. Jest to dobra wiadomość dla webmasterów, ponieważ umożliwia tworzenie treści, jaka skuteczniej przyciąga użytkowników szukających bardziej specyficznego tematu. Nie zapominałbym również o dopasowaniu słownictwa używając na przykład slangu, o ile jest on akceptowany przez grupę docelową. Warto także przyjrzeć się synonimom słów kluczowych, ponieważ jest całkiem możliwe, że użytkownicy będą z nich korzystać.

39. Gdybyś szukał firmy SEO, to na co zwróciłbyś swoją uwagę?

Od: Swoją własną stronę zoptymalizowałbym sam ;-) Tak na serio, jeśli szukałbym doradcy SEO to w pierwszej kolejności zapytałbym się moich przyjaciół. Nic nie zastąpi rad kogoś, komu się ufa. Warto również zajrzeć do Centrum Pomocy dla Webmasterów, gdzie znajduje się dokument opisujący na co należy zwrócić uwagę wybierając usługodawcę SEO. Zobowiązanie wykorzystania metod white hat oraz kompletny wgląd w każde wdrażane ulepszenie są tutaj absolutnie niezbędne. Byłbym ostrożny w przypadku firm obiecujących konkretne pozycje w wynikach, ponieważ nie jest to coś, co ktokolwiek może gwarantować.

40. Czy zgłaszanie stron naruszających wytyczne dla webmasterów ma sens? Wielu webmasterów poruszało ten temat na forum sugerując jednocześnie, że przesłane zgłoszenia nie były rozpatrywane.

Od: Jest to popularne pytanie i szczerze rozumiem rozczarowanie webmasterów, którzy po zgłoszeniu spamującej strony nie widzą natychmiastowych zmian. Pozwól, że wyjaśnię nieco proces, który kryje się za zgłoszeniami. Dostajemy ich wiele, a wśród nich znajdujemy liczne interesujące poszlaki. Przychodzące raporty są sortowane wg. widoczności zgłaszanych stron w wynikach Google i tym samym dla naszych użytkowników. Kiedy zgłoszona zostaje strona, którą wyszukuje wiele osób, to stronę taką potraktujemy zapewne priorytetowo, w odróżnieniu do witryn, które są mniej widoczne w SERPach. Samo sprawdzenie zgłoszenia to proces manualny, którym się zajmują pracownicy Google - wbrew różnym plotkom ;-)
Konsekwencje zgłoszenia zależą od tego, czy coś jest nie tak na stronie. Mogą to być ręcznie nakładane sankcje, jeżeli zgłoszona witryna nie jest zgodna z poradami Google dla webmasterów. Często analiza zgłoszenia wpływa na rozwój nowych algorytmów, w celu polepszenia jakości wyników wyszukiwania na dużą skalę. Dlatego efekt w SERPach może być mało widoczny, co nie oznacza, że zgłoszenie nie zostało rozpatrzone i że poszło na marne.

41. Jeszcze rok temu było wielu zwolenników systemów wymiany linków, obecnie jednak obserwuje coraz większą ilość osób niezadowolonych z istnienia systemów. Czy zauważyliście jakieś zmiany w zachowaniu webmasterów i podejściu do SWL?

Od: Cieszę się, że podejmujesz ten temat. Zgadzam się, że dwanaście
miesięcy temu świadomość szkód, jakie może wyrządzić wykorzystywanie SWLi przekazujących PageRank na reputacje witryny była raczej niewielka. Na szczęście obserwujemy rezultaty naszych prób wyjaśnienia zdania Google w tej kwestii. Liczba witryn narażających swoje pozycje w Google przez emitowanie SWLi spada. Temu tematowi nadal poświęcamy uwagę i myślę, że nasze kolejne kroki będą jeszcze bardziej odczuwalne i pomogą zmniejszyć popularność SWLi przekazujących PageRank.

42. Google Caffeine - czytałem blog Matt Cuttsa na temat planowanych zmian w algorytmie Google jak i sposobie analizowania danych. Zdaje sobie sprawę, że większość nowych rozwiązań w algorytmie jest wprowadzana najpierw w języku EN a dopiero później w języku PL. Dostaję jednak wiele zapytań jak i czytam w wielu miejscach, że webmasterzy zauważają zmiany i stopniowe wprowadzanie Google Caffeine do wyników PL. Osobiście jednak uważam, że wprowadzenie Google Caffeine do wyszukiwania w języku polskim jeszcze trochę potrwa a zmiany będą zauważone najpierw na poziomie języka EN.
Czy możesz powiedzieć coś więcej na temat planowanych zmian?

Od: Wątpię, żeby wprowadzenie Caffeine było bardzo widoczne w wynikach, niezależnie od języka. Żadne niedawno zauważone zmiany nie są związane z Caffeine, ponieważ jeszcze nie zostały one wdrożone do naszych systemów produkcyjnych. Podejrzewam, że chodzi tu o normalne, regularne aktualizacje indeksu. Nie jest wykluczone, że po wdrożeniu Caffeine zaawansowani użytkownicy będą widzieli drobne różnice, ale na tym koniec. Celem Caffeine jest ulepszenie naszej infrastruktury, szybkości i precyzji zwracania wyników dla użytkowników, a nie rotacje w SERPach. Masz racje co do planu wdrażania, które będzie odbywało się stopniowo przez dłuższy okres czasu. Szczegółów na ten temat nie będziemy wcześniej ogłaszać.

43. Chciałbym przygotować następny wywiad w postaci podcastu, czy istnieje taka możliwość?

Od: Jestem zainteresowany nowymi kanałami komunikacji z webmasterami, więc sądzę, że możemy się nad tym zastanowić.

—————–
Jeżeli posiadacie dodatkowe pytania proszę zamieszczajcie je w komentarzach.
Krótkie odniesienie do wywiadu, dodatkowe wnioski w godzinach wieczornych.
Dziękuje za zapoznanie się z najbardziej obszernym wywiadem z SQT.
Pozdrawiam
Mariusz - Szook

Nie udzielam pomocy na PW / PM / Priv. Wszelkie pytania proszę pisać na forum, w temacie otrzymasz więcej opinii.




Podobne tematy Zwiń

  Temat Forum Autor Podsumowanie Ostatni post

Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości, 0 anonimowych

Ikona FaceBook

10 następnych tematów

Plany treningowe i dietetyczne
 

Forum: 2002 : 2003 : 2004 : 2005 : 2006 : 2007 : 2008 : 2009 : 2010 : 2011 : 2012 : 2013 : 2014 : 2015 : 2016 : 2017 : 2018 : 2019 : 2020 : 2021 : 2022 : 2023 : 2024