Google Data Studio dostępne w Polsce

Google Data Studio, usługa służąca do wizualizacji danych, została udostępniona w 180 krajach, w tym również w Polce. Dotychczas z Data Studio mogli korzystać jedynie użytkownicy ze Stanów Zjednoczonych.

Czym jest Google Data Studio?

Google Data Studio jest bezpłatną usługą wchodzącą w skład (niestety płatnego) pakietu Analytics Suite 360. Data Studio pozwala na importowanie danych z usług takich jak Google Analytics, AdWords czy Youtube i wizualizację ich w formie prostych, czytelnych wykresów, map cieplnych, map geograficznych itp.

Google Data Studio dostępne jest pod adresem https://www.google.com/analytics/data-studio/.

Google: Przeciętny czas wczytania strony mobilnej to 22 sek., użytkownicy opuszczają stronę po 3 sek.

Google opublikowało raport nt szybkości wczytywania stron mobilnych i jego wpływu na współczynnik odrzuceń. Badanie zostało przeprowadzone na próbce 900 tys. witryn przygotowanych na urządzenia mobile pochodzących ze 126 krajów.

Według firmy z Mountain View przeciętny czas wczytywania strony mobilnej na połączeniu 3G to 22 sekundy. Natomiast 53% użytkowników zazwyczaj opuszczają stronę jeśli nie wczyta się ona w ciągu 3 sekund.

Z raportu można dowiedzieć się m.in.

  • 70% badanych stron potrzebowało blisko 7 sekund na wczytanie treści widocznej na pierwszym ekranie,
  • motoryzacja, ecommerce i technologie to branże, w których strony wczytują się najdłużej,
  • branża finansowa może pochwalić się najlżejszymi stronami, przeciętna waga strony finansowej to 1,3 MB (dla porównania w branży motoryzacyjnej strony na urządzenia mobilne ważą ok. 2,1 MB).

Pełen raport z przeprowadzonego przez Google badania dostępny jest pod adresem https://www.thinkwithgoogle.com/articles/mobile-page-speed-new-industry-benchmarks.html.

DMOZ, otwarty katalog stron WWW, zostanie zamknięty 14 marca 2017 r.

DMOZ, największy katalog stron WWW redagowany przez ludzi, zostanie zamknięty 14 marca 2017 roku. Informacja o zamknięciu katalogu została podana na stronie głównej portalu. Nie przedstawiono przyczyny podjęcia takiej decyzji ani informacji o tym co stanie się z zasobami DMOZ.

DMOZ, zwany również Open Directory Project, powstał w 1998 roku z inicjatywy Richa Skrenty i Boba Truela. Założycielom DMOZa przyświecała idea skatalogowania zasobów WWW Internetu przez ludzi działających w ramach wolontariatu.

W trakcie blisko 20 lat swojej historii w zasobach DMOZa znalazło się ponad 3,8 mln stron internetowych i ok. 1 mln kategorii tematycznych. W porządkowaniu katalogu wzięło udział przeszło 90 tys. wolontariuszy.

DMOZ a SEO

Kilkanaście lat temu linki z Open Directory Project były szczególnie cenione przez specjalistów SEO. Wpis w katalogu wraz z odnośnikiem był umieszczany nie tylko w mocniej domenie DMOZ.org ale także w kopii katalogu działącej w domenie Google.com (nie funkcjonujący już adres http://directory.google.com) oraz na dziesiątkach tysięcy kopii DMOZa stawianych przez pozycjonerów w ramach zaplecza SEO.

Google Webmaster Central Hangout z Johnem Muellerem z 16 grudnia 2014 r.

Znalazłem chwilę czasu, aby obejrzeć wczorajszy Google Hangout z Johnem Muellerem. Poniżej moje notatki, w których zapisałem co ciekawsze odpowiedzi Johna.

Przypominam, że używam sporo skrótów myślowych i nie notuję słowo w słowo wypowiedzi Johna i innych uczestników Hangoutu.

  1. Czy canonical przekaże PageRank dokładnie w taki sam sposób w jaki robi to przekierowanie 301?

    Canonical działa w bardzo podobny sposób co przekierowanie 301. Jednakże Google w przypadku canonicala w pierwszej kolejności musi zaindeksować adres, z którego prowadzi canonical, a dopiero później podejmie decyzje jak owego canonicala potraktować. Jeśli Googlebot nie napotka żadnych problemów to z dużym prawdopodobieństwem owy canonical zostanie potraktowany jak 301.

    Przekierowanie 301 na pewno szybciej zostanie zauważone i z całą pewnością przekaże PR. Przy canonicalu potrwa to dłużej, ponieważ Google musi porównać ze sobą strony.

  2. Czy używanie domen z wiekiem ma wpływ na ranking Google?

    Tak, Google sprawdza wiek domeny. Jednakże ten czynnik ma bardzo niewielki wpływ na ranking.

    Google stara się rozpoznać domeny, które nie zostały przedłużone i nie przypisywać przechwyconym domenom czynników takich jak wiek.

  3. Czy po zmianie struktury URL i ustawieniu dużej ilości przekierowań 301 można spodziewać się kłopotów ze strony Google?

    Nie, wszystko powinno działać prawidłowo.

  4. Czy zachowanie użytkowników ma wpływ na ranking Google (np. CTR w wynikach organicznych)? Czy takie rzeczy jak kampania AdWords również brane są pod uwagę przy ustalaniu rankingu?

    Nie.

  5. Co może być przyczyną tego, że wersja mobilna witryny wyświetla się w wynikach wyszukiwania dla dekstopów? Tagi alternate oraz canonical są ustawione prawidłowo.

    Canonicale mogły nie zadziałać. Należy sprawdzić czy wersja mobilna witryny nie różni się zbytnio od desktopowej.

  6. W jakich przypadkach Fetch as Googlebot może nie zadziałać?

    W przypadku gdy Google coś zepsuło ;), gdy serwer jest tak powolny, że Googlebot nie jest w stanie go przecrawlować albo przekroczyliśmy crawling budget.

  7. Jak powinno postępować się w przypadku treści, które deaktualizują się po określonym czasie i są usuwane z serwisu [przykładowo – aukcje internetowe]. Czy przekierowanie 301 na stronę kategorii, do której była przypisana usunięta podstrona, to dobre rozwiązanie?

    W takim przypadku przekierowanie 301 na stronę kategorii czy na stronę główną serwisu potraktowane będzie jako soft 404. Jedyna różnica w tym przypadku jest taka, że w przypadku przekierowań Googlebot będzie co jakiś czas sprawdzać adresy posiadające 301. Zatem przy większych serwisach i dużej ilości tego rodzaju przekierowań należy uważać na crawling budget.

    Prawidłowym rozwiązaniem w takiej sytuacji jest wyświetlenie odpowiedzi 410.

    Można zwrócić 404 lub 410 ale wyświetlić zawartość normalnej strony (np. kategorii). Nie trzeba pokazywać użytkownikom, że to strona błędu.

  8. Czy algorytm Google bierze pod uwagę sygnały z social media?

    Nie.

  9. Czy podwójne przekierowanie 301 [redirect chains] stanowią problem dla Googlebota?

    Podwójne przekierowanie nie stanowi problemu. Googlebot jest w stanie przecrawlować do 5 przekierowań jednocześnie. Dopiero powyżej 5 przekierowań w łańcuchu Google musi podejść do tego jeszcze raz.

  10. Czy CSS i JS trzeba udostępniać dla stron mobilnych?

    Tak. Bez dostępu do tych plików Google nie jest w stanie z całą pewnością stwierdzić czy strona jest rzeczywiście przyjazna do przeglądania na urządzeniach mobilnych. Strona blokująca te pliki nie otrzyma odznaczenia Mobile friendly.

    Witryna przyjazna użytkownikom mobilnym

  11. Czy witryna z bardzo słabą optymalizacją i czynnikami on-site może zajmować lepsze pozycje od dobrze zoptymalizowanej witryny tylko dlatego, że ma lepsze backlinki?

    Tak. Nawet w przypadku gdy content jest zablokowany przed Googlem albo to content, którego Google nie do końca rozumie (np. strona typu Pinterest oparta głownie zdjęciach) Google podejmie decyzje o rankingu na podstawie czynników zewnętrznych takich jak linki.

  12. Parametr site zwraca określoną liczbę wyników dla danej domeny. GWT pokazuje zupełnie inną liczbę zaindkesowanych podstron dla tej samej domeny. Która z nich jest prawidłowa?

    Żadna. Najrozsądniejszym wyjściem jest stworzenie dokładnych map XML i zwracanie uwagi na stan indeksacji URLi dodanych do tych map.

Google Webmaster Central Hangout z Johnem Muellerem z 10 października 2014 r.

Przedwczoraj odbył się kolejny hangout dla webmasterów poprowadzony przez Johna Muellera. Tym razem w ciągu przeszło godzinnej sesji John przedstawił z jakimi błędami, popełnianymi przez webmasterów, spotyka się najczęściej. Większość z omawianych kwestii była dość prosta, notowałem tylko co ciekawsze fragmenty.

  • Jednym z najprostszych sposobów na poinformowanie Google o nowej treści na stronie jest kanał RSS/Atom, należy pamiętać aby daty w feedzie RSS/Atom były zgodne z tymi podanymi w mapie XML.
  • Sitemapa XML może być również bardzo dobrym sposobem na poinformowanie Googlebota o nowej treści na stronie. Należy jednak zadbać o to, aby data ostatniej modyfikacji pliku (lastmod) była prawidłowa. Inaczej, przykładowo gdy wszystkie daty w pliku mapy są dokładnie takie same, Google nie będzie brał ich pod uwagę.
  • Duplikacja treści w obrębie tej samej domeny nie jest problemem, który może przyczynić się do nałożenia filtru na witrynę. Może jednak zdarzyć się tak, że przez duplikowaną treść będą opóźnienia w indeksowaniu nowej. John zobrazował to na diagramie, który na nagraniu widoczny jest w okolicach 9 minuty (zrzut z diagramem wrzuciłem poniżej).
  • Nie powinno się blokować dostępu do zduplikowanych treści przez plik robots.txt. Googlebot i tak to przecrawluje, nie będzie jednak w stanie określić zawartości blokowanych stron. Jeśli nie ma możliwości rozwiązania problemu duplikacji przez ustawienie przekierowań 301, wstawienie canonicali lub ustawienie blokowania parametrów URL z poziomu Narzędzi Google dla webmasterów (jeśli problem dotyczy parametrów w adresie) to lepiej jest zostawić zduplikowaną treść do indeksacji robotowi niż ją zablokować przez robots.txt. Google sam ustali, że jest to treść powielona i sobie z nią poradzi.
  • Nie należy blokować przed robotami zewnętrznych plików JavaScript, CSS czy stron mobilnych (np. m.domena.pl). Google ma możliwość zrenderowania strony WWW, blokada tych plików oczywiście to utrudni.
  • Do GWT powinno zgłaszać się wszelkie możliwe adresy tej samej strony (z przedrostkiem WWW, bez przedrostka, http oraz https).
  • Priorytety (priority) podawane w sitemapie XML nie są brane pod uwagę przez Googlebota. Mogą mieć znaczenie przy Google Custom Search (jednak co do tego John nie miał pewności).
  • Google renderując witrynę stara się odnaleźć zakryte części kontentu i nadać im mniejsze znaczenie bądź zupełnie zignorować.
  • W przypadku duplikacji treści pomiędzy różnymi domenami może przytrafić się tak, że to strona kopiująca treść zajmuje wyższe pozycje od strony, która posiada oryginał. Taka sytuacja może mieć miejsce jeśli witryna, która posiada oryginalne treści, ma problemy w Google (np. z dostępnością, posiada filtry itp.).

Jak Google indeksuje treści

Diagram przedstawiający w którym momencie duplikacja treści występująca w obrębie tej samej domeny może stać się problematyczna. Adresy do przecrawlowania przez Googlebota oczekują w kolejce. Jeśli witryna ma sporo zduplikowanej treści to kolejka może się wydłużyć przez co nowa treść może być indeksowana z opóźnieniem.

Google Webmaster Central Hangout z Johnem Muellerem z 12 września 2014 r.

12 września odbył się kolejny Google Webmaster Central Hangout z Johnem Muellerem. John przez godzinę czasu odpowiedział na blisko 30 pytań od webmasterów. Z HO można było dowiedzieć się m.in.:

  • czy powielona treść może negatywnie wpłynąć na ranking witryny
  • jaki wpływ na ranking mają słowa kluczowe umieszczone w meta description (odpowiedź jest oczywista, ale specjalnie zanotowałem, ponieważ w pracy często spotykam się z tego rodzaju pytaniami)
  • w jaki sposób przyspieszyć przeindeksowanie strony WWW
  • wskaźnik PageRank nie będzie odświeżany w najbliższym czasie
  • jak Google traktuje treści przysłonięte przez zakładkę lub pod przyciskiem czytaj więcej
  • czy można wyjść z Pingwina zgłaszając nienaturalne linki do disavow tool
  • kiedy pojawi się Pingwin 3.0

Cały HO dostępny jest na Youtube:

Poniżej podsumowanie pytań i odpowiedzi, które uznałem na tyle ciekawe, że warto je zanotować. Pisałem na szybko także nie jest to tłumaczenie słowo w słowo zapisu z HO.

1. Czy istnieje możliwość, że w przyszłości w Google Webmaster Tools (GWT) pojawią się informacje o algorytmicznych karach (np. takich jak Pingwin czy Panda)?
Kary algorytmiczne są ściśle związane z ustalaniem rankingu Google i informacje o nich nie powinny być widoczne na zewnątrz. John Mueller chciałby pokazać więcej informacji w GWT, jednakże powiadomienia o karach algorytmicznych raczej tam się nie pojawią.

2. W przypadku gdy sklep internetowy posiada produkty, których opisy pochodzą od dystrybutora i są dostępne na innych witrynach, czy warto blokować strony przed indeksowaniem, aby sklep nie otrzymał kary od Google za duplikację treści?
Google nie nałoży kary za duplikację treści. Strony ze zduplikowaną treścią nie zajmą wysokich pozycji albo wejdą na miejsce innych stron, które mają dokładnie ten sam kontent.

Noindex należy dać tylko w przypadku gdy treść jest naprawdę niskiej jakości. Dodanie unikalnego kontentu na pewno będzie wartością dodatnią witryny.

3. Czy warto dodawać słowa kluczowe z długiego ogona do meta description w celu osiągnięcia lepszych pozycji dla mniej konkurencyjnych fraz?
Meta description nie jest używane do ustalenia rankingu. Brane jest jedynie do tego, aby utworzyć snippet.

4. Google miał problem z pokazywaniem prawidłowych wyników na trzyjęzycznej witrynie (angielski, francuski i niemiecki). Zdarzało się tak, że użytkownicy z Niemiec widzieli wyniki z anglojęzycznej części strony i vice versa. W celu rozwiązania tego problemu ok. 3 tygodni temu wprowadzono hreflang. Jednak od czasu implementacji hreflanga nie zauważono żadnych zmian. Ile czasu zajmie wyszukiwarce zrobienie z tym porządku? Strona ma zaindeksowanych ok. 3 mln podstron.
Przede wszystkim Google musi przecrawlować wszystkie wersje językowe co, w zależności od wielkości witryny, może potrwać nawet kilka miesięcy. Jednak pierwsze efekty powinny być zauważalne już po ok. 4 tygodniach.

5. Co można zrobić, aby przyspieszyć proces przeindeksowywania i czy lepiej jest umieścić hreflang w kodzie strony czy w mapie XML?
Oba rozwiązania spełnią swoje zadanie – zarówno mapa XML jak i tag alternate w kodzie witryny i oba działają z taką samą „prędkością”, Google i tak musi te strony przecralować. W celu przyspieszenia reclawlingu można dodać mapę XML ze zmodyfikowanym kodem lastmod ze świeżą datą.

6. Czy w przypadku gdy użytkownik z Niemiec wchodzi z wyników wyszukiwania na angielską wersję to czy powinno się go przekierować na wersję niemiecką (według wskazania hreflanga)?
Jeśli przekierujesz tylko użytkownika, a nie Googlebota wtedy Google potraktuje to jako cloacking. Może to być mylące dla robotów wyszukiwarek. Nie należy w ten sposób przekierowywać użytkowników. Lepiej jest im wyświetlić informację o dostępności witryny w ich języku, jeśli użytkownik taki kliknie w inną wersję to zapisać to w cookie i następnym razem skierować go na odpowiednią wersję językową.

7. Jeśli część kontentu jest ukryta za przyciskiem „czytaj więcej” to czy wpływa to negatywnie na jego ocenę przez algorytm Google?
W pewnym stopniu Google rozpoznaje gdy tekst jest ukryty w taki sposób i ocenia go jako mniej ważny. Zatem najlepiej jeśli naprawdę ważny rzeczy nie były ukryte za przyciskami typu czytaj więcej czy za dodatkowymi zakładkami. Można jednak używać takich rozwiązań, np. do ukrywania mniej istotnych treści na stronie.

8. Czy adresy URL na stronach nie będące linkami (implied links) są brane przez Google pod uwagę, czy są częścią algorytmu (jeśli nie to czy będą i kiedy)?
Pytanie dotyczyło tego, że Google niedawno opatentował implied links. John nie odpowiedział na pytanie użytkownika jedynie wspomniał, że posiadanie patentu nie oznacza, że opisywana w owym patencie metoda jest używana lub kiedykolwiek będzie.

9. Czy usunięcie (lub zgłoszenie do disavow) nienaturalnych linków pomoże w przypadku filtra algorytmicznego Pingwin?
Te działania będą wzięte pod uwagę i możliwe, że witryna pozbędzie się nałożonej kary przy kolejnej aktualizacji Pingwina.

10. Gdy strona otrzymała filtr Pingwin i pozbyła się wszystkich nienaturalnych linków to czy warto inwestować w rozwój tej witryny? Jaka jest pewność, że kara algorytmiczna zostanie usunięta przy następnym odświeżeniu algorytmu Pingwin? Czy istnieje sposób na sprawdzenie czy witryna ma nadal karę algorytmiczną? PageRank witryny, o której mowa, został wyzerowany.
W przypadku gdy PageRank witryny został wyzerowany to najprawdopodobniej było to zrobione ręcznie, a nie algorytmicznie. Informacje o działaniach ręcznych dot. witryny będą oczywiście widoczne w GWT.

Nie warto zwracać uwagi na wskaźnik PageRank. Nie był aktualizowany od blisko roku i prawdopodobnie w najbliższym czasie nie będzie aktualizowany w ogóle.

Jeśli witryna oberwała Pingwinem, a problematyczne linki zostały usunięte, a tych których nie dało się usunąć zostały zgłoszone do disavow wtedy najprawdopodobniej przy kolejnej aktualizacji algorytmu witryna wyjdzie z tej kary.

Kolejna wersja Pingwina powinna pojawić się w tym roku. Inżynierowie Google nad tym pracują, nie ma jednak szczegółów kiedy to się pojawi.

11. Czy Google testuje nowe algorytmy na próbkach „żywych” wyników? Czy można było zauważyć takie testy w ciągu ostatnich kilku miesięcy?
Tak, takie testy są robione na żywych wynikach. Matt Cutts w marcu 2014 r. opowiadał o tym jak testowane są nowe algorytmy. Najpierw testy robione są z Quality Raterami w formie testów A/B, później na niewielkim procencie ruchu w Google i sprawdzane jest jak użytkownicy reagują na takie zmiany. Testy robione są nie tylko pod kątem zmian w algorytmie rankującym, także UI itp. Takie testy prowadzone przez cały czas, czasem nawet po 100 jednocześnie.

12. Czy Pingwin 3.0 wejdzie w 2014 r.?
John Mueller twierdzi, że tak ale nie ma 100% pewności.