Встречи John Mueller с вебмастерами Google

Встречи John Mueller с вебмастерами Google

shmeo

при поддержке SEO БУРЖ Чата - https://t.me/seo_burzh_chat

Google Webmasters Hangout 21 сент. 2018 г


Тема: mobile-first indexing, размещении страниц товаров на JavaScript, отложенных загрузках и другом.


1) Колебания в ранжировании мобильных страниц вызваны рекраулингом Googl-а и обновлением сайта

Если после переключения на mobile-first indexing сайт переживает колебания в ранжировании, то скорее всего это происходит из-за потребности Googl-а заново просканировать сайт и отправить новые данные в индекс


2) Переход сайта на mobile-first indexing НЕ базируется на мобильном трафике

Googlе не учитывает мобильный трафик для принятия решения о том, какие сайты переключить на мобильную индексацию


3) Сайт не будет пенализирован из-за того, что какой-то контент для программ чтения с экрана был скрыт

Сайт не получит пенальти от Googlе, если созданная для чтения с экрана страница содержит скрытый контент. Важное условие: скрытый контент должен согласовываться с остальным контентом, в противном случае команда анти-спама может расценить страницу как попытку обмануть поисковую систему


4) Googlе не устанавливает конкретный пороговый показатель для готовности к mobile-first indexing. Текстовый и визуальный контент, структура и внутренние ссылки оцениваются по отдельности.


5) В данный момент accessibility не является ранжирующим фактором

В компании Googlе ходят разговоры о том, чтобы учитывать accessibility как ранжирующий фактор в будущем, но сейчас эта концепция не работает


6) Интернет-магазинам следует избегать страниц товаров на JavaScript

Большим интернет-магазинам не следует размещать страницы товаров на JavaScript, так как новые товары могут индексироваться спустя несколько недель (в отличие от быстрого сканирования HTML контента).


7) Используйте pre-рендеринг для новых рамок JavaScript, тогда Googlе сможет их проиндексировать

Google использует устаревший Chrome 41 для pre-рендеринга, так что Googlе бот может застрять на этапе рендеринга новых рамок таких, например, как JavaScript ES6. Чтобы избежать подобной проблемы, используйте pre-рендеринг


8) Для Googlе сложно масштабно улучшить сервисы рендеринга

У Googlе есть планы улучшить сервисы рендеринга, но это займёт много времени. Особенно сложно ввести масштабные изменения для многомиллионных сайтов.


9) Ранжирование и алгоритмы Google News работают иначе чем для результатов органического поиска


10) Сайты, которые дублируют контент с другого сайта, но добавляют полезную информацию, будут ранжироваться выше, чем сайты первоисточники

Если другой сайт заимствует изображения с вашего сайта, но создаёт дополнительную ценность, описательный контент, то страница конкурентов будет ранжироваться выше вашего сайта благодаря дополнительной ценности. Это случиться даже не смотря на то, то ваш контент - первоисточник. Помочь первоисточнику сможет DMCA жалоба на тот ресурс, который забрал полностью или частично контент себе. Видео в тему: DMCA войны - как выжить в таком SEO зашкваре?






11) Googlе бот не использует функции поиска по вашему сайту чтобы найти страницы

Googlе бот не знает что искать на сайте, так что не будет использовать внутренний поиск для анализа контента. Редким исключением станет вариант, когда сайт нормально не краулится, и страницы могут быть просканированы только через внутренний поиск.


12) Избегайте использовать отложенные загрузки для важных картинок и текста

Если на вашем сайте содержаться очень важная текстовая и/или графическая информация, избегайте отложенной загрузки для этих элементов, так как Googlе бот не всегда способен обработать такой паттерн проектирования. 


13) Googlе бот готов скраулить примерно две сотни MB на каждую HTML страницу

Большинство сайтов не должны волноваться о том, что их страницы слишком большие для Googlе бота, так краулиговый лимит на каждую страницу - около двух сотен MB 



Google Webmaster Hangout 2 окт. 2018 г.



1) Алгоритмы не меняются в зависимости от индустрии 

Алгоритмы Google не будут работать по-другому в разных индустриях и не будут настраиваться отдельно под виды бизнеса. Также алгоритмы не меняются зависимо от времени года. Не существует специальных алгоритмов, которые отслеживают, например, запросы по теме Рождества или Хэллоуина. 


2) Количество noindexed страниц не влияет на качество сайта и его ранжирование 

Большое количество noindexed страниц не влияет на позиции в органической выдаче или на то, как Google оценивает качество сайта. Например, многим сайтам необходимо скрывать приватный контент, который требует регистрации пользователя для доступа. ❗️Примечание: большое количество noindexed страниц может убить ваш краулинговый бюджет


3) Скрытый текст по умолчанию во время рендеринга не влияет на работу Google

Некоторые вебмастера закрывают контент до тех пор, пока будет закончен рендеринг. чтобы избежать перемещения элементов на экране во время загрузки. Google нормально воспринимает такой контент. Однако стоит проверить, что видит Google в mobile-friendly тестировании и Fetch & Render в GSC.


4) Back-end миграция не должна создавать проблемы, если HTML и URLs остались прежними

Миграция вашего сайта на другую CMS или back-end платформу не должна вызвать никаких проблем для Google, так как в подобных случаях HTML and URLs остануться прежними. 

Заблокированные мобильные страницы не будут проиндексированы mobile-first indexing

Для mobile-first indexing Googlebot Smartphone должен иметь доступ к веб страницам. Если вы блокируете определённые страницы на мобильном, то ни контент, ни ссылки на страницах не будут проиндексированы (если сайт переключен на mobile-first indexing)


5) Если HTTP версия вашего сайта есть в списках Google или сниппетах, то impressions всё равно могут отображаться (даже после миграции на HTTPS)

Если вы видите impressions и клики для HTTP версии после миграции на HTTPS, то это может быть связано с внешними ссылками на старую версию сайта (например в Google My Business listing).


6) Ссылки, которые отображаются как текст могут быть восприняты как методы черной оптимизации 

Если на сайте слишком много ссылок, которые дублируют ключевые слова, то Google может воспринять это как метод чёрной оптимизации, ведь теги анкоров сканируется как часть текстового контента на странице


7) Множество редиректов на одну и ту же страницу и noindexed страницы иногда воспринимаются как soft 404

Noindexed страницы и большое количество редиректов на один URL могут считываться как soft 404. Наличие soft 404 не влияет на качество вашего сайта, но такие страницы не будут краулиться так часто, как обычный контент или не будут проиндексированы совсем. Ссылка в тему - https://devaka.ru/articles/soft-404


8) Google может связывать контент iframes или JavaScript с остальным контентом на сайте

Для Google не составляет трудностей скраулить  iframes or JavaScript контент, так как бот способен воспринимать подобный контент вместе с остальным наполнением сайта. 



Google Webmaster Hangout 5 окт. 2018 г.



1) hreflang - незначительный сигнал для каноникализации

Google использует hreflang в качестве небольшого сигнала при выборе канонической версии страницы. Для этого требуется резервное копирование совместных сигналов: rel canonicals, внутренних ссылок и файлов Sitemap.


2) Проверяй текст alt для изображений, присутствует ли он на мобильной версии

Джон рекомендует проверитьмобильной версии изображений для мобильной индексации Типичная ошибка, которую Google видит на сайтах, где данные для моб версии представлются не через адаптив


3) Соотношение сторон изображения важно для некоторых типов структурированных данных и для rich results, например для рецептов или амп. Джон рекомендует использовать минимальный размер изображения, чтоб все было ок для попадания картинки в SERP


4) Отправляй запросы на повторную проверку отдельно для каждого поддомена, если были предприняты ручные действия для разных поддоменов. и убедись, что файлы disavow обновляются для каждого из них.


5) обнови last modified date в файле Sitemap и используй проверку на валидность в GSC, чтобы быстрее пересканировать страницы

Если технические проблемы отображают страницы некорректно, можешь заставить googlebot обходить их быстрее. Засабмить файлы Sitemap с помощью last modification date, установленной для восстановления поврежденных страниц. также нажми «validate fix» на страницах с ошибками в search console, чтоб googlebot быстрее сделал рекроул



Google Webmaster Central office-hours hangout 19 окт. 2018 г.

1) Если Ваш сайт не перешел на mobile-first indexing, это не значит, что сайт не готов к переходу.

Mobile-first indexing активно внедряется Googloм. Однако если Ваш сайт ещё не на mobile-first indexing - не спешите волноваться. Возможно, Googlу нужно время чтобы перевести Ваш сайт на mobile-first indexing


2) Если главная страница сайта не занимает высокие позиции в Googlе, то эта страница может быть переоптимизированной 

Google негативно воспринимает переспам ключевых слов. Если на главной странице сайта слишком много подобного контента, то такая страница не будет высоко ранжироваться в органической выдаче.


3) Используйте ссылки на профайл автора и разметку статьи чтобы проинформировать Google про автора контента

Так как Google Plus устарел, вы можете помочь Google узнать про автора вашего контента добавив разметку статьи на ваш сайт.


4) Создать геотаргетинг по технологии AMP возможно, но сложно

Теоретически, вы можете провести геотаргетинг AMP в страны с плохим качеством интернет соединения. Хотя внедрить подобный замысел будет непросто, так как Google сопоставляет AMP версию и полную версию страницы для унификации.


5) Добавление физического адреса на сайт не влияет на ранжирование

Физический адресс бизнеса не влияет на ранжирование в Google, но может быть важно для пользователей ваших услуг.


6) Проверяйте наличие URLа в sitemap с помощью GSC

Если инструмент URL Inspection указывает, что страница проиндексирована, но не представлена в XML sitemap, то следует проверить наличие этого URLа в sitemap с помощью GSC. 


7) Ошибки в HTML может повлиять на способность Google понимать структурированные данные

Googlebot с трудом понимает как связаны части страниц в структурированных данных из-за ошибок в HTML


8) Сниппеты JavaScript могут закрыть <head>, а остальной контент может быть проигнорирован Googlebotом

Если вы добавляете сниппеты JavaScript в <head>, страницы, будьте осторожны. Из-за сниппетов заголовок может преждевременно закрываться, а такие элементы как, например, ссылки hreflang не будут обработаны (они воспринимаются ботом как часть основного текста).


9) Сжатие файлов  sitemap ускоряет загрузку, но не увеличивает скорость обработки

Сжатие файлов sitemap с помощью Gzip может ускорить загрузку, но не влияет на скорость обработки файлов Googlebotом.


10) Используйте X-Robots-Tag HTTP header чтобы предотвратить индексацию файлов sitemap 

Если файлы из sitemap индексируются для обычных поисковых запросов, используйте X-Robots-Tag HTTP header чтобы закрыть индексацию страниц с окончанием .xml или .gz.


Большие сайты, на которых часто обновляется контент, должны использовать server-side рендеринг вместо client-side рендеринга.

Для больших сайтов, а также для сайтов с частыми обновлениями контента, рекомендуется внедрять server-side рендеринг. Client-side рендеринг может замедлять индексацию. Из-за сlient-side рендеринга пользователи могут испытывать трудности в использовании сайта (особенно на мобильных устройствах)



Google Webmaster Central office-hours hangout 30 окт. 2018 г.

1) Краулеры Facebook и Twitter не понимают client-side рендеринг

Краулеры Facebook и Twitter не поддерживают client-side рендеринг. Любые теги Open Graph или Twitter Cards на JavaScript должны быть в HTML


2) Google может обрабатывать редиректы JavaScript, но только если Google сможет их прокраулить

Редиректы JavaScript для Google - не проблема до тех пор, пока Google может краулить их и воспринимать как обычные редиректы. Убедитесь, что эти редиректы не закрыты для краулинга.


3) Владельцем сайтов не следует указывать, что рендерить или не рендерить Google

Не стоит внедрять на сайт какие-либо указатели на нужность или ненужность рендиринга для Google, так как это работа  Googlе. Не стоит также выборочно закрывать рендеринг отдельных элементов, так как это может создать проблемы в целом для сайта.


4) Не добавляйте  в ‹head› большие JavaScript файлы, которые блокируют загрузку страницы

Любой критическим JavaScript будет иметь значительный размер. Поэтому нельзя чтоб он выполнялся в обслуживать в head-части документа. Это замедлит рендеринг. Пользователю придется ждать дольше, прежде чем он сможет просмотреть какой-либо контент. Предоставляйте приоритетный контент пользователям как можно быстрее без JavaScript, если это возможно.


5) Использование HTTP/2 не уменьшает затраты ресурсов Google для рендеринга JavaScript

Google по-прежнему придется анализировать, компилировать и выполнять JavaScript после первоначальной передачи. Это самые затратные элементы рендеринга. Поэтому обработка JavaScript через HTTP/2 не снижает затраты


6) Google не будет загружать нерелевантные third-party скрипты

Google стал лучше распознавать бесполезные third-party скрипты, так что по возможности не используйте подобные скрипты.


7) Google может отслеживать URLs для краулинга, если вы добавите полный URL в JavaScript ссылку  

Ссылки JavaScript - не то же самое что ссылки HTML, но если вы добавите полный URL в JavaScript ссылку, то Google попробует отследить эту ссылку


8) Локализованные URLs - не проблема для Google

Если вы решили перевести или локализовать слова в URL для разных языковых версий, то не стоит переживать о негативных последствиях для SEO 


9) Google не может автоматически обнаружить и применить геотаргетинг, если иностраные и языковые версии сайта содержат разные параметры использования


10) Когда вы используете вложенные папки для иностранной версии сайта, указывайте страну первой, а затем язык. 

Если вы используете вложенные папки для разных стран и языков, то необходимо добавить их отдельно в GSC. Сначала ставьте вложенную папку страны, а потом языковую - так Googlу будет легче распознать ваш сайт.


11) Когда пользователь создаёт аккаунт в Google Analytics, аккаунт в Search Console создаётся автоматически


12) Обновление GSC отфильтровало специфические запросы пользователей для защиты конфиденциальности.

Недавно GSC обновила данные и отсеила очень специфические запросы пользователей. Это стало причиной падения показателей в отчёте об эффективности GSC.



Google Webmaster Central office-hours hangout 13 ноя. 2018 г.

1) Alt текст помогает Google лучше понимать веб страницу за пределами поиска изображений

Информацию в атрибуте alt изображений Googlebot воспринимает как текстовый контент. Эта информация может помочь Googl-у лучше понимать наполнение страницы за пределами поиска изображений. 


2) Когда вы разделяете категорию на две новые категории, нужно сделать редирект предыдущей версии на новый URL и обновить внутреннюю перелинковку


3) Если вы предлагаете пользователю альтернативную версию страницы, используйте pop-up вместо промежуточной страницы

Если пользователь пришел на ваш сайт с другой локации, и вы хотите его перенаправить на другую версию, используйте pop-up. Таким образом у пользователя будет выбор: перейти на другую версию или остаться на предыдущей.


4) Для того чтобы лучше понять контент страницы, Google использует заголовки


5) Канонизация страниц пагинации назад на первую страницу может создать проблемы для краулинга, индексации

Канонизация страниц пагинации назад на первую страницу может запутать Google, так как Google может проигнорировать rel canonical (примечание: вы же помните, что canonical - это лишь рекомендация?) Вдобавок, если Google проследует по тегу rel canonical на первую страницу, то может не прокраулить контент на других страницах.


6) Количество слов в сообщении о спаме от Google было ограничено 

Google ограничил текстовое поле в сообщении о спаме чтобы пользователи более точно формулировали информацию о проблеме.


7) Алгоритм “Колибри” (Hummingbird) обрабатывает структуру сайта

“Колибри” - это алгоритм Google который обрабатывает структуру сайта. Чем проще Googlebotу будет понять структуру сайта, тем лучше Google прокраулит и проиндексирует ваш контент.



Google Webmaster Central office-hours hangout 16 ноя. 2018 г.


1) Обновление PSI использует данные инструмента  Lighthouse

Новая версия PageSpeed Insights использует данные аудита Lighthouse чтобы проанализировать скорость загрузки сайта с разных устройств.


2) Количество слов не влияет на алгоритмы ранжирования Google

Когда Google решает, какие страницы следует поднять выше в поисковой выдаче, то количество слов не учитывается. Вебмастера могут анализировать количество слов чтобы оценить качество контента, но это не фактор ранжирования


3) Обратите внимание на колебания результатов PSI тестирования  

Если ваш сайт то удачно, то неудачно проходит тестирование PageSpeed Insights, то ваш сайт  с трудом “вписывается” в требования Google к скорости загрузки сайта.


4) Оптимизируйте сайт не для поисковых ботов, а для ваших пользователей

Не фокусируйтесь на факторах ранжирования, направьте усилия на улучшение релевантности сайта для посетителей.


5) Страницы из отчёта 'DISCOVERED - CURRENTLY NOT INDEXED' в GSC не приоритетны для краулинга & индексации

Google знает про страницы из “Обнаружено, но ещё не проиндексировано” в Google Search Console, но не приоритезирует эти страницы для краулинга, индексации.


6) Проверьте, как поисковые системы краулят внутренние ссылки с помощью


7) Страницы, которые медленно грузятся, съедают краулинговый бюджет

Чем больше времени Googlebot потратит на ожидание загрузки одной страницы, тем меньше ресурсов он оставит на другие страницы вашего сайта.


8) Используйте Sitemap временно чтобы попросить Google убрать из индекса удалённные URL

Файлы Sitemap - это хороший временный метод быстро сообщить Google, что удалённые URLы следует убрать из индекса.


9) Используйте одинаковый URL для разного сезонного контента

Google рекомендует использовать единый  URL для временного контента вне зависимости от темы. Например, размещайте контент с акциями Чёрной пятницы, затем на этой же странице опубликуйте акции к Новому году. Таким образом, вы сохраните ссылочный сок и сделаете страницу более важной для Google.


10) Добавляя неподдерживаемые Googlом структурированные данные, вы можете повлиять на то, какие форматы Google будет распознавать в будущем

Когда Google видит, что многие сайты используют неизвестную ему разметку для конкретных элементов, то со временем он научится обрабатывать ранее неподдерживаемые форматы.


11) Если вы получили уведомление о необычных скачиваниях в GSC, снизьте количество уникальных скачиваний 

Уведомление о необычных скачиваниях в GSC может быть связано с веб сайтами, которые генерируют уникальные скачивания для каждого пользователя. Уменьшите число скачиваний, и для Googlebot будет легче проверить скачивания перед тем, как пользователь получит к ним доступ.


12) Если вы используете внешние Java скрипты у себя на сайте, то опасайтесь вредоносного ПО

Когда вы используете Java скрипт контент с внешнего ресурса у себя на сайте, учтите, что если сайт первоисточник будет взломан или кто-то добавит в код JS вредоносное ПО, то гнев Googl-а падёт и на ваш сайт тоже.


13) Руководство по рейтингу качества и E-A-T не влияют на ранжирование

Следование рекомендациям Экспертности-Авторитетности-Надёжности (англ. E-A-T) контента и руководству по рейтингу качества сайтов от Google напрямую не влияет на алгоритмы ранжирования. В этих документах описано, как Google развивается в сфере анализа контента.