SEO-новости: июль 2022

1. Googlebot будет сканировать и индексировать первые 15 МБ контента на странице

Google обновил англоязычную версию справки по Googlebot. В документ был добавлен абзац, в котором Google уточнил, что бот будет сканировать только первые 15 МБ страницы.

В справочном документе по Googlebot появился раздел, в котором говорится:

Googlebot может просканировать первые 15 МБ содержимого html-файла или поддерживаемого текстового файла. После первых 15 МБ файла Googlebot прекращает сканирование и рассматривает только первые 15 МБ контента для индексации.

Источник

2. Google: игнорируйте «чёрный» трафик

Джон Мюллер рекомендовал игнорировать «чёрный» трафик. Это спам, который не влияет на ранжирование.

Началось всё с того, что один пользователь на Reddit рассказал, как ежемесячно получает 1 000 переходов с одного сайта. Этот трафик не отображается в консоли Google «клики веб‑поиска» и не учитывается в статистике сайта WordPress. Пользователь спросил, может ли этот трафик быть вредным и стоит ли его заблокировать.

Джон Мюллер ответил так: «Google игнорирует спам, поэтому игнорируйте и вы».

Источник

3. Мюллер рассказал, как Google сканирует URL-адреса в структурированных данных

Мюллер ответил, что Google может попытаться просканировать всё, что «выглядит» как ссылка, например, URL‑адрес в JavaScript или ссылку в виде текстового файла. Однако, по словам Джона, всё это не является ссылками в прямом смысле слова.

Поэтому, если ссылка находится в разметке структурированных данных, нельзя быть уверенным, что Google не попытается её просканировать, но и гарантировать такое невозможно.

Джон рекомендует поступать в зависимости от целей. Если ссылку надо просканировать, оформите её как стандартную ссылку. Если не надо, закройте от сканирования.

Источник

4. Google обновил справочную документацию по отчёту «Статистика сканирования»

Изменения заметил Броди Клад и опубликовал информацию у себя в Twitter. Среди нового в документации:

• Примечание о robots.txt 404. Ошибка 404 Not Found считается успешной и означает, что файла robots.txt нет. Это значит, Google может сканировать любые страницы сайта.

• Пояснение о временном интервале. Если последний ответ на запрос robots.txt был неуспешным или был сделан более чем 24 часа назад, Google повторно запрашивает файл. Если ответ на запрос неуспешный, то в течение первых 12 часов Google остановит сканирование сайта, но продолжит запрашивать robots.txt. После этого в период от 12 часов до 30 дней Google будет использовать для сканирования последнюю успешно полученную версию файла, но всё ещё продолжит отправлять запросы. После 30 дней для сканирования будет использована домашняя страница.

• Если домашняя страница сайта доступна, Google будет действовать так, будто файла robots.txt нет, и сканировать без ограничений. Если домашняя страница недоступна, Google прекратит сканирование сайта. В течение всего этого процесса Google продолжит отправлять запросы файла robots.txt.

Источник

5. Google запретил размечать структурированными данными ряд товаров

Google обновил рекомендации по разметке структурированными данными ряда товаров. Теперь нельзя размечать товары, которые широко запрещены, регулируются законом или могут причинить серьёзный вред себе или другим. А именно — оружие, рекреационные наркотики, табачные изделия, товары для вейпинга, а также товары, связанные с азартными играми.

Источник

6. Новые полезные сигналы о состоянии мобильных страниц

В Яндекс.Вебмастере уже доступна проверка мобилопригодности отдельных страниц, а совсем скоро можно будет посмотреть адаптированность всего сайта под мобильные устройства. Раньше мы сообщали только о проблемах удобства восприятия контента мобильными пользователями (слишком мелкие шрифты, наличие скроллов и так далее). Мы дополнили эти проверки сигналом о наличии связи между десктопными и мобильными версиями страниц вашего сайта. Если появятся ошибки — вы сможете увидеть и исправить их.

Источник

7. Яндекс запустил 2 новых инструмента в Вебмастере: «Проверка страницы» и «Рендеринг страниц JavaScript»

Пользователи Вебмастера получили возможность увидеть технические данные и содержимое страницы, полученные с исполнением JavaScript и без него в новом разделе Рендеринг страниц JavaScript (β).

Владельцы сайтов могут самостоятельно выбрать, нужно ли роботу использовать рендеринг JS, выбрав одну из трех настроек:

• «Рекомендую рендерить»,

• «На усмотрение робота Яндекса»,

• «Не рендерить».

С помощью инструмента «Проверка страницы» можно узнать, учтены ли изменения, сделанные на странице, в текущей версии поисковой базы, и какой контент был проиндексирован роботом.

Инструмент позволяет посмотреть на страницу с мобильным или десктопным типом запроса и проанализировать технические данные.

Источник

8. В скором времени Яндекс прекратит поддержку страниц с escaped_fragment

Для индексирования динамических AJAX‑сайтов каждой его странице необходима HTML‑версия. Ранее о её наличии поиску можно было сообщить через параметр #! в адресе страницы. Поисковая система определяла соответствие между #! и элементом «?_escaped_fragment_=» и индексировала страницу в HTML. Например, страница http://www.example.com/#!blog индексировалась как http://www.example.com/?_escaped_fragment_=blog.

Однако в блоге Яндекса появилась информация, что страницы с параметром #! больше не будут поддерживаться поисковой системой. Чтобы контент был доступен пользователям и не пропал из результатов выдачи, необходимо настроить с таких страниц редирект 301 на новые с корректными адресами, а именно — без параметра #!. Настраивать редирект нужно как со страниц по адресам вида http://www.example.com/?_escaped_fragment_=blog, так и со страниц вида http://www.example.com/#!blog.

Страницы с тегом «meta fragment» также скоро перестанут индексироваться, поэтому надо проверить для них технологию рендеринга и настроить её в Вебмастере в случае необходимости.

Источник

9. Google: влияют ли ссылки на HTTP-сайты негативно на SEO

Известно, что безопасный протокол HTTPS является сигналом ранжирования в Google с 2014 года. В связи с этим вебмастера задались вопросом: если безопасные страницы важны для поисковика, значит ли это, что ссылки с сайтов тоже должны вести на HTTPS-страницы, оказывают ли негативное влияние внешние ссылки на HTTP-сайты.

По словам Мюллера, SEO-специалистам не следует беспокоиться. Если необходимо сослаться на HTTP-страницу, то нужно это сделать. Google не имеет ничего против таких ссылок.

Источник

10. Мгновенная авторизация для вашего сайта

Благодаря новой технологии данные пользователя автоматически подтягиваются из его аккаунта в Яндексе — не нужно ничего заполнять вручную.

Всё происходит в два клика — клиент видит всплывающее окно со своим именем и аватаркой и может подтвердить вход.

«Мгновенный вход» можно внедрить на любом этапе воронки: как для заполнения форм при заказе, так и для оставления заявки на сайте (например, если нет личного кабинета).

Источник

11. Google: объективного способа подсчета ссылок не существует

На днях сотрудник Google Джон Мюллер снова подтвердил, что точный подсчет ссылок в интернете технически невозможен.

«Нет правильного способа подсчета ссылок, интерпретации сильно различаются. Подумайте о ссылках как о способе, которым люди могут добраться до вашего сайта, а не как о своей собственной метрике. Количество ссылок, которые показывает любой инструмент, не является фактором ранжирования».

Источник

443110, г. Самара ул. Лесная 23, корпус 100, офис 41

Выбрать город