Джон Мюллер: Google повторно сканирует URL-адреса

А ответы SGE теперь стоят на 80 % меньше.

Роботы сканируют сайты повторно

Страницы и документы обновляются, Google необходимо время от времени повторно сканировать эти URL‑адреса. Это происходит с разной скоростью.

Новые публикации сканируются чаще, чем старые. Их могут сканировать в течение нескольких месяцев, так как Google не ожидает, что старые статьи будут обновляться так часто.

Заявление Мюллера стало ответом на вопрос об удалении страниц. Если пользователь добавит код статуса 404 на страницу, Google может потребоваться от нескольких недель до месяцев, чтобы просканировать страницу и увидеть код статуса 404. И столько же времени, чтобы удалить его. Поэтому использование инструмента удаления Google Search Console может ускорить эту задачу.

Ранее с Мюллером поделились экспериментальным сайтом.

Google смог снизить траты на генерацию ответов ИИ

В ходе телеконференции Google заявил, что за год затраты на оборудование, связанное с реагированием SGE, снизились на 80 % по сравнению с моментом его первого внедрения в лабораториях. Это произошло благодаря аппаратным, инженерным и техническим прорывам.

В частности, компания экспериментировала с использованием моделей искусственного интеллекта разного размера для ответа на разные типы запросов.

Помимо снижения затрат, Google также попытался сделать эту функцию более эффективной, активируя ее только тогда, когда компания считает, что это будет лучше, чем традиционный набор результатов поиска.

Как SGE повлияет на SEO — читайте в нашей статье.

SEO‑специалисты негодуют из‑за влияния обновлений на рейтинг

Призывы гуглоидов делать сайты для пользователей, а не для поисковых систем, не работают.

Они не говорят ничего конкретного, факторы ранжирования не всегда известны доподлинно. SEO‑специалисты путаются, как оптимизировать честно, чтобы алгоритмы подняли ресурс в рейтинге и поняли, что он сделан «для людей». 

Пользователи призывают наладить коммуникацию между компанией и теми, кто продвигает сайты в интернете. А также выражают опасения о дальнейшем.

Ранее Джон Мюллер поделился соображениями о восстановлении сайтов.

Google тестирует пользовательские фильтры и шаблоны поисковых фильтров

Фильтры могут добавлять определённые ключевые слова или фильтровать определенные сайты, чтобы помочь пользователю найти то, что он ищет.

Фильтр можно установить для поиска:

  • определённых типов файлов (pdf, docx, xlsx, pptx, epub);
  • типов домена: .org, .gov и/или .edu;
  • по времени, включая прошлый час, день, неделю, месяц и год;
  • сайтов, созданных с помощью определённого кода.

Пользовательские фильтры можно сохранить. 

Как это выглядит:

Фильтры в Google. Источник: SER
Фильтры в Google. Источник: SER

Ранее Google тестирует функцию «Показывать реже».

Теги: