Поисковые системы, SEO и все, что вокруг — ИИ, веб-аналитика, маркетинг. Владимир Харев находит все самое интересное у экспертов мирового SEO и рунета, иногда делится собственными наблюдениями. Обратная связь: @NoindexNofollowBot (реклама не продается)
Обновление в документации по оптимизации картинок для Гугл Поиска — достаточно очевидная рекомендация использовать одинаковые урлы для одних и тех же картинок, если они используются на разных страницах сайта, т.к. это влияет на краулинговый бюджет.
Если на изображение ссылаются на нескольких страницах крупного веб-сайта, учтите общий бюджет сканирования сайта. В частности, постоянно ссылайтесь на изображение с одним и тем же URL, чтобы Google мог кэшировать и повторно использовать изображение без необходимости запрашивать его несколько раз.Читать полностью…
Топ-5 цитируемых доменов в ИИ-моделях, разбивка по B2C/B2B/смешанным запросам, по данным исследования Джеймса Аллена.
Предпочтения ИИ-движков при цитировании:
— ChatGPT: авторитетные источники, избегает UGC (пользовательский контент)
— Google Gemini: сочетает авторитетные источники и контент из сообществ
— Google AI Overviews: широкий агрегатор, включает блоги, новости и UGC
— Perplexity: экспертные источники, включает UGC выборочно
Бретт Табке освещает свежую порцию документов, раскрытую в рамках антимонопольного дела против Гугла в США.
Недавно опубликованные документы показывают, что основная система ранжирования Гугла по-прежнему опирается на многочисленные сигналы, созданные вручную, а не только на черный ящик ИИ.
На старый заплесневелый PageRank накладываются такие LLM-игрушки, как RankEmbed, Twiddlers и таинственная метрика качества под названием Q*Star.
❗️В Яндекс Метрике изменился алгоритм расчета глубины просмотров, времени на сайте и показателя отказов
Если видите просевшие показатели — это глобальная история.
С 30 апреля 2025:
Обновлен подсчет просмотров внутри визита. Теперь к просмотрам в рамках визита относятся только внутренние переходы пользователя по сайту, а повторные переходы с внешних источников — исключаются. Это может влиять на метрики глубины и продолжительности визитов, а еще отказы.Читать полностью…
Джанлука Фиорелли тоже считает, что AI Mode заменит традиционный поиск в качестве интерфейса в Гугле по умолчанию.
Выдержки из большого исследования:
Некоторые могут сказать, что все это звучит как еще одна классическая теория заговора в SEO, и да, мы иногда носим наши шапочки из фольги слишком гордо. Но в этом случае шаблон реален, сигналы публичны, а последствия слишком значительны, чтобы их игнорировать.Читать полностью…
Google готовится заменить традиционную страницу результатов поиска на диалоговый, персонализированный интерфейс на базе ИИ.
Google использует Search Labs в качестве промежуточной среды для смены парадигмы в UX поиска.
Жизненный цикл SGE (Search Generative Experience) показывает, как протестированные функции могут стать основными по умолчанию. AI Mode теперь проходит тот же жизненный цикл:
SGE → AI Overviews → AI Mode
Gemini — это не «просто модель»; это операционная система искусственного интеллекта от Google, призванная унифицировать поведение в Workspace, Android, Chrome, а теперь и в Поиске.
«Память» Gemini позволяет формировать ответы на основе постоянных знаний о пользователе и, таким образом, предлагает контекстно-зависимые и основанные на целях предложения.
Это означает, что будущие запросы не изолированы, а взаимосвязаны.
Решение Google прекратить поддержку ccTLD (например, .es, .fr) свидетельствует о том, что поиск теперь ориентирован на пользователя, а не гео-IP.
Внедрение Google Discover на десктопах — это не просто функция пользовательского интерфейса, но и сигнал о стратегическом сближении между:
— предиктивной доставкой контента (Discover)
— моделированием намерений пользователя и памяти (режим Gemini/AI)
— переопределением интерфейса поиска
Google потихоньку делает поиск предиктивным по умолчанию, и Discover на ПК — это обучающий слой для этого.
Цикл обратной связи: Discover → Память → Режим ИИ
Discover показывает новостной сюжет о Японии.
Вы кликаете и читаете → Google регистрирует интерес.
Gemini предполагает путешествие.
Режим ИИ позже автоматически заполнит предложения запросов: «Рейсы в Токио», «Лучшее время для посещения Японии», «Советы по конвертации валют».
С 2015 года Google последовательно переходит от анализа ключевых слов к семантическому пониманию:
RankBrain → семантическое намерение
Нейронное сопоставление (Neural Matching) → концептуальные связи между понятиями
BERT и последователи → контекстное понимание языка
Индексация фрагментов (Passage Indexing) → доступ к подробной информации
MUM → мультимодальный, многозадачный поиск
Gemini → интеграция генерации, памяти и мультимодального взаимодействия
Каждый из этих шагов постепенно заменял классический стек поиска чем-то более близким к тому, как люди обрабатывают вопросы, контекст и задачи.
Мэттью Принс, соучредитель и генеральный директор Cloudflare, дал критическую оценку влияния ИИ на интернет-экономику:
Бизнес-модель интернета не сможет выжить, если не произойдет никаких изменений. Если создатели контента не смогут извлечь выгоду из того, что они делают, они не будут создавать оригинальный контент.
Это проблема не только для медиакомпаний или блогеров. Это риск для будущего знаний в сети. Если ИИ-компании обучаются на оригинальном контенте, но не привлекают трафик или не компенсируют его создание авторам, эти источники в конечном итоге исчезнут. Единственное, что останется, — это ИИ, который пожирает ИИ-контент.Читать полностью…
На ya.ru попал на тест с увеличенной поисковой строкой, явно под Нейро.
Читать полностью…Что используется при ранжировании результатов поиска товаров в ChatGPT (GPT-4o и 4o-min)?
Документация от OpenAI.
Продукт появляется в визуальной карусели, когда ChatGPT считает, что он соответствует намерению пользователя (shopping intent). ChatGPT оценивает намерение на основе запроса пользователя и другого доступного контекста, например воспоминаний или индивидуальных инструкций.Читать полностью…
При определении того, какие продукты следует показывать, ChatGPT учитывает:
— cтруктурированные метаданные от сторонних поставщиков (например, цена, описание продукта) и другой сторонний контент (например, обзоры)
— ответы, уже сгенерированные моделью, прежде чем она рассмотрит любые новые результаты поиска
— стандарты безопасности OpenAI
В настоящее время порядок, в котором мы отображаем продавцов, в основном определяется этими поставщиками. Мы не переоцениваем продавцов на основе таких факторов, как цена, доставка или политика возврата. Мы ожидаем, что это будет развиваться по мере того, как мы продолжаем улучшать процесс покупок.
👍 Гугл vs Яндекс: как продвигать новорега в 2025 году
Год назад ко мне попал новорег — дочка бренда, моноуслуга. В Яндексе выехали на ПФ. В Гугле — без ссылок шляпа. Раньше в НК-нише в Google хватало: уникальный контент, раскрытие интента. А дальше любуешься топом за 2–3 месяца. Сейчас — уй.
Мы знаем: Яндекс = ПФ, Google = ссылки. Подходы кардинально разные. Но где именно они разошлись? И что делать, если тебе достался нулячий сайт?
Разошлись как в море корабли
1️⃣ Доверие a.k.a всеми любимый Trust
Google строит траст через ссылки — ориентируется на ссылочную близость к seed-доменам (авторитетные сайты). По фундаментальному патенту US9165040B1 (TrustRank / trust distance), который подали еще в 2006: чем ближе наш сайт к авторитетным доменам, тем больше доверия от поиска получаем.
Параллельно Яндекс идет своей дорогой: собрал собственную систему Крипту (еще в 2011), а в 2017 на этой технологиях выкатили бетку кросс-девайса. Это не относится напрямую к ПФам, но это часть фундамента — кластеризация пользователей. Траст в Яндексе выстроен на ПФ, а ссылки вторичны.
У Google, кстати, тоже есть склейка юзеров. Разница между Crypta и сигналами в Гугле:
*️⃣чтобы пользователь идентифицировался и склеился, он должен быть залогинен в гугл акке, а также включить персонализацию реклы
*️⃣вход в аккаунт Яндекса не обязателен, данные клеятся по кукам и фингерпринтам
[user_last_click] — был ли сайт последним, где пользователь удовлетворил интент
[page_time] — время на странице
[click_to_back_time] — время до возвращения в выдачу (если пользователь вернулся)
[pessimization_by_behavior] — пессимизация за негативные ПФ
[goodClicks] — удовлетворительные клики
[badClicks] — неудовлетворительные клики
[lastLongestClicks] — последние и самые долгие клики
[unicornClicks] — редкие, но качественные клики
[lastLongestClicks] — время на странице
[clickDuration] — длительность клика, т.е. сессия юзера после перехода
Чтобы написать текст и под Яндекс и Google — нужно выдрачивать on-page несколькими итерациями. И да, тексты в листингах нужны и они работают.
* Построить ссылочный профиль с прицелом на близость к авторитетным доменам
* Использовать точные вхождения и семантические близости токенов
* Пушить страницы через GSC и sitemaps
* Следить за поведением (Navboost может пессимизировать)
* Выстроить грамотную внутреннюю линковку
* ПФ (last click, возвраты, глубина)Читать полностью…
* Естественные ПФ тоже не отменяются: работаем над CTR из выдачи (тестируйте тайтлы и descriptions)
* Делать HTML-структуру без тяжёлых JS-фреймворков
* Используйте карты кликов и вебвизор, чтобы искать места, где пользователь отваливается
* Понятная структура сайта
Генеральный директор Reddit про автоматически переведенный контент:
«Мы просто, я думаю, поступили разумно и спросили Google. Потому что мы, по сути, первые, кто сделал это в таком масштабе. Это круто? Они сказали да».
AI Mode выходит за пределы Google Labs
Поскольку наши опытные пользователи находят его очень полезным, мы начинаем ограниченное тестирование за пределами Labs. В ближайшие недели небольшой процент людей в США увидит вкладку AI Mode в Поиске.
В отчеты PageSpeed Insights добавлена ссылка "history":
"Теперь вы можете нажать на эту ссылку, чтобы быстро перейти в CrUX Vis и увидеть исторические тенденции Core Web Vitals для любого просматриваемого вами представления (мобильное устройство/настольный компьютер и URL/источник)"Читать полностью…
Пропустил эту новость от 15 апреля.
Google.com скоро станет единственным способом доступа к Google Поиску. Версии ccTLD Google будут перенаправлять на Google.com. Это означает, что если вы попытаетесь перейти на Google.ca, Google.fr. Google.co.uk и т. д., все они будут перенаправлены на Google.com.
Это изменение будет внедряться постепенно в течение следующих месяцев, и вам может быть предложено повторно ввести некоторые из ваших настроек поиска в процессе.Читать полностью…
Важно отметить, что хотя это обновление изменит то, что пользователи видят в адресной строке своего браузера, оно не повлияет на работу поиска и не изменит то, как мы выполняем обязательства в соответствии с национальным законодательством.
Команда SEOWORK выпустила статью про расчет CTR для аналитики
Чем точнее рассчитана видимость, тем более понятно и управляемо SEO, а точность расчетов напрямую зависит от значений CTR.
Можно использовать:
— CTR своего сайта в качестве базы
— CTR от SEO-сервисов
— CTR, рассчитанный на больших данных SEOWORK
Что лучше? Читайте в полной версии исследования:
https://seowork.ru/blog/analitika-seo/3081-ctr-pozitsiy-gde-tochnye-znacheniya.html
#промо
Google начал тестировать AI Overviews в России
За последние сутки читал об этом у 2 разных людей и наконец увидел сам. Российский IP, не залогиненный пользователь.
SEO в эпоху ИИ-агентов: инсайты с New York SEO Week
Лили Рэй поделилась ключевыми моментами с конференции SEO Week, организованной iPullRank в Нью-Йорке. Некоторые из них:
— Концепция Agentic Internet ведет к будущему без кликов (zero-click future) и принципиально смещает фокус SEO со взаимодействия с пользователем на взаимодействие с ИИ-агентом
— Agent Experience (AX) станет самой важной функцией в маркетинге: приоритеты агентов отличаются от людей; они предпочитают структурированные данные, семантические URL, метаданные и сравнительные списки
— Многие SEO-инструменты застряли на лексической модели, которая является устаревшим подходом, учитывая, что алгоритмы поиска в значительной степени перешли на использование семантической модели
— Есть мнение, что тематическая релевантность, а не авторитетность домена лучше всего коррелирует с ранжированием
— Текущие проблемы генеративных моделей: лингвистическое неравенство, алгоритмическая предвзятость, ограниченная прозрачность и отсутствие разнообразия контента
— Пользователи переходят от ключевых слов к естественному диалогу; ожидается, что LLM станут доминирующим интерфейсом поиска
Джон Мюллер напомнил, как посмотреть результаты поиска в Гугле на определенном языке и/или в определенной стране — с помощью параметров в урле:
&hl=(код языка) + &gl=(код страны)
Бюро по защите авторских прав США встало на сторону создателей контента, придя в своем последнем отчете к выводу, что исключение о добросовестном использовании, скорее всего, не распространяется на коммерческое обучение искусственного интеллекта.
Из заключения отчета:
"Но коммерческое использование огромных массивов защищенных авторским правом произведений для создания выразительного контента, который конкурирует с ними на существующих рынках, особенно там, где это достигается посредством незаконного доступа, выходит за рамки установленных границ добросовестного использования."Читать полностью…
Приключения Google в области ИИ: год спустя
Как всегда интересный пост от Барри Адамса.
Некоторые тезисы:
AI Overviews используют процесс RAG (Retrieval-Augmented Generation; генерация, дополненная поиском) для заземления (grounding), чтобы снизить вероятность галлюцинаций. Логическое структурирование контента с отдельными тематическими разделами на ваших страницах помогает Гуглу понять, что ваша веб-страница является подходящим кандидатом для цитирования в AIO.Читать полностью…
В классическом SEO ссылки являются основным источником авторитета, тогда как в LLM для этого используются упоминания бренда.
LLM — это еще одна поверхность поиска для оптимизации. Так же, как карты, новости, изображения, видео и т. д.
Вот почему я так против любых попыток ребрендинга. GEO, AEO, LLMO, AIEIO, как бы вы это ни называли — это все равно просто SEO.
Я ожидаю, что режим ИИ (AI Mode) станет основной функцией Гугла в ближайшем будущем. Классические «десять синих ссылок» могут быть перенесены, например, на вкладку «Веб».
Доля запросов, по которым показывается AI Overviews в десктопной выдаче в США, выросла с 6,49% в январе до 13,14% в марте, согласно исследованию Semrush и Datos.
Читать полностью…Пост про диплинки в блоге Google Search Central сводится к тому, что они просто должны работать корректно:
Поскольку Поиск использует содержимое вашей веб-страницы для индексации и ранжирования, вам следует добавлять диплинки только в тех случаях, когда экран приложения содержит тот же контент, что и соответствующая веб-страница. В противном случае заголовок и сниппет, отображаемые для страницы в Поиске Google, могут ввести пользователей в заблуждение относительно контента, который они увидят после клика. Макет или другие различия в UX между страницами приложения и соответствующими веб-страницами допустимы, если контент совпадает.
Из интервью с Лили Рэй (Amsive):
— Вы упомянули, что Google хочет удерживать пользователей в своей экосистеме. Как создателям контента и издателям следует адаптироваться к этой тенденции?Читать полностью…
— Это великий экзистенциальный вопрос SEO, и он становится все более серьезной проблемой в течение некоторого времени. Главный ответ — диверсифицировать источники трафика и видимости. Присутствуйте на нескольких платформах, таких как YouTube, Reddit, Instagram, Threads, TikTok, LinkedIn, X, Bluesky, Medium, Slideshare и т. д., поскольку у них есть своя собственная аудитория, которая находит контент естественным образом. Поисковые системы также любят отображать пользовательский контент с этих платформ. Поэтому сейчас актуальным является повторное использование и распространение оригинального контента в различных форматах.
Google может быть крупнейшим источником трафика, но ваши пользователи на самом деле проводят гораздо больше времени на других сайтах. И как только они находят хорошее решение своей проблемы, они ищут в Google бренд + продукт.
Исследование Адама Гента:
Правило индексации в 130 дней верно. НО это скорее индикатор, чем жесткое правило.Читать полностью…
Наши данные по 1,4 миллионам страниц на нескольких сайтах показывают, что если страница не была просканирована в течение последних 130 дней, то с вероятностью 99% она не проиндексирована.
...
Чем больше времени требуется Googlebot для сканирования страницы, тем больше вероятность того, что страница не будет проиндексирована. Но через 130 дней количество непроиндексированных страниц подскакивает примерно с 10% до 99%.
Ольга Зарр поделилась 11 уроками по мотивам аудитов более 500 сайтов.
1) Техническое SEO — основа вашего успеха.
Начиная любой аудит, всегда задавайте себе два важных вопроса:
— Могут ли Google, Bing или другие поисковые системы сканировать и индексировать мои важные страницы?
— Разрешаю ли я поисковым роботам сканировать только нужные страницы?
Этот шаг сам по себе может избавить вас от огромной головной боли и гарантировать отсутствие серьезных технических проблем с оптимизацией.
Уроки выше охватывают большинство проблем, с которыми я сталкиваюсь ежедневно, но помните: каждый сайт уникален. Не существует универсального чеклиста.Читать полностью…
Каждый аудит должен быть персонализирован и учитывать конкретный контекст сайта, аудиторию, цели и ограничения.
+ попадается еще такой со словом "Промо" в начале описания объявления.
У Сергея Людкевича скрин мобильного варианта.
Подборка типов негативного SEO по вектору атаки, уровню риска и потенциальному воздействию.
Речь не только про ссылки, но и, к примеру, атаку через rel=canonical или подачу DMCA-жалоб.
Средние затраты бизнеса на SEO в буржунете:
— Почасовая ставка от $75 до $100Читать полностью…
— Плата за проект составляет от $2501 до $5000
— Ежемесячные гонорары составляют от $500 до $1500
Хотя некоторые из этих цифр могут показаться высокими, большинство предприятий — небольшие, и их расходы на SEO гораздо ниже.
— В США малый бизнес обычно тратит на SEO не более $500 в месяц.
— В Великобритании средние ежемесячные расходы составляют около £500.