В пятницу проводили мозговой штурм на эту тему (конечно, не только про ChatGPT, нейросетей сейчас много; эта вынесена в заголовок просто как самая известная). Наработали много всего разного, интересного и неожиданного. Ниже приведено кое-что из, вероятно, заслуживающего внимания. Только, пожалуйста, не рассматривайте всё это как уверенный прогноз, или, тем более, какую-то рекомендацию. Данный текст - всего лишь результат брейнсторминга. То есть, не более чем предположения. Итак:
Как известно, нейросети умеют быстро создавать очень большие объёмы уникального тематического контента - причём не только уникального, но и осмысленного. Что не означает «умного» или «безошибочного», но с осмысленностью у него всё в порядке. Это относится как к текстам, так и к изображениям. Видео общедоступные нейросети пока что приемлемо генерировать или рерайтить не могут (это умеют специализированные, не находящиеся в общем доступе); однако очевидно, что дело к тому идёт.
Нейросети всё ещё много фантазируют и привирают, но это нейтрализуется не только проверкой фактологии (что, всё-таки, трудоёмко) - но и простым запросом на рерайт уже готового чужого материала, созданного человеком и заведомо правдивого. Или слиянием нескольких таких текстов с последующим сокращением и рерайтом результата.
Поисковые системы, которые ранжировали ресурсы, в первую очередь, всё-таки, по объёму уникального контента и его тематичности - а также по числу ссылок с других тематичских ресурсов, тоже с соответствующем контентом - сразу оказались в сложном положении. Ибо теперь потоковая генерация такого контента стала практически общедоступной. Сейчас кто угодно способен насыщать таким контентом как собственный сайт - так и ресурсы, которые он использует для простановки ссылок на свой. То есть, чтобы не запутаться во всех эти невероятных объёмах материала - уникального и без явных признаков «вторичности», «мусорности» - Яндексу и Гуглу придётся предпринять какие-то достаточно резкие меры. Иначе их выдача быстро окажется захламлена бесконечными вариациями одного и того же контента. И лучшие ли его версии займут при этом первую страницу результатов поиска - большой вопрос.
Что же это будут за меры? Мозговой штурм, проведённый нашей командой по всем правилам этого метода, привёл, в частности, к следующему:
1. Традиционный подход. Вероятно, будет использован в первую очередь (отлаживается уже сейчас).
Поисковики используют те же алгоритмы, что у них уже есть. Просто вес некоторых их параметров будет существенно откорректирован. Наиболее вероятны следующие изменения:
1.1. Весь контент и все ресурсы, созданные с начала 2023 года, будут пессимизированы - как в моменте, так и в смысле возможностей положительной динамики позиций в результатах выдачи. Так называемые «бонусы новичка» (когда новые, совсем свежие сайты и материалы получали преимущество в выдаче) будут или вообще отменены, или сильно урезаны. Эффект вряд ли окажется значителен (и уж тем более равномерен: вероятны какие-то критерии выбора степени, пускай и примитивные). Но он будет.
1.2. Сильно возрастёт роль поведенческих факторов. Да, их тоже можно накрутить - но технология соответствующих ботнетов гораздо менее доступна, чем технология нейросетей. И отследить именно ботов, всё-таки, проще, чем определить «нейросетевое происхождение» контента. У поисковых систем давно есть собственные ИИ, которые подобное позволяют. Причём поисковые системы тут как минимум не уступают в изобретательности и возможностях хозяевам ботнетов.
1.3. Ссылочная масса будет учитываться иначе. В первую очередь, будет засчитываться вес тех ссылок, по которым были переходы. Опять же, их тоже можно накрутить - но см. выше. Возрастёт роль SERM, разнообразных нестандартных отзывов, «простых» упоминананий бренда и домена сайта (не ссылок). Возрастёт также роль перепостов и цитат.
1.4. Очень значительно будет учитываться динамика показателей. Она и сейчас учитывается (не только, например, ссылочная масса, но и динамика её роста или снижения). Слишком быстрый (по мнению поисковых систем) или неравномерный по отношению к динамике других показателей рост будет приводить к резкой пессимизации ресурсов в выдаче.
2. Нейросетевой подход. Второй этап, который логично ожидать уже к концу 2023 года или немного позже.
Поисковики используют свои нейросети для нейтрализации влияния контента, созданного другими нейросетями.
2.1. Нейросети поисковиков будут использованы для определения «степени нейросеточности» контента. И у Яндекса, и у Гугла есть свои мощные системы ИИ, которые они натаскают на распознавание контента, созданного нейросетями. Не факт, что это всегда им будет удаваться, но контент, с высокой вероятностью определённый, как созданный нейросетями, будет сразу пессимизироваться или вообще выбрасываться из выдачи. Не потому, что он плох (он может быть как раз хорош, лучше многого из того, что написали или нарисовали люди). А потому, что будет предполагаться, что если пользователю нужен такой контент - он сгенерирует его с помощью нейросетей сам. Да, сейчас это спорное утверждение (полный доступ к хорошим нейросетям есть не у всех, к тому же далеко не все умеют задавать им результативные запросы). Но дальше-то ситуация будет развиваться именно в этом направлении - и поисковики будут исходить из этой очевидной истины.
2.2. Понятие уникальности контента будет пересмотрено. Контенту будет присваиваться хэш смыслов и хэш форматирования. То есть, если текст на пять экранов может быть (без потери смысла) сведён к двум фразам - он и будет рассматриваться как эти две фразы, не более. Нейросети вполне способны осуществить такое «сворачивание» смыслов уже сейчас, причём единообразно. Соответственно, если хэши разных контентов совпадают - наверх выдачи скорее попадёт более лаконичный, даже если он был проиндексирован позже. Но будет и учитываться и хэш форматирования: то есть, при прочих равных условиях преимущество при ранжировании получит более структурированный, читабельный и красивый материал. То есть, совсем уж «сухие выжимки» тоже вряд ли приобретут хорошие шансы на высокие места. Конечно, это всё будет применяться и к контенту - донору ссылок. Ссылки с контента, созданного нейросетями, засчитываться не будут.
2.3. Ренессанс языка запросов. Тот, который и сейчас существует (хотя и практически потерял свою значимость), возможно, продолжит функционировать, но им уже никто не будет пользоваться. То есть, вместо всех этих «лимон|лайм +кисло +сладкий соус сделать самому ++быстро ++проверенный рецепт» в окне запроса будут писать примерно такое: «Подбери проверенные рецепты кисло-сладкого соуса из лимона или лайма, который можно сделать самому в домашних условиях. Все условия обязательны. Дай ссылки на страницы-первоисточники.» Конечно, окно формы поиска будет при этом уже не в одну строку, а полноценным текстовым полем. И можно будет набрать туда текст голосом (что давно уже есть, но теперь надиктованное будет интерпретироваться иначе).
3. Футуристический подход. Третий этап, который может вообще не случиться (или же наоборот, его элементы можно будет наблюдать уже совсем скоро).
Само понятие поиска в Интернете существенно изменится. И эти изменения не сведутся к воздействию нейросетей - Яндекс с Гуглом попытаются сформулировать такие его принципиально новые концепции, в рамках которых нейросетевой контент не будет мешать справедливому ранжированию ресурсов.
3.1. Появится понятие интегральной ценности контента. Это будет некий сильно продвинутый аналог знаменитого «фильтра» YMYL Гугла - и соответствующих принципов E-A-T. Только применяться это всё будет поисковиками теперь уже не только к финансовой, медицинской, правовой и т.п. тематикам - а вообще ко всему.
3.2. Пользователь сам сможет управлять принципами выдачи. Вернётся уже практически редуцированная возможность сортировки результатов: по релевантности, по времени последней индексации, по степени коммерциализации, по предполагаемой «степени нейросеточности» и т.д. Конечно, сохранятся и уже существующие возможности, типа поиска с учётом геолокации (или без такового учёта) и т.д. Вновь появится возможность «искать в найденном», а также опция «позволить Яндксу/Гуглу переформулировать запрос для получения лучших результатов» (это когда поисковик будет пытаться угадать желания пользователя и сформулировать их более точно, чем удаётся ему самому).
3.3. Появится возможность поиска с реферированием. То есть, помимо опции «посмотреть сохранённую копию» можно будет воспользоваться опцией «посмотреть краткое содержание» или что-то т.п. Причём это самое «краткое содержание» будет зависеть от запроса пользователя: акцент будет делаться на том, что пользователь запросил. И это не будет просто цитирование части контента, это будет именно «выжимка из документа по теме». Ну и, конечно, найденный контент будет классифицироваться и эта классификация сразу будет видна пользователю: «вероятно обзор», «вероятно рекламная статья», «вероятно, специалист отвечает на вопросы» и т.д.
К каким последствиям для SEO приведёт всё вышеизложенное - если реализуется хотя бы в основном?
А) Сделавшие ставку в основном или только на сгенерированный нейросетями контент растеряют набранное преимущество. Это случится в течение следующего года, причём первыми «посыпятся» те, кто использовал нейросети совсем бездумно (например, даже не вычищая из созданных ими картинок характерные EXIF/IPTC/XMP). Это вытекает из пункта 2.1.
Б) «Под раздачу» закономерно попадёт и контент, созданный копирайтерами-людьми и, возможно, обычными же дизайнерами - просто как «не уникальный по смыслу» (пункт 2.2.) или «имеющий малую интегральную ценность» (пункт 3.1.). То есть, выдача не вернётся к «до-нейросетевым временам» а изменится очень сильно. Конечно, свою роль в этом сыграет и новое понимание роли ссылочной массы (пункт 1.3.).
В) Сильно возрастёт значимость экспертности, авторитетности и т.д. (пункт 3.1.). Поисковики примутся выстраивать графы рекомендаций (не только ссылок); они, конечно, уже это делают, но масштаб подхода и его значение очень увеличатся. Сеошники направят свои усилия или на создание собственных «точек экспертности» (хотя бы в очень узких областях) - или же на «примазывание» к чужим, всеми правдами и неправдами пытаясь получить рекомендации, отзывы, комментарии и прочее одобрение из сред, которые Яндекс и Гугл посчитают авторитетными.
Г) Интернет-магазинам, продающим стандартные товары (типа магазинов бытовой техники) придётся плохо. Им и сейчас-то тяжело, а через два года они будут ранжироваться лишь по ценам на сайте, общему клиентскому рейтингу и ассортименту. То есть, преимущество маркетплейсов только увеличится. Обзоры категорий, брендов, разборы конкретных моделей, развёрнутые отзывы пользователей и т.д. перестанут работать в прежней степени: «хеширование смыслов» (см. пункт 2.2.) сведёт «SEO-значимость» большинства из них на нет. Похожая ситуация будет и у продавцов стандартных услуг: клининговых, бухгалтерских, страховых, юридических, риэлторских и т.д. Но юристам и бухгалтерам будет полегче, потому что эти области традиционно завязаны именно на экспертизу.
Д) Очень возрастёт роль новых смыслов. Создатели новых рабочих концепций, осмысленных терминов (характерный пример - знаменитый «инфостиль» Ильяхова), доктрин, направлений и т.д. будут получать очень хороший бонус в смысле позиций в результатах поиска. Конечно, это и сейчас есть, но сейчас автор концепции и терминологии не получит особый трафик на свой ресурс, покуда его идеи и термины не станут популярны; а на это может уйти очень много времени. Теперь же поисковые системы будут их популяризовать сами. То есть, работы Ильяхова в такой реальности сразу стали бы находиться по запросам «как составить удачное объявление», «как писать продающие тексты» и т.д.
Это далеко не все идеи и предположения, которые выдвинула наша команда в процессе мозгового штурма. И, опять же: пожалуйста, не рассматривайте изложенное выше как уверенный прогноз, или, тем более, какую-то рекомендацию. Это просто небольшой срез, этакий «стоп-кадр» нашей работы на перспективу.
Корпоративный Маркетинг - это работа на опережение