Содержание статьи

BERT, известный как Bidirectional Encoder Representations from Transformers, представляет собой нейронную сеть, разработанную Google, которая продемонстрировала высокую эффективность в решении различных задач обработки естественного языка, включая ответы на вопросы и машинный перевод. Код модели доступен для общего использования.
Модели BERT уже обучены на обширных наборах данных, включая не только английский язык, что позволяет разработчикам легко внедрять готовый инструмент в свои проекты по обработке естественного языка, минуя необходимость обучения нейросети с нуля. Запустить нейросеть можно и на локальном компьютере, и на бесплатном серверном GPU в Google Colab.
Работа алгоритма
Суть проста. BERT позволяет пользователям находить информацию или интернет-магазины, не требуя точных запросов, а понимая их так, как если бы вы общались в реальной жизни.
Алгоритм способен понимать намерения и контекст поисковых запросов, учитывая всю фразу, а не только отдельные слова. BERT является программой с машинным обучением, что позволяет ему обучаться самостоятельно.
История развития BERT
Google долгое время занималась исследованиями в области понимания человеческого языка машинами. Идея BERT возникла в 2017 году, когда команда Google AI приступила к разработке Transformers — проекта, направленного на создание новой архитектуры нейронной сети для понимания естественного языка. Transformers позволили обрабатывать слова в контексте фраз, а не изолированно, как отдельные слова. Этот проект стал частью поискового алгоритма БЕРТ.
В конце 2018 года Google впервые представила миру алгоритм Google BERT, способный анализировать естественный язык. Этот алгоритм представляет значительный прогресс в области искусственного интеллекта и понимания естественного языка.
Воздействие BERT на SEO
BERT начал использоваться на Западе с ноября 2019 года, и известно, что он влияет на примерно 10% поисковых запросов в Google. Изменения заметны для запросов, содержащих длинные фразы, которые часто используются в устной речи.
В основном, все вебмастера сфокусированы на среднечастотных (СЧ) запросах или на высокочастотных (ВЧ), которые состоят из 1-3 слов. BERT же, в свою очередь, сфокусирован на обработку длинных запросов (НЧ и микро-НЧ). Именно поэтому, некоторые вебмастера не ощутили колебаний в трафике.
Специалисты отмечают, что теперь предлоги играют более значительную роль, влияя на семантику запросов, что ранее не было столь заметно. Для сайтов, которые публиковали «человеческий» контент, изменений не так много. Они занимают высокие позиции в поисковой выдаче и развиваются. Google сосредотачивается исключительно на потребностях пользователей, поэтому больше нет необходимости использовать ключевые слова просто ради их наличия.
Требуется ли беспокоиться о том, как оптимизировать сайт под BERT?
Google не выдавал рекомендации по этому вопросу. Ранее он анализировал запросы как набор ключевых фраз и выбирал соответствующие страницы. BERT же понимает смысл запроса, анализируя дополнительные слова в них.
Составление качественного контента поможет улучшить ваш рейтинг в поисковой выдаче в целом. Важно, чтобы контент отвечал потребностям пользователей. Также полезно провести анализ поисковых запросов, добавить соответствующие фразы, создать новые страницы с органическим контентом. Эти действия будут полезны для всех алгоритмов.
Подведем итоги
BERT обладает архитектурой нейронной сети, которая учитывает весь контекст запроса, включая начало и причастные обороты посередине. Это отличает его от предыдущих моделей, которые учитывали контекст лишь отчасти.
Внедрение нейронной сети БЕРТ в ядро алгоритмов поиска Гугл – это очередной шаг корпорации к улучшению понимания вводимых запросов пользователей.





