Зміст статті

BERT, відомий як Bidirectional Encoder Representations from Transformers, є нейронною мережею, розробленою Google, яка продемонструвала високу ефективність у вирішенні різних завдань з обробки природної мови, включаючи відповіді на питання і машинний переклад. Код моделі є доступним для загального використання.
Моделі BERT вже навчені на великих наборах даних, включаючи не тільки англійську мову, що дозволяє розробникам легко впроваджувати готовий інструмент у свої проєкти з обробки природної мови, оминаючи необхідність навчання нейромережі з нуля. Запустити нейромережу можна і на локальному комп’ютері, і на безкоштовному серверному GPU у Google Colab.
Робота алгоритму
Суть проста. BERT дозволяє користувачам знаходити інформацію чи інтернет-магазини, не вимагаючи точних запитів, а розуміючи їх так, якби ви спілкувалися у реальному житті.
Алгоритм здатний розуміти наміри та контекст пошукових запитів, враховуючи всю фразу, а не лише окремі слова. BERT є програмою з машинним навчанням, що дозволяє навчатися самостійно.
Історія розвитку BERT
Google тривалий час займалася дослідженнями з розуміння людської мови машинами. Ідея BERT виникла у 2017 році, коли команда Google AI розпочала розробку Transformers — проєкту, спрямованого на створення нової архітектури нейронної мережі для розуміння природної мови. Transformers дозволили обробляти слова у контексті фраз, а не ізольовано, як окремі слова. Цей проєкт став частиною пошукового алгоритму БЕРТ.
Наприкінці 2018 року Google вперше представила світові алгоритм Google BERT, здатний аналізувати природну мову. Цей алгоритм представляє значний прогрес у галузі штучного інтелекту та розуміння природної мови.
Вплив BERT на SEO
BERT почав використовуватися на Заході з листопада 2019 року, і відомо, що він впливає приблизно на 10% пошукових запитів у Google. Зміни помітні для запитів, що містять довгі фрази, які часто використовуються в мовленні.
В основному, всі вебмайстри сфокусовані на середньочастотних (СЧ) запитах або високочастотних (ВЧ), які складаються з 1-3 слів. BERT же, своєю чергою, сфокусовано на обробку довгих запитів (НЧ і мікро-НЧ). Саме тому деякі вебмайстри не відчули коливань у трафіку.
Фахівці відзначають, що тепер прийменники відіграють значнішу роль, впливаючи на семантику запитів, що раніше не було так помітно. Для сайтів, які публікували «людський» контент, змін не так багато. Вони займають високі позиції у пошуковій видачі та розвиваються. Google зосереджується виключно на потребах користувачів, тому більше немає необхідності використовувати ключові слова просто задля їх наявності.
Чи потрібно турбуватися про те, як оптимізувати сайт під BERT?
Google не видавав рекомендації з цього питання. Раніше він аналізував запити як набір ключових фраз та вибирав відповідні сторінки. BERT розуміє сенс запиту, аналізуючи додаткові слова у них.
Складання якісного контенту допоможе покращити ваш рейтинг у пошуковій видачі загалом. Важливо, щоб вміст відповідав потребам користувачів. Також корисно проаналізувати пошукові запити, додати відповідні фрази, створити нові сторінки з органічним контентом. Ці дії будуть корисні для всіх алгоритмів.
Підведемо підсумки
BERT має архітектуру нейронної мережі, яка враховує весь контекст запиту, включаючи початок та дієприкметникові обороти посередині. Це відрізняє його від попередніх моделей, які враховували контекст лише частково.
Впровадження нейронної мережі БЕРТ в ядро алгоритмів пошуку Google – це черговий крок корпорації до поліпшення розуміння запитів користувачів, що вводяться.




