Як скласти файл robots.txt?

Як скласти файл robots.txt?
Як скласти файл robots.txt?

Файл robots.txt – це спеціальний індексний файл, призначений для вказівки пошуковим роботам на те, що можна індексувати на сайті, а що не можна. Але як було написано у попередній нашій статті, для закриття деяких сторінок на сайті потрібно застосовувати інші способи, поговоримо про них далі.

Звичайно, можна вбити пошуковий запит «стандартний файл robots.txt» і, знаючи адмінку, на якій написаний сайт, завантажити його з інтернету. Але кожен сайт є унікальним і те, що підходить одному, не обов’язково підходить іншому. Саме тому необхідно індексний файл створювати індивідуально для кожного сайту. Тоді ви точно будете впевнені, що робот правильно обходитиме сторінки.

Складання файлу robots.txt ми завжди починаємо з розвантаження сайту. Що це таке? Це спеціальний файл із усіма сторінками сайту та їх параметрами: url, title, description, тип, відповідь сервера, розмір тощо. Все це оформлено в окремому файлі у вигляді великої таблиці, деякі сервіси надають онлайн перегляд вивантаження. Програм для вивантаження та первинного аналізу сайту просто маса, не акцентуватимемося на них, щоб не робити реклами. Нам підійде будь-яка, яка вивантажує адресу сторінки, її тип та доступність.

Для чого потрібний файл robots.txt

Насамперед для того, щоб побачити повну кількість сторінок та файлів на сайті. Також за його допомогою добре видно шляхи розташування тих чи інших файлів та наявності сторінок сортувань, фільтрів та сторінок з динамічними параметрами. Практично всі сучасні програми показують, відкрито сторінку для індексування чи ні.

Потрібні доступи на ftp або хостинг, щоб переглянути структуру папок та каталогів. Чисто теоретично, роботс можна скласти і без доступів, знаючи адмінку сайту та приблизну внутрішню структуру сайту. Для того, щоб визначити адмінку, можна скористатися сервісом WhatCMS.

Ми практикуємо спосіб написання robots.txt за методом «закрий все – відкрий потрібне», таким чином ми мінімізуємо можливість потрапляння в пошукову видачу сміттєвих сторінок і файлів.

Складання файлу robots.txt

Нижче розглянемо поетапно, як правильно складати файл robots.txt.

Написання robots.txt

Перше, що нам потрібно зробити, – це створити на комп’ютері звичайний текстовий документ з ім’ям robots.txt і зберегти його в кодуванні utf-8. Регістр символів у назві має бути у всіх букв однаковий – нижній. Назва має бути не Robots.txt, не ROBOTS.txt – а саме robots.txt і ніяк інакше.

Як скласти файл robots | WEDEX

Прописуємо першу команду, яка вказує директиви на обхід чи ігнорування. Це команда User-agent. Після неї без пропуску необхідно поставити «:» (двокрапка), пропуск та ім’я конкретного робота або * (для всіх роботів). Розглянемо наш сайт wedex.com.ua.

У своїй практиці ми не поділяємо директиви під різні пошукові системи. Розділяти їх потрібно лише в тому випадку, коли вам необхідно для різних пошукових систем індексувати різні файли. Наприклад, якщо сайт потрапив в одній із пошукових систем під фільтр, а по іншій все відмінно, тоді не варто міняти сайт, краще скопіювати його на інший домен і виправити помилки – і таким чином у вас буде 2 сайти, які дають трафік кожен зі свого пошуковика.

Прописуємо Allow та Disallow

Далі заходимо на FTP. Зробити це можна або за допомогою TotalCommander, або за допомогою інших програм. Ми користуємося програмою WinSCP, тому що вона дозволяє вносити редагування у файли «на льоту».

Відкриваємо зручну для використання програму та заповнюємо дані для доступу до ftp сайту.

Як скласти файл robots | WEDEX

Якщо все зроблено правильно, побачите приблизно це:

Як скласти файл robots | WEDEX

Копіюємо назву папок та закриваємо їх за допомогою директиви Disallow.

Як скласти файл robots | WEDEX

Виходить приблизно так:

Як скласти файл robots | WEDEX

Далі ми починаємо працювати з розвантаженням сайту. Нам потрібно перевірити, чи ми не закрили якісь важливі сторінки. Заходимо в Validator and Testing Tool для перевірки, заповнюємо всі необхідні дані та натискаємо «Test».

Як скласти файл robots | WEDEX

Додаємо адреси з вивантаження, які потрібно перевірити, закриті чи відкриті вони до індексації. Можна перевірити 1 url.

За зеленим написом «Allowed» нижче видно, що сторінка відкрита для індексації – це те, що нам потрібно.

Як скласти файл robots | WEDEX

Далі за вимогами пошукових систем для індексації повинні бути відкриті всі java-скрипти, css-файли та картинки. Тому ми перевірятимемо кожен тип файлів так само, як перевіряли html сторінки.

Вибираємо адреси всіх файлів js у файлі вивантаження та перевіряємо їх доступність так, як показали вище. Якщо файли ява-скриптів закриті, їх потрібно відкрити. Знаходимо всі урли скриптів та шукаємо, як можна згрупувати.

Як скласти файл robots | WEDEX

Групуємо по папках та розширеннях. Додаємо відповідні директиви Allow у файл роботса.

Як скласти файл robots | WEDEX

Перевіряємо їхню доступність після внесення правок.

Так ми чинимо з усіма файлами: стилів – css та картинок jpg, png, які у вас є на сайті, також можна дозволити індексацію унікальних pdf, doc, xml, та інших файлів у разі потреби. Дивимося, що в нас зрештою вийшло. Ще раз перевіряємо все, чи нічого зайвого не закрили, і йдемо далі.

Додаємо посилання на карту сайту

Ця директива може бути необов’язковою, якщо у вас немає карти сайту. Але все ж таки ми дуже рекомендуємо згенерувати карту сайту хоча б автоматичним сервісом або створити вручну.

Додаємо директиву Sitemap, ставимо двокрапку та пропуск і вставляємо посилання на карту вашого сайту. У нас карта сайту лежить у кореневому каталозі та має стандартну назву sitemap.xml. Тому ось що в нас вийшло зрештою.

Як скласти файл robots | WEDEX

Додавання файлу robots.txt на сайт

Після того, як ви закінчили його складання, вам потрібно додати його до конової папки сайту. Це дуже просто. Зробити це можна через програму, якою ви дивилися папки на FTP.

Просто відкриваєте кореневу папку вашого сайту і перетягуєте туди новий роботс.

Додавання файлу robots.txt на сайт | WEDEX

Перевірка в Google SearchConsole

У GSC можна перевірити, чи може Google обробити файли robots.txt. Для цього потрібно відкрити сервіс під своїм логіном, натиснути «Налаштування» – «Відкрити звіт».

Перевірка в Google SearchConsole | WEDEX

Тут ви побачите його параметри.

Перевірка в Google SearchConsole | WEDEX

За звітом robots.txt можна побачити, які файли robots.txt Google знайшов для 20 найпопулярніших хостів на вашому сайті, час останнього сканування, а також будь-які попередження чи помилки.

Підведемо підсумки

Файл robots.txt є важливим інструментом, який відіграє ключову роль у взаємодії з пошуковими роботами і є невід’ємною частиною ефективного SEO. Він дозволяє контролювати процес індексації сайту та керувати доступом пошукових систем до певних сторінок. Правильне налаштування robots.txt може значно покращити видимість вашого сайту у пошуковій видачі.

Сергій Іванченко
CEO
комерційна пропозиція

    SEO-просуванняКопірайтингSMM-просуванняРозробкаКонтекстна рекламаДизайн
    Digital новини в нашому телеграм-каналі
    Інтернет-маркетинг
    простою мовою
    підписатись
    Інші статті автора
    05/12/2023
    SEO (з англ. Search Engine Optimization) просування – це процес покращення якості та кількості трафіку з пошукових систем на сайт або певну його сторінку за допомогою проведення комплексу робіт, а також подальша його монетизація шляхом отримання прибутку у вигляді потенційних клієнтів чи продажу.

    18/12/2024
    Структура кожного сайту буде унікальною, як і окремо взятий бізнес. Так, у всіх великих веб-ресурсів вона буде схожою, але все ж орієнтованою на конкретний продукт та особливості цільової аудиторії. У більшості випадків використовується класична лінійна чи деревоподібна структура через їх зрозумілість для користувачів та швидкість індексації пошуковими роботами.

    17/05/2024
    Файл robots.txt – це спеціальний індексний файл, призначений для вказівки пошуковим роботам на те, що можна індексувати на сайті, а що не можна. Він потрібен для того, щоб побачити повну кількість сторінок та файлів на сайті. Також за його допомогою добре видно шляхи розташування тих чи інших файлів та наявності сторінок сортувань, фільтрів та сторінок з динамічними параметрами.

    Останні статті по #SEO
    24/04/2025
    Зазвичай, для аналізу різного роду даних (мета-теги, ключі тощо) SEO-спеціалісти використовують різноманітні сервіси по типу SEMRush, Serpstat чи Ahrefs. Але весь потужний функціонал цих інструментів не завжди доречний для якихось невеликих або повсякденних задач SEO.

    23/04/2025
    Інтент пошукового запиту у SEO — сенс, який користувач вкладає в свій запит до пошуковика. Інакше інтент можна назвати метою, наміром, в якомусь сенсі навіть болем користувача.

    01/04/2025
    iFrame — це простий спосіб зробити сторінки сайту або блогу інтерактивним. Але чи є тег iFrame безпечним для SEO вашого сайту? Навколо цього питання є декілька неоднозначних позицій, з якими ми спробуємо розібратися в цьому матеріалі.

    WhatsApp Telegram Viber Почати розмову