Что такое llms.txt и зачем он нужен в 2026
llms.txt — текстовый файл в корне сайта, который LLM-боты читают, чтобы быстро понять, что у вас за сайт и куда смотреть за деталями. Предложен Джереми Говардом (fast.ai, Answer.AI) в сентябре 2024 и оформлен как публичная спецификация на llmstxt.org.
Зачем он вообще нужен
Классический sitemap.xml показывает поисковому боту список URL. Этого достаточно, чтобы боту было что прокраулить. Но LLM — не краулер в классическом смысле: у неё есть ограничение на контекст и стоимость каждого запроса. Если вы оставите её наедине с 200-страничным сайтом, она посмотрит home-page, три случайные страницы и сделает вывод.
llms.txt делает ровно одно: отвечает на вопрос «что здесь самое важное и в каком порядке читать». Это конспект для того, кто пришёл за ответом, а не за индексацией.
Чем llms.txt НЕ является
Не замена robots.txt — он не управляет доступом, там нет Allow/Disallow.
Не замена sitemap.xml — это не список всех URL.
Не обязательный стандарт — отсутствие файла не штрафуется; наличие — подсказка, не гарантия.
Как он выглядит
Формат — markdown в обычном .txt файле. Минимально рабочая структура:
# Название проекта
> Одно-два предложения: что за сайт, для кого, на каком языке.
## Ключевые разделы
- [Название раздела](https://example.ru/path): что там лежит и зачем туда идти
- [FAQ](https://example.ru/#faq): ответы на частые вопросы
- [Цены](https://example.ru/#pricing): три формата, от бесплатного
## Дополнительно
- [Политика конфиденциальности](https://example.ru/privacy)
- [Контакты](https://example.ru/#contact): email, форма заявки
Главные правила: h1 с названием проекта, блок-цитата (>) с коротким описанием, h2-секции со списками ссылок в формате [текст](url): описание. Всё. Никаких специальных токенов, никакой схемы, которую надо валидировать.
Живой пример
Вот llms.txt самого SERPion на момент написания этого гайда:
# SERPion
> Аналитика видимости сайта в ИИ-поиске — Яндекс.Нейро, GigaChat,
> ChatGPT, Claude, Perplexity. Честная методология, открытая для
> каждой метрики. Без маркетинговой магии.
SERPion — это аудит того, как ИИ-модели читают и цитируют ваш
сайт. Фокус — RU-сегмент (Яндекс.Нейро, GigaChat, YandexGPT),
международные модели — вторым слоем.
## Главное
- [Лендинг](https://serpion.ru/): как работает аудит, кому нужен
- [Как работает](https://serpion.ru/#how): 3 шага от URL до отчёта
- [Кейс](https://serpion.ru/#case): наш собственный сайт, 46→72
## FAQ
- [Правда ли меряем Нейро?](https://serpion.ru/#faq): ответ про
proxy-метрику и отсутствие публичного API
- [Цены](https://serpion.ru/#pricing): 0 ₽ / 50 000 ₽ / retainer
500 байт, пишется за 10 минут. Положить в корень, проверить, что curl https://example.ru/llms.txt возвращает 200 и content-type начинается с text/plain — всё.
Что он реально меняет
Честный ответ: в апреле 2026 — неизмеримо для большинства случаев. Публичных замеров, где «llms.txt поднял цитируемость на X%», нет. Никто не сообщает API-подтверждения, что модель прочитала именно llms.txt, а не просто home-page.
При этом:
- OpenAI упоминает llms.txt в рекомендациях для владельцев сайтов. Anthropic упоминает в документации Claude. Perplexity читает.
- Документационные сайты (docs.stripe.com, docs.fastapi.com и др.) стали выкладывать
llms-full.txt— полный текст документации в одном файле, чтобы LLM не приходилось ползать по сотням URL. Это прямой сигнал, что формат используется на практике. - Цена внедрения — 10 минут. Если когда-нибудь заиграет — вы уже готовы. Если нет — потеряли 10 минут.
Типовые ошибки при внедрении
1. Content-Type: text/html вместо text/plain. Проверьте в nginx/.htaccess: AddType text/plain .txt.
2. Хостер возвращает 404-fallback в 700+ KB. Если файла нет, некоторые shared-хостинги отдают свою html-страницу «файл не найден». Боты считывают её как валидный ответ и запоминают чушь. Всегда делайте 404→ErrorDocument 404 /404.html.
3. Ссылки на несуществующие разделы. Если в llms.txt упоминается /docs/getting-started, но у вас нет такого URL — модель потратит бюджет на 404 и может ухудшить доверие.
Быстрая проверка
Одной командой в терминале:
curl -I https://example.ru/llms.txt
# Что должно вернуться:
# HTTP/2 200
# content-type: text/plain; charset=utf-8
# content-length: ~500-2000
# Если вместо этого:
# HTTP/2 404 — файла нет
# content-type: text/html — неправильный MIME-type
# content-length: 700000 — хостинг-404 fallback
Что читать дальше
- llmstxt.org — официальная спецификация, короткая и ясная
- github.com/AnswerDotAI/llms-txt — referens-implementation от Answer.AI (проект Джереми Говарда)
- Наш llms.txt — используйте как шаблон
Частые вопросы
llms.txt — это то же самое, что robots.txt?
Нет. robots.txt — древний стандарт, который говорит боту «куда можно ходить». llms.txt — это подсказка LLM: «вот самые важные страницы сайта, вот их смысл в двух словах, вот куда смотреть за деталями». Разные задачи, разные форматы, разные места применения. И тот, и другой должны лежать в корне сайта — они не конкурируют.
llms.txt уже официально поддерживают ИИ-поисковики?
На апрель 2026 — частично. OpenAI, Anthropic, Perplexity упоминают его в документации. Яндекс.Нейро и GigaChat — не подтверждают официально. Файл размером в 500 байт — страховка с нулевой стоимостью: если боты его не читают, вы ничего не теряете.
Где должен лежать llms.txt?
В корне домена. URL — https://example.ru/llms.txt. Content-Type — text/plain; charset=utf-8. HTTP 200. Не text/html — это частая ошибка: хостинг при 404 возвращает html-заглушку, и боты думают, что файла нет.
Нужен ли llms-full.txt?
llms-full.txt — опциональное расширение стандарта: полный текст основного контента сайта в markdown, чтобы LLM не приходилось ползать по десяткам URL. Полезно для документационных сайтов и API-референсов. Для обычного лендинга — избыточно.
Как проверить, что llms.txt правильный?
curl -I https://ваш-домен/llms.txt — статус 200 и content-type начинается с text/plain. Для полной проверки (структура, ссылки, размер) — запустите SERPion, в отчёте будет отдельная проверка llms.txt с пояснением, что не так.