Новый набор MCP-сервисов превращает большие языковые модели в практичного помощника разработчика 1С. Комплект закрывает главные боли команд: «галлюцинации» LLM, незнание структуры конфигураций и нюансов BSL, дорогой контекст и сложное развертывание.
Разработка на платформе 1С с применением больших языковых моделей стала значительно эффективнее благодаря новому комплексу MCP-серверов, специально разработанному для работы с метаданными и синтаксисом 1С.
Коротко: что появилось
- Три MCP-сервера из коробки:
- Поиск по метаданным 1С (RAG);
- Базовая проверка синтаксиса через BSL Language Server;
- Поиск по справке синтакс-помощника.
- Векторная БД Qdrant с гибридным поиском (семантика + BM25).
- Микросервисная архитектура в Docker: embedding-service, loader, Qdrant, bsl-language-server и MCP-сервисы – все поднимается docker-compose.
- Поддержка нескольких конфигураций в одной БД (коллекции на уровне Qdrant).
LLM «понимает» 1С только тогда, когда ей подсказывают контекст: где и что искать, как зовутся объекты, какие у них связи и ограничения синтаксиса. Новый комплект делает это системно: IDE обращается к MCP, MCP дает LLM только релевантные факты, что снижает информационный шум и помогает экономить токены.
Какие задачи решает
- Поиск объектов: LLM опирается на реальные метаданные и справку, поэтому промахов при генерации кода становится меньше.
- Экономия токенов: MCP возвращает компактные ответы (ID + имя) в JSON или текстом.
- Базовые синтаксические проверки без «прогрева» сервиса: не заменяют полноценный анализ и ревью кода, но помогают ловить очевидные синтаксические ошибки (например, незакрытые конструкции) быстрее.
Важно отметить, что проверяются только отдельные фрагменты кода, которые выбирает сама LLM. Отправка фрагментов в MCP расходует output-токены, а часть ошибок (например, использование зарезервированных слов вроде «Символы», «И», «Выполнить») остается незамеченной.

В ближайшее время появится обновление с интеграцией на уровне файла/модуля, что сильно сэкономит токены.
- Упрощенный запуск стека: все разворачивается одной командой docker compose up -d, без ручной сборки.
Преимущества перед аналогами
- Гибридный поиск «из коробки». Плотные векторы для смысла + sparse-векторы BM25 по ключевым словам дают устойчивую релевантность как в типовых, так и в «терминологически нестандартных» конфигурациях.
- Компактная выдача для LLM. MCP возвращает только идентификаторы и наименования (внутреннее и синоним), а полный текст подгружается по требованию – меньше токенов, стабильнее ответы.
- Одна база данных для многих конфигураций. Коллекции в Qdrant позволяют держать несколько проектов и быстро переключаться на уровне заголовка запроса (x-collection-name).
- Гибкая векторизация. По умолчанию – легкая и быстрая sergeyzh/BERTA (~400 МБ RAM); для более сложных задач – Qwen3-Embedding-0.6B (≈1.5–2 ГБ RAM), multilingual-e5 и др.
- Чистая микросервисная сборка. Каждый компонент можно использовать отдельно, переиспользовать в других проектах и масштабировать независимо.
Чем решение полезно для разработчиков
- Ищу объект – сразу получаю shortlist. MCP возвращает 5-10 наиболее релевантных позиций (ID + имя). LLM на их основе точнее формирует запрос или код.
- «Пишу код» – типовые синтаксические огрехи подсвечиваются оперативно.
- Нужна справка – не выхожу из IDE. MCP по синтакс-помощнику возвращает выдержки и ссылки, LLM формирует корректный пример.
- Меньше переписываний. Благодаря структуре ответов и гибридному поиску снижается число итераций «не то – переделать».
Что внутри поставки
- docker-compose.yml для запуска всех контейнеров и блок настроек;
- Отдельный конфиг для BSL Language Server (включать/выключать проверки);
- Обработка выгрузки описаний метаданных из 1С;
- Примеры конфигураций MCP-клиента для Cursor и VS Code;
- Настройки производительности: размер батчей в loader, лимит TOPK_LITE_SEARCH_LIMIT, переключатель USE_HYBRID_SEARCH.
Набор MCP-сервисов – это практичный способ адаптировать LLM к задачам в 1С: организовать поиск объектов по метаданным, упростить базовые проверки, сократить затраты на контекст и гибко масштабировать инфраструктуру.
Для команд это означает меньше рутинных шагов, меньше токенов и больше времени на логику продукта. Разработчикам 1С доступен автопоиск нужных объектов, подсказки по синтаксису, меньше рутины. Техлиды и архитекторы получат предсказуемую интеграцию LLM в процессы, контроль затрат на токены. Команды внедрения – быстрый поиск по метаданным разных конфигураций в одном месте. Компании с несколькими базами смогут организовать работу с несколькими конфигурациями параллельно, без «переклейки» окружения.

Превратите LLM из стажера в senior-разработчика 1С
MCP-серверы для 1С. Добавьте контекст вашей конфигурации в любое LLM и получите релевантный, чистый код без лишних вопросов
