Дисклеймер: Всё, что вы сейчас увидите – сделано не профессионалом.
Повторяйте на свой страх и риск, автор не несет ответственности за полученный вами результат.
У вас может получиться лучше.
История моего знакомства с вайб-кодингом началась весной 2025 года, когда отовсюду посыпались новости о том, что нейросети вот-вот начнут писать приложения по одному слову, строить дома и вообще заменят все и всех.

На тот момент (да и до сих пор) у меня был обычный компьютер: видеокарта с 16 ГБ видеопамяти, 32 Гб оперативки – ничего сверхъестественного.
Ну и я сам в комплекте. Работа – не единственный мой интерес, поэтому идея «ничего не делать, а оно само работает» звучала слишком заманчиво, чтобы пройти мимо: хотелось развивать пет-проекты, закрывать задачи и получать зарплату вовремя.
Я решил: кто лучше расскажет про нейросети, чем сама нейросеть? Обратился к DeepSeek и попросил объяснить, как мне поднять локального помощника для 1С.
Почему локального?
-
Потому что из статей и обзоров я все равно ничего не пойму. Мне нужно все самому попробовать, попсиховать, побиться головой об стену – тогда что-нибудь в голове отложится.
-
Платить за эксперименты мне не хотелось.
-
Ну и интересно было проверить, насколько правдивы все эти заявления о преимуществах нейросетей, которые звучали на тот момент «из каждого утюга» .

Итак, я решил поставить себе локальную нейронку. Самыми простыми и перспективными поставщиками таких LLM тогда были LM Studio и Ollama.

LM Studio мне вообще показался прям топом за свои деньги:
-
Там есть интерфейс.
-
Можно выбирать любые модели, доступные на Hugging Face.
-
Удобно настраивать модели.
-
Можно назначать разные модели под разные чаты.
-
Есть возможность распределять ресурсы.

Особенно меня порадовала галочка «Лучшее совпадение» – она фильтрует выдачу так, чтобы в списке выводились только те модели, которые не «похоронят» ваш компьютер. Потому что в Ollama можно ориентироваться только на звуки гудения компьютера и на температуру в помещении через 5 минут после запуска. Здесь же тебя десять раз остановят.
Более того, там для каждой строчки еще будет отдельно показываться:
-
такая-то модель полностью поместится в видеопамять;
-
такая-то – частично залезет в оперативку;
-
а эту даже не пытайся ставить – не делай глупостей.

Теперь об Ollama.
-
В последнее время у нее наконец-то появился интерфейс, а на тот момент скачивать, удалять и настраивать модели можно было исключительно через терминал – Ollama по сути была консольной утилитой.
-
Подойдет модель вашему компьютеру или нет – тоже приходилось выяснять самостоятельно: рассчитывать по характеристикам железа либо идти к тому же DeepSeek и спрашивать: «А вот такую модель с такими параметрами моя машина вообще вытянет?»
-
Из интересного – в Ollama есть механизм Modelfile, который позволяет собирать собственную версию модели. Вы можете скачать практически любую модель в формате GGUF, переопределить ее параметры и пользоваться.
Где пользоваться
Допустим, мы поставили LM Studio и во всем разобрались. Теперь нам нужно понять, где всем этим пользоваться, чтобы была хоть какая-то польза.
Конечно, мы можем пользоваться нейросетью прямо в интерфейсе LM Studio или Ollama. Но я решил на этом не останавливаться и попросил DeepSeek предложить – что еще мне можно скачать и поставить, чтобы развернуть локального помощника, который будет делать мою работу за меня.

И почему-то из всех существующих и несуществующих вариантов для вайб-кодинга DeepSeek решил мне предложить Private GPT.
-
По сути, это RAG-инструмент, которому мы просто скармливаем свои файлы, и при ответах на вопросы он дополняет свои знания этими файлами – например, я попробовал ему скормить стандарты разработки для 1С.
-
Мы можем загрузить в него любую модель в формате GGUF.
-
И в целом он неплохо справляется со своими обязанностями.
На этом плюсы заканчиваются.

Минусов побольше:
-
Во-первых, интерфейс выглядит так, как будто его собрали на обычных формах по принципу «работает – и ладно».
-
Чат доступен только один – для создания другого чата приходится все удалять и начинать заново.
-
И главная боль – это настройка. Вся настройка производится в YAML-файле, где параметры просто раскиданы по разделам. Чтобы найти нужную настройку и понять, за что она отвечает – нужно разбираться самому. Причем DeepSeek не особо понимал, что это за файл. Я пробовал его ему скармливать – он что-то предлагал, но все мимо. И ладно бы там все было бы изначально заполнено, и оставалось только подставить нужные значения. Нет – все нужно придумывать и прописывать самостоятельно, чтобы хоть что-то запустилось.
Поэтому Private GPT мне не подошел, я начал искать другие варианты.

Следующим оказался Open Web UI.
Кстати, я забыл упомянуть один из важных плюсов Ollama: у нее огромное количество интеграций. Там есть и веб-приложения, и мобильные приложения, и для Apple Vision, и куча плагинов для VS Code – что угодно. И каждое приложение предоставляет к Ollama свой собственный интерфейс – Open Web UI был одним из самых популярных.
-
У него довольно приятный интерфейс.
-
И можно создавать несколько чатов – каждый со своей моделью.

А главное – тот самый Modelfile, о котором я уже рассказывал, можно было настраивать через интерфейс:
-
Мы просто выбираем модель.
-
Пишем для нее промт.
-
Задаем базу знаний – подключаем файлы, с которыми она должна работать.
-
Сохраняем, и у нас уже получается своя переопределенная модель, которую не надо каждый раз перенастраивать – она появляется прямо в списке рядом с изначальной.

-
Скачивать или удалять модели через терминал теперь тоже не нужно – все также доступно из интерфейса.
-
Можно настраивать права доступа.
-
И, как я уже сказал, для контекста в модель можно скармливать свои файлы.

Из минусов:
-
Open Web UI – это только под Ollama, что-то другое мы сюда уже не прицепим.
-
Ну и MCP-серверов для Open Web UI нет.

Следующим вариантом оказался Agent Zero. Это вообще была моя отдельная любовь – я увидел его на GitHub, развесил уши, раскатал губу и игнорировал вообще всякий здравый смысл.
В описании было написано примерно следующее: «Agent Zero может все. По возможностям он совсем чуть-чуть ниже бога. Будь аккуратен, настраивай ограничения – и он все сделает за тебя».
И я подумал: отлично, наконец-то кто-то будет работать вместо меня. Но все оказалось не так просто:
-
Да, в нем есть поддержка нескольких чатов и довольно удобный интерфейс.
-
Можно подключать как локальные, так и облачные модели.

-
Из необычного – можно создавать задачи по расписанию.

-
А еще поддерживаются MCP и база знаний.

Но, к сожалению, большинство возможностей Agent Zero я так и не смог нормально оценить, потому что максимальный размер чата у него оказался ограничен – дальше начинались зацикливания, заканчивался контекст, и все падало.
-
Основная причина падений – в том, что у Agent Zero огромные системные промты. Список на слайде – это примерно четверть от всех файлов, из которых формируется итоговый промт модели. Например, для запуска агента нам нужно создать папку, как-то ее назвать и переопределить часть из списка этих дефолтных файлов с промтами – написать там что-то вроде: «ты – 1С-ник, знаешь такие-то технологии, умеешь работать с такими-то инструментами». Но я же из тех людей, которые сначала делают, а потом документацию читают – я переопределил только три файлика и решил, что для контекста этого будет достаточно. Оказалось, что все остальное в промте берется из настроек по умолчанию, что в итоге приводило к переполнению контекста и зацикливаниям.
-
К тому же Agent Zero использует одновременно три модели: основную, сервисную и эмбеддинговую. Локальный компьютер от такой нагрузки серьезно нагружался, и работать было крайне сложно.
Что это дало?
В какой-то момент я понял: хватит надеяться на DeepSeek, пора подключать голову. Чтобы модель действительно помогала в кодинге, ей нужен контекст проекта. А значит – интеграция с редактором. Логичный выбор – VS Code и плагины к нему.

Например RooCode – это форк от Cline.
Он тоже позволяет подключать как локальные, так и облачные модели конкретного провайдера API. Причем у него плюс в том, что он их сразу видит, в отличие от того же Agent Zero, где нужно отдельно указывать путь к Ollama, а потом вручную прописывать название модели. Там, если ошибся в одной букве – ничего не получишь, а здесь сразу после выбора поставщика подтягивается список моделей, откуда можно выбрать нужную.

Еще из интересного в RooCode есть улучшение промта. Правда подозреваю, что улучшение происходит той же моделью, что и подключена, поэтому вау-эффекта ждать не стоит.
Иногда он действительно что-то переписывал, но в основном просто сообщал, что улучшить не удалось. В такие моменты я успокаивал себя мыслью, что написал идеальный промт. Хотя, скорее всего, дело было не в этом.

Из минусов – в контекстном меню всего два пункта: «Объяснить код» и «Улучшить код».
В общем, мне он показался малофункциональным, поэтому я продолжил изучать другие варианты.

Следующий инструмент – Continue от Microsoft. У него возможностей в контекстном меню побольше: он предлагает и починить код, и оптимизировать, и документацию к коду написать и просто комментарии. Причем это плюс-минус нормально работает даже на локальных моделях. Правда с документирующими комментариями иногда получался странный микс языков – одно из десяти слов может быть не на английском. Но в целом для рабочих задач меня это уже вполне устраивало.

Еще один приятный момент – демодоступ к двум нормальным моделям. Регистрируешься на сайте Continue, логинишься в VS Code – и модели становятся доступны. Правда, на первой же серьезной рабочей задаче можно быстро упереться в демонстрационные ограничения, но все же.

Зато есть личный кабинет. И настройки моделей происходят не в маленьком окошке плагина внутри VS Code, а в нормальном веб-интерфейсе. Настроил – и при входе в редактор все подтягивается автоматически (промты точно, а локальные модели и MCP – уже отдельно).
На этом этапе мое желание работать с локальными моделями закончилось. Платить все равно не хотелось, а идеального «пишет код за меня» я так и не увидел. Поэтому пошел искать бесплатные облачные варианты.

Из простого:
-
Mistral – можно создать до 50 API ключей. Модели слабее топовых решений, но лучше того, что я поднимал локально. А главное – бесплатно.
-
OpenRouter – там тоже можно найти бесплатные модели.
-
И, наконец – Koda, моя любимица.

Во-первых, Koda – это бесплатно.
Во-вторых, это российская разработка, которую делала команда разработчиков Gigakode – они ее когда-то начинали, а потом ушли делать свое.

В Koda доступны популярные модели, к которым суммарно дается 1000 запросов.

Есть авторежим, который по заявлению разработчиков всегда будет бесплатным. Это что-то наподобие авторежима в Cursor, но без подписки, и его, в принципе, хватает для реальных задач.
Плюс добавили поддержку MCP.

Пока все это со мной происходило, я смотрел, кто как вообще вайбкодит. И пришло несколько мыслей.
-
Во-первых, с локальными моделями я уже наигрался – во всяком случае, в рамках вайбкодинга. Да, с ними много чего можно делать, но не кодить точно.
-
Если у вас видеокарта дешевле, чем однушка в регионе, у вас вряд ли получится полноценный вайбкодинг. Нейросеть будет помогать, будет писать небольшие методы. Но не больше.
-
Я все так же никому не собираюсь платить за ИИ. Но важнее другое: нейросети нужны не всем и не для всего. Сейчас многие ринулись в вайбкодинг – читаешь чаты, и все хотят, чтобы формы генерировались автоматически, автотесты писались сами, и вообще, чтобы все делалось само. А потом смотришь, кто это пишет – человек только что университет закончил. И возникает вопрос: а что именно ты собрался автоматизировать? Нейросеть может написать код. Возможно, он даже будет работать. Но ответственность за этот код все равно же несет разработчик.
-
Поэтому, чтобы не плодить легаси и не добавлять седых волос тимлиду, джунам я бы вообще не давал нейросети в режиме «пиши за меня». А когда разработчик уже понимает, что делает, здесь уже можно посоветоваться с ИИ – получить варианты и дальше написать самому. Либо наоборот: создать все метаданные и модули, а потом попросить дописать небольшой кусок кода. Да, нейронка часто пишет больше, чем нужно, и потом еще приходится минут двадцать сокращать это до нормального состояния. Но все равно выходит быстрее, чем с нуля. В итоге и мозги не ржавеют, и задачи закрываются быстрее. А главное: вы можете за это никому не платить, а вам за задачу заплатили – в общем, схема рабочая.
Вопросы и ответы
Пробовали ли вы применять MCP, насколько он расширяет возможности на практике? Коллеги на других докладах говорили, что без MCP использовать нейросети для 1С вообще бессмысленно.
Для локальных моделей я, конечно, пробовал запустить MCP, но у меня все упало.
В Koda я MCP не использую. У меня, как правило, довольно локальные задачи: метод уже написан, и я просто прошу модель немного дописать или поправить кусок, глядя на окружающий контекст. Конечно, в дальнейшем я и модели другие буду пробовать, и MCP.
Так поэтому и говорят, что без документации и нужного контекста получается ерунда. Может, попробуете, и качество улучшится?
Но MCP же просто помогают задать контекст. А контекст можно задать двумя способами: ты либо сам проходишь, собираешь метаданные, и отдаешь это в нейросеть, либо тебе в этом помогает MCP. И до сих пор ведутся споры, как это сделать правильнее.
Пробовали ли вы на локальной машине вместе с Ollama использовать n8n?
Вообще мы используем n8n, но не для Ollama, а для телеграм-ботов. А для нейросетей это как раз в списке «пощупать позже». Думаю, на локальной машине это будет приключение на отдельный доклад.
*************
Статья написана по итогам доклада (видео), прочитанного на конференции INFOSTART TECH EVENT.
Вступайте в нашу телеграмм-группу Инфостарт

