К вайб-кодингу через боль

24.02.26

Интеграция - Нейросети

Стоит ли пытаться писать код с помощью локальных ИИ-моделей на видеокартах, которые к этому вообще не приспособлены? Спойлер: не стоит. И если у вас нет безлимитного бюджета на железо, лучше даже не начинать эту игру. Расскажем о том, когда ИИ действительно ускоряет работу, а когда просто плодит легаси и греет железо.

Дисклеймер: Всё, что вы сейчас увидите – сделано не профессионалом.
Повторяйте на свой страх и риск, автор не несет ответственности за полученный вами результат.
У вас может получиться лучше.

История моего знакомства с вайб-кодингом началась весной 2025 года, когда отовсюду посыпались новости о том, что нейросети вот-вот начнут писать приложения по одному слову, строить дома и вообще заменят все и всех.

 

 

На тот момент (да и до сих пор) у меня был обычный компьютер: видеокарта с 16 ГБ видеопамяти, 32 Гб оперативки – ничего сверхъестественного.

Ну и я сам в комплекте. Работа – не единственный мой интерес, поэтому идея «ничего не делать, а оно само работает» звучала слишком заманчиво, чтобы пройти мимо: хотелось развивать пет-проекты, закрывать задачи и получать зарплату вовремя.

Я решил: кто лучше расскажет про нейросети, чем сама нейросеть? Обратился к DeepSeek и попросил объяснить, как мне поднять локального помощника для 1С.

Почему локального?

  • Потому что из статей и обзоров я все равно ничего не пойму. Мне нужно все самому попробовать, попсиховать, побиться головой об стену – тогда что-нибудь в голове отложится.

  • Платить за эксперименты мне не хотелось.

  • Ну и интересно было проверить, насколько правдивы все эти заявления о преимуществах нейросетей, которые звучали на тот момент «из каждого утюга» .

 

 

Итак, я решил поставить себе локальную нейронку. Самыми простыми и перспективными поставщиками таких LLM тогда были LM Studio и Ollama.

 

 

LM Studio мне вообще показался прям топом за свои деньги:

  • Там есть интерфейс.

  • Можно выбирать любые модели, доступные на Hugging Face.

  • Удобно настраивать модели.

  • Можно назначать разные модели под разные чаты.

  • Есть возможность распределять ресурсы.

 

 

Особенно меня порадовала галочка «Лучшее совпадение» – она фильтрует выдачу так, чтобы в списке выводились только те модели, которые не «похоронят» ваш компьютер. Потому что в Ollama можно ориентироваться только на звуки гудения компьютера и на температуру в помещении через 5 минут после запуска. Здесь же тебя десять раз остановят.

Более того, там для каждой строчки еще будет отдельно показываться:

  • такая-то модель полностью поместится в видеопамять;

  • такая-то – частично залезет в оперативку;

  • а эту даже не пытайся ставить – не делай глупостей.

 

 

Теперь об Ollama.

  • В последнее время у нее наконец-то появился интерфейс, а на тот момент скачивать, удалять и настраивать модели можно было исключительно через терминал – Ollama по сути была консольной утилитой.

  • Подойдет модель вашему компьютеру или нет – тоже приходилось выяснять самостоятельно: рассчитывать по характеристикам железа либо идти к тому же DeepSeek и спрашивать: «А вот такую модель с такими параметрами моя машина вообще вытянет?»

  • Из интересного – в Ollama есть механизм Modelfile, который позволяет собирать собственную версию модели. Вы можете скачать практически любую модель в формате GGUF, переопределить ее параметры и пользоваться.

 

Где пользоваться

 

Допустим, мы поставили LM Studio и во всем разобрались. Теперь нам нужно понять, где всем этим пользоваться, чтобы была хоть какая-то польза.

Конечно, мы можем пользоваться нейросетью прямо в интерфейсе LM Studio или Ollama. Но я решил на этом не останавливаться и попросил DeepSeek предложить – что еще мне можно скачать и поставить, чтобы развернуть локального помощника, который будет делать мою работу за меня.

 

 

И почему-то из всех существующих и несуществующих вариантов для вайб-кодинга DeepSeek решил мне предложить Private GPT.

  • По сути, это RAG-инструмент, которому мы просто скармливаем свои файлы, и при ответах на вопросы он дополняет свои знания этими файлами – например, я попробовал ему скормить стандарты разработки для 1С.

  • Мы можем загрузить в него любую модель в формате GGUF.

  • И в целом он неплохо справляется со своими обязанностями.

На этом плюсы заканчиваются.

 

 

Минусов побольше:

  • Во-первых, интерфейс выглядит так, как будто его собрали на обычных формах по принципу «работает – и ладно».

  • Чат доступен только один – для создания другого чата приходится все удалять и начинать заново.

  • И главная боль – это настройка. Вся настройка производится в YAML-файле, где параметры просто раскиданы по разделам. Чтобы найти нужную настройку и понять, за что она отвечает – нужно разбираться самому. Причем DeepSeek не особо понимал, что это за файл. Я пробовал его ему скармливать – он что-то предлагал, но все мимо. И ладно бы там все было бы изначально заполнено, и оставалось только подставить нужные значения. Нет – все нужно придумывать и прописывать самостоятельно, чтобы хоть что-то запустилось.

Поэтому Private GPT мне не подошел, я начал искать другие варианты.

 

 

Следующим оказался Open Web UI.

Кстати, я забыл упомянуть один из важных плюсов Ollama: у нее огромное количество интеграций. Там есть и веб-приложения, и мобильные приложения, и для Apple Vision, и куча плагинов для VS Code – что угодно. И каждое приложение предоставляет к Ollama свой собственный интерфейс – Open Web UI был одним из самых популярных.

  • У него довольно приятный интерфейс.

  • И можно создавать несколько чатов – каждый со своей моделью.

 

 

А главное – тот самый Modelfile, о котором я уже рассказывал, можно было настраивать через интерфейс:

  • Мы просто выбираем модель.

  • Пишем для нее промт.

  • Задаем базу знаний – подключаем файлы, с которыми она должна работать.

  • Сохраняем, и у нас уже получается своя переопределенная модель, которую не надо каждый раз перенастраивать – она появляется прямо в списке рядом с изначальной.

 

 

  • Скачивать или удалять модели через терминал теперь тоже не нужно – все также доступно из интерфейса.

  • Можно настраивать права доступа.

  • И, как я уже сказал, для контекста в модель можно скармливать свои файлы.

 

 

Из минусов:

  • Open Web UI – это только под Ollama, что-то другое мы сюда уже не прицепим.

  • Ну и MCP-серверов для Open Web UI нет.

 

 

Следующим вариантом оказался Agent Zero. Это вообще была моя отдельная любовь – я увидел его на GitHub, развесил уши, раскатал губу и игнорировал вообще всякий здравый смысл.

В описании было написано примерно следующее: «Agent Zero может все. По возможностям он совсем чуть-чуть ниже бога. Будь аккуратен, настраивай ограничения – и он все сделает за тебя».

И я подумал: отлично, наконец-то кто-то будет работать вместо меня. Но все оказалось не так просто:

  • Да, в нем есть поддержка нескольких чатов и довольно удобный интерфейс.

  • Можно подключать как локальные, так и облачные модели.

 

 

  • Из необычного – можно создавать задачи по расписанию.

 

 

  • А еще поддерживаются MCP и база знаний.

 

 

Но, к сожалению, большинство возможностей Agent Zero я так и не смог нормально оценить, потому что максимальный размер чата у него оказался ограничен – дальше начинались зацикливания, заканчивался контекст, и все падало.

  • Основная причина падений – в том, что у Agent Zero огромные системные промты. Список на слайде – это примерно четверть от всех файлов, из которых формируется итоговый промт модели. Например, для запуска агента нам нужно создать папку, как-то ее назвать и переопределить часть из списка этих дефолтных файлов с промтами – написать там что-то вроде: «ты – 1С-ник, знаешь такие-то технологии, умеешь работать с такими-то инструментами». Но я же из тех людей, которые сначала делают, а потом документацию читают – я переопределил только три файлика и решил, что для контекста этого будет достаточно. Оказалось, что все остальное в промте берется из настроек по умолчанию, что в итоге приводило к переполнению контекста и зацикливаниям.

  • К тому же Agent Zero использует одновременно три модели: основную, сервисную и эмбеддинговую. Локальный компьютер от такой нагрузки серьезно нагружался, и работать было крайне сложно.

 

Что это дало?

 

В какой-то момент я понял: хватит надеяться на DeepSeek, пора подключать голову. Чтобы модель действительно помогала в кодинге, ей нужен контекст проекта. А значит – интеграция с редактором. Логичный выбор – VS Code и плагины к нему.

 

 

Например RooCode – это форк от Cline.

Он тоже позволяет подключать как локальные, так и облачные модели конкретного провайдера API. Причем у него плюс в том, что он их сразу видит, в отличие от того же Agent Zero, где нужно отдельно указывать путь к Ollama, а потом вручную прописывать название модели. Там, если ошибся в одной букве – ничего не получишь, а здесь сразу после выбора поставщика подтягивается список моделей, откуда можно выбрать нужную.

 

 

Еще из интересного в RooCode есть улучшение промта. Правда подозреваю, что улучшение происходит той же моделью, что и подключена, поэтому вау-эффекта ждать не стоит.

Иногда он действительно что-то переписывал, но в основном просто сообщал, что улучшить не удалось. В такие моменты я успокаивал себя мыслью, что написал идеальный промт. Хотя, скорее всего, дело было не в этом.

 

 

Из минусов – в контекстном меню всего два пункта: «Объяснить код» и «Улучшить код».

В общем, мне он показался малофункциональным, поэтому я продолжил изучать другие варианты.

 

 

Следующий инструмент – Continue от Microsoft. У него возможностей в контекстном меню побольше: он предлагает и починить код, и оптимизировать, и документацию к коду написать и просто комментарии. Причем это плюс-минус нормально работает даже на локальных моделях. Правда с документирующими комментариями иногда получался странный микс языков – одно из десяти слов может быть не на английском. Но в целом для рабочих задач меня это уже вполне устраивало.

 

 

Еще один приятный момент – демодоступ к двум нормальным моделям. Регистрируешься на сайте Continue, логинишься в VS Code – и модели становятся доступны. Правда, на первой же серьезной рабочей задаче можно быстро упереться в демонстрационные ограничения, но все же.

 

 

Зато есть личный кабинет. И настройки моделей происходят не в маленьком окошке плагина внутри VS Code, а в нормальном веб-интерфейсе. Настроил – и при входе в редактор все подтягивается автоматически (промты точно, а локальные модели и MCP – уже отдельно).

На этом этапе мое желание работать с локальными моделями закончилось. Платить все равно не хотелось, а идеального «пишет код за меня» я так и не увидел. Поэтому пошел искать бесплатные облачные варианты.

 

 

Из простого:

  • Mistral – можно создать до 50 API ключей. Модели слабее топовых решений, но лучше того, что я поднимал локально. А главное – бесплатно.

  • OpenRouter – там тоже можно найти бесплатные модели.

  • И, наконец – Koda, моя любимица.

 

 

Во-первых, Koda – это бесплатно.

Во-вторых, это российская разработка, которую делала команда разработчиков Gigakode – они ее когда-то начинали, а потом ушли делать свое.

 

 

В Koda доступны популярные модели, к которым суммарно дается 1000 запросов.

 

 

Есть авторежим, который по заявлению разработчиков всегда будет бесплатным. Это что-то наподобие авторежима в Cursor, но без подписки, и его, в принципе, хватает для реальных задач.

Плюс добавили поддержку MCP.

 

 

Пока все это со мной происходило, я смотрел, кто как вообще вайбкодит. И пришло несколько мыслей.

  • Во-первых, с локальными моделями я уже наигрался – во всяком случае, в рамках вайбкодинга. Да, с ними много чего можно делать, но не кодить точно.

  • Если у вас видеокарта дешевле, чем однушка в регионе, у вас вряд ли получится полноценный вайбкодинг. Нейросеть будет помогать, будет писать небольшие методы. Но не больше.

  • Я все так же никому не собираюсь платить за ИИ. Но важнее другое: нейросети нужны не всем и не для всего. Сейчас многие ринулись в вайбкодинг – читаешь чаты, и все хотят, чтобы формы генерировались автоматически, автотесты писались сами, и вообще, чтобы все делалось само. А потом смотришь, кто это пишет – человек только что университет закончил. И возникает вопрос: а что именно ты собрался автоматизировать? Нейросеть может написать код. Возможно, он даже будет работать. Но ответственность за этот код все равно же несет разработчик.

  • Поэтому, чтобы не плодить легаси и не добавлять седых волос тимлиду, джунам я бы вообще не давал нейросети в режиме «пиши за меня». А когда разработчик уже понимает, что делает, здесь уже можно посоветоваться с ИИ – получить варианты и дальше написать самому. Либо наоборот: создать все метаданные и модули, а потом попросить дописать небольшой кусок кода. Да, нейронка часто пишет больше, чем нужно, и потом еще приходится минут двадцать сокращать это до нормального состояния. Но все равно выходит быстрее, чем с нуля. В итоге и мозги не ржавеют, и задачи закрываются быстрее. А главное: вы можете за это никому не платить, а вам за задачу заплатили – в общем, схема рабочая.

 

Вопросы и ответы

 

Пробовали ли вы применять MCP, насколько он расширяет возможности на практике? Коллеги на других докладах говорили, что без MCP использовать нейросети для 1С вообще бессмысленно.

Для локальных моделей я, конечно, пробовал запустить MCP, но у меня все упало.

В Koda я MCP не использую. У меня, как правило, довольно локальные задачи: метод уже написан, и я просто прошу модель немного дописать или поправить кусок, глядя на окружающий контекст. Конечно, в дальнейшем я и модели другие буду пробовать, и MCP.

Так поэтому и говорят, что без документации и нужного контекста получается ерунда. Может, попробуете, и качество улучшится?

Но MCP же просто помогают задать контекст. А контекст можно задать двумя способами: ты либо сам проходишь, собираешь метаданные, и отдаешь это в нейросеть, либо тебе в этом помогает MCP. И до сих пор ведутся споры, как это сделать правильнее.

Пробовали ли вы на локальной машине вместе с Ollama использовать n8n?

Вообще мы используем n8n, но не для Ollama, а для телеграм-ботов. А для нейросетей это как раз в списке «пощупать позже». Думаю, на локальной машине это будет приключение на отдельный доклад.

 

*************

Статья написана по итогам доклада (видео), прочитанного на конференции INFOSTART TECH EVENT.

Вступайте в нашу телеграмм-группу Инфостарт

См. также

Инструментарий разработчика Нейросети Платные (руб)

Первые попытки разработки на 1С с использованием больших языковых моделей (LLM) могут разочаровать. LLMки сильно галлюцинируют, потому что не знают устройства конфигураций 1С, не знают нюансов синтаксиса. Но если дать им подсказки с помощью MCP, то результат получается кардинально лучше. Далее в публикации: MCP для поиска по метаданым 1С, справке синтакс-помошника и проверки синтаксиса.

15250 руб.

25.08.2025    41219    81    22    

95

Разработка Инструментарий разработчика Работа с интерфейсом Адаптация типовых решений Нейросети 1C:Бухгалтерия 1C:ERP 1С:ЗУП 1С:КА 1С:УНФ 1С:УТ 1С:Розница 1С:ДО 1С:ERP Управление предприятием 2 Платные (руб)

Разработка "Дизайнер форм 1С" реализована в виде расширения 1С и является универсальным инструментом для разработки прототипа форм с целью демонстраций, технических заданий и т.д. Без участия разработчика с возможностью экспорта в файл внешней обработки и генерации формы используя искусственный интеллект.

36600 руб.

28.08.2025    6209    2    2    

6

Нейросети 1С 8.3 1С:Управление торговлей 11 Управленческий учет Платные (руб)

Обработка подключения фотокамер Canon и Nikon к Управление торговлей 11.4 для потоковой загрузки фотографий в карточки товаров с автоматическим удалением фона

23180 руб.

24.06.2021    11611    5    7    

16

Нейросети 1С:Предприятие 8 1С:Бухгалтерия 3.0 1С:Управление торговлей 11 1С:Управление нашей фирмой 3.0 Платные (руб)

Умный Excel" - ИИ-супердвигатель, который превращает часы работы в минуты! Технологии будущего уже здесь: загрузил Excel "магия ИИ" готовый результат

8540 руб.

02.07.2025    2811    2    0    

6

Нейросети Мастера заполнения 1С:Предприятие 8 1С:ERP Управление предприятием 2 1С:Управление торговлей 11 1С:Комплексная автоматизация 2.х 1С:Управление нашей фирмой 3.0 Платные (руб)

Расширение для заполнения описания номенклатуры с помощью модели ИИ GigaChat от Сбера. Расширение формирует продающее описание товара по его наименованию с помощью модели искусственного интеллекта. Будет полезно для владельцев интернет магазинов, каталогов товаров и продающих через маркетплейсы. Адаптировано для основных конфигураций: УТ, ЕРП, КА, УНФ.

5084 руб.

08.11.2023    6381    19    0    

29

Мастера заполнения Нейросети 1С:Предприятие 8 1C:Бухгалтерия 1С:Управление торговлей 11 Платные (руб)

Расширение для заполнения описания товара (номенклатуры) с помощью модели ИИ ChatGPT с ключевыми словами. Расширение формирует продающее описание товара по его наименованию с помощью модели искусственного интеллекта. Будет полезно для владельцев интернет магазинов, каталогов товаров и продающих через маркетплейсы. Адаптировано для основных конфигураций: УТ, ЕРП, КА, УНФ. Прошло аудит на 1cfresh.com. Версия для автоматического заполнения

5084 руб.

13.03.2023    22579    52    50    

80

Нейросети Распознавание документов и образов Программист Бухгалтер Пользователь 1С 8.3 1С:Комплексная автоматизация 1.х 1С:ERP Управление предприятием 2 1С:Управление торговлей 11 Россия Абонемент ($m)

Решение поставляется в 2 версиях: при наличии видеокарты расширение+GPU версия или расширение+СPU версия. Поддерживает 3 режима работы, локальное (на вашем ПК), ИИ-модель (облачная), гибридная локальная+ИИ. В локальном режиме распознавание бесплатно. В ИИ режиме в среднем 0.5 рубля за страницу. Неограниченное количество пользователей. Распознает сканы: УПД, счета-фактуры, товарные накладные. Проверяет цифры и помогает создавать документы в 1С. Отправляйте документы через Telegram бот

10 стартмани

20.02.2026    335    1    dasan92    0    

3

Нейросети Программист Пользователь 1С:Предприятие 8 1С:ERP Управление предприятием 2 1С:Зарплата и Управление Персоналом 3.x 1С:Управление нашей фирмой 3.0 Абонемент ($m)

Автоматическая генерация и отправка персональных поздравлений с днём рождения сотрудникам прямо из 1С с помощью ИИ.

1 стартмани

20.02.2026    356    1    AndRoman.pro    8    

4
Комментарии
Подписаться на ответы Инфостарт бот Сортировка: Древо развёрнутое
Свернуть все
1. ondysss 67 24.02.26 15:36 Сейчас в теме
1. Continue — не от Microsoft. Это независимый open-source проект от стартапа Continue Dev, Inc. (выпускники Y Combinator, seed $3M). К Microsoft отношения не имеет — просто расширение лежит в VS Code Marketplace, как и тысячи других.
2. Open Web UI — не только под Ollama. Он изначально поддерживает любые OpenAI-совместимые API — LM Studio, vLLM, LocalAI, облачные провайдеры. В репозитории прямо написано: «Supports Ollama and OpenAI-compatible APIs». Так что прикрутить можно много чего.
3. MCP для Open Web UI — уже есть. С осени 2025 добавлена нативная поддержка MCP (HTTP Streamable), плюс и до этого работал через прокси mcpo.
Ну и так далее.
Если у автора не получилось, может просто лучше надо было с предметоной областью ознакомится ?
Для отправки сообщения требуется регистрация/авторизация