Тестирование открытых LLM в 1С-разработке

16.05.25

Интеграция - Нейросети

Выясняем, на что способны открытые большие языковые модели (LLM) в задачах 1С-разработки и проектирования. Тест шести сравнительно свежих (на май 2025) моделей, трезвый взгляд на их практическую применимость. Чем могут быть полезны? Стоит ли вкладываться в оборудование, чтобы запускать локально?

Многие уже привыкли к мощным коммерческим моделям от таких гигантов, как OpenAI (ChatGPT), Anthropic (Claude) или Google (Gemini). Эти проприетарные (или закрытые) LLM, как правило, доступны через API, их внутренняя архитектура и веса остаются коммерческой тайной, а развитие полностью контролируется компаниями-владельцами.

Однако параллельно активно развивается мир открытых LLM. Ключевое отличие таких моделей – их доступность. Разработчики публикуют архитектуру, а зачастую и веса моделей под свободными лицензиями. Это означает, что любую из таких моделей (при наличии соответствующего оборудования) можно скачать, запустить на собственных серверах в закрытом контуре, а иногда даже дообучить или модифицировать под свои специфические нужды. Это открывает перспективы для компаний, стремящихся к большей кастомизации, контролю над данными и независимости от сторонних провайдеров.

Эта статья посвящена исследованию именно таких, открытых LLM, в контексте специфических задач 1С-разработки и проектирования. Попытаемся понять, насколько они готовы помогать 1С-специалистам в их повседневной работе и могут ли составить конкуренцию своим закрытым аналогам.

Кому может быть интересна эта статья?

  • 1С-разработчикам и консультантам, которые хотят понять, чем смогут открытые LLM могут помочь в их повседневной работе.
  • Техническим специалистам и руководителям, оценивающим потенциал внедрения AI-инструментов в процессы разработки.
  • Энтузиастам в области AI и LLM, исследующим применение моделей в различных предметных областях, включая 1С.

В видео показываю и рассказываю весь процесс тестирования (в числе прочего показываю ИИ-ассистент Cline):

 

 

Модели

Для тестирования я отобрал шесть сравнительно свежих и интересных на мой взгляд моделей, которые можно условно разделить на две группы:

 

Тяжеловесы (требуют серьезных ресурсов):

Имя модели Разработчик Параметры, B Макс. контекст Дата выхода
1 Llama 4 Scout 17B-16E Meta 17 актив / 109 общ. 10 000 000 ток. 5 апр 2025
2 Llama 4 Maverick 17B-128E Meta 17 актив / 400 общ. 1 000 000 ток. 5 апр 2025
3 DeepSeek R1 DeepSeek 37 актив / 671 общ. 128 000 ток. янв 2025

 

  • Llama 4 Scout: Привлекла внимание нереально огромным контекстным окном в 10 миллионов токенов.
  • Llama 4 Maverick: Также обладает внушительным контекстным окном (1 миллион токенов) и, будучи крупнее Скаута, должна быть умнее.
  • DeepSeek R1: Несмотря на выход более трех месяцев назад, эта модель до сих пор популярна и широко используется.

 

Перспективные середнячки (потенциально для локального запуска):

Имя модели Разработчик Параметры, B Макс. контекст Дата выхода
4 Qwen 3-32B (Dense) Alibaba (Qwen) 32.8 B 32 768 натив / 131 072 (YaRN) 29 апр 2025
5 GLM-4-32B-0414 THUDM / Zhipu AI 32 B 32 000 (нативно) / W76; 128 000 c YaRN 14 апр 2025
6 Gemma-3-27B-IT Google DeepMind 27.4 B 128 000 ток. 10 мар 2025 (официальный релиз семейства)

 

  • Qwen 3-32B: Сравнительно новая модель от Alibaba.
  • GLM-4-32B: Модель от перспективной китайской компании THUDM / Zhipu AI.
  • Gemma-3-27B-IT: Свободно доступная модель от Google.

Эти модели, при наличии мощной видеокарты или какого-нибудь MacBook Pro, в теории можно запустить локально.

 

Как тестировали? Методология

 

Инструменты и окружение

Для взаимодействия с моделями я использовал:

  • Visual Studio Code как основную среду разработки.
  • AI-ассистент Cline: плагин для VS Code, позволяет писать код с различными LLM (в том числе с запускаемыми локально).
  • OpenRouter: шлюз к сотням различных моделей, включая все тестируемые.

Общение с моделями велось на русском языке. Хотя некоторые из них, возможно, лучше понимают английский. Но для 1С-разработчика естественнее работать на родном языке, тем более что и код у нас преимущественно на кириллице.

Все наработки, включая тестовую конфигурацию 1С, промпты и результаты, доступны в GitHub-репозитории проекта. Процесс тестирования отражен в отдельных ветках, названных именами моделей. Каждый коммит в такой ветке – это результат генерации модели по конкретному промпту (текст промпта – в описании коммита).

 

Задачи на разработку

С каждой моделью решали пять несложных, но разнообразных задач, моделирующих разработку функционала формы документа в простой конфигурации 1С. Цель – проверить базовые навыки генерации кода и работы с типичными объектами платформы.

Список задач:

  1. Задача 0: Расчет сумм в табличной части документа.
    • Описание: В документе с табличной частью Товары (поля: КоличествоЦенаСуммаСуммаДопРасходыСуммаВсего) реализовать расчет полей Сумма и СуммаВсего. Запустить расчет в обработчиках изменения соответствующих полей.
    • Проверяемые навыки: Синтаксис, основы работы с данными управляемых форм.
  2. Задача 1: Диалог ввода числа в управляемой форме.
    • Описание: Реализовать показ диалога ввода числа (дополнительных расходов) в режиме с обработчиком оповещения. Сделать заготовку обработчика оповещения.
    • Проверяемые навыки: Стандартные диалоги платформы, обработчики оповещения в управляемых формах.
  3. Задача 2: Пропорциональное распределение суммы по базе.
    • Описание: Реализовать функцию пропорционального распределения суммы по базе (параметры: массив коэффициентов, сумма, знаки округления). Распределить введенную сумму доп. расходов по полю Сумма в ТЧ Товары, результат записать в СуммаДопРасходы.
    • Проверяемые навыки: Решение алгоритмических задач, работа с коллекциями (массив).
  4. Задача 3: Программное изменение формы на лету.
    • Описание: Добавить на форму новые реквизиты (СуммаВсегоРегл в ТЧ ТоварыОбщаяСуммаВсегоРегл на форму), вывести их в соответствующие места. Код разместить в ПриСозданииНаСервере().
    • Проверяемые навыки: Механизмы программного изменения формы.
  5. Задача 4: Запрос.
    • Описание: Реализовать процедуру заполнения добавленных реквизитов. СуммаВсегоРегл должна пересчитывать СуммаВсего по курсу на дату документа из валюты документа в рубли (валюта регл. учета). Курсы хранятся в регистре сведений КурсыВалютОбщаяСуммаВсегоРегл – сумма всех СуммаВсегоРегл.
    • Проверяемые навыки: Простой запрос, виртуальная таблица регистра сведений.

Полные тексты промптов можно найти в файле Prompts.md в репозитории.

 

Методика оценки задач на разработку:

Каждая из 5 задач оценивалась по 4 критериям (максимум 5 баллов за критерий, итого до 20 баллов за задачу, 100 баллов максимум за все):

Критерий Описание
Ошибки синтаксиса Наличие синтаксических ошибок. Нет ошибок — 5 баллов, есть — 0.
Необходимость примеров Требовалось ли предоставление инструкций с примерами кода. Не требовалось — 5 баллов, требовалось — 0.
Итерации уточнения Сколько итераций потребовалось для получения корректного кода. 0 уточнений — 5 баллов, каждое уточнение −1 балл. Более 4 уточнений — 0.
Качество архитектуры Соответствие решения стандартам, принципам «хорошего кода» (субъективная оценка от 0 до 5 баллов).

Подробная методика оценки изложена в файле results/dev/details.md.

 

Задачи на проектирование архитектуры

Помимо генерации кода, моделям были предложены две задачи на проектирование конфигурации для учета задач 1С-разработки (в краткой, максимально "творческой" постановке). Оценка проводилась экспертно по следующим аспектам:

  • Понимание специфики объектов метаданных 1С (справочники, документы и т.д.).
  • Предложение использования стандартные механизмы учета (проведение документов, движения, регистры).
  • Соответствие предложенных отчетов стандартным практикам (состав отчетов, использование регистров, в идеале - указание виртуальных таблиц).
  • Полнота решения.

 

Результаты: Как себя показали модели?

Мои подробные впечатления от работы с каждой моделью, комментарии по ходу решения задач и демонстрация процесса есть в видеообзоре. Здесь же я сосредоточусь на сухих цифрах и ключевых моментах.

 

Генерация кода

Напомню, каждая из 5 задач оценивалась по 4 критериям, максимум 20 баллов за задачу и 100 баллов за все.

 

Llama 4 Scout

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (28)
0 Расчет сумм ТЧ Нет Да 3 2 9
1 Диалог ввода доп. расходов Нет Да 0 3 13
2 Распределение доп. расходов Да Да Вручную 2 2
3 Добавление реквизитов формы Да Да 2 + Вручную 4 4
4 Расчет по курсу валюты Да Да - - 0

 

Ссылка на ветку тестирования Llama 4 Scout в GitHub


Llama 4 Maverick

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (85)
0 Расчет сумм ТЧ Нет Нет 0 5 20
1 Диалог ввода доп. расходов Нет Нет 0 4 19
2 Распределение доп. расходов Нет Нет 2 5 18
3 Добавление реквизитов формы Нет Да 1 5 14
4 Расчет по курсу валюты Нет Нет 3 + Вручную 4 14

 

Ссылка на ветку тестирования Llama 4 Maverick в GitHub


DeepSeek R1

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (73)
0 Расчет сумм ТЧ Нет Нет 0 4 19
1 Диалог ввода доп. расходов Нет Да 0 5 15
2 Распределение доп. расходов Нет Нет 2 4 17
3 Добавление реквизитов формы Нет Да 3 5 13
4 Расчет по курсу валюты Нет Да 3 + Вручную 4 9

 

Ссылка на ветку тестирования DeepSeek R1 в GitHub


Qwen 3-32B

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (49)
0 Расчет сумм ТЧ Нет Да 1 4 13
1 Диалог ввода доп. расходов Нет Да 1 3 12
2 Распределение доп. расходов Да Нет Вручную 5 10
3 Добавление реквизитов формы Нет Да Вручную 4 9
4 Расчет по курсу валюты Нет Да - - 5

 

Ссылка на ветку тестирования Qwen 3-32B в GitHub


GLM-4-32B

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (32)
0 Расчет сумм ТЧ Нет Да 0 5 15
1 Диалог ввода доп. расходов Нет Да 1 3 12
2 Распределение доп. расходов Нет - - - 5
3 Добавление реквизитов формы - - - - -
4 Расчет по курсу валюты - - - - -

 

Ссылка на ветку тестирования GLM-4-32B в GitHub


Gemma-3-27B

Задача Ошибки синтаксиса Необходимость примеров Итерации уточнения Качество архитектуры Итог (61)
0 Расчет сумм ТЧ Нет Да 0 5 15
1 Диалог ввода доп. расходов Нет Да 0 5 15
2 Распределение доп. расходов Нет Нет 3 5 17
3 Добавление реквизитов формы Нет Да 5 4 9
4 Расчет по курсу валюты Нет Да - - 5

 

Ссылка на ветку тестирования Gemma-3-27B в GitHub


Сводные результаты тестирования по задачам генерации кода:

Модель Итог
Llama 4 Scout 28
Llama 4 Maverick 85
DeepSeek R1 73
Qwen 3-32B 49
GLM-4-32B 32
Gemma-3-27B 61

 

Как видно из таблицы, Llama 4 Maverick показала себя явным лидером, набрав 85 баллов. Для меня это был сюрприз, модель оказалась довольно шустрой и в большинстве случаев генерировала корректный код без синтаксических ошибок. Второе место с 73 баллами заняла DeepSeek R1, что тоже неплохо, хотя к этой модели у меня есть замечания. Из более "легких" моделей наилучший результат у Gemma-3-27B (61 балл).

 

Архитектурная задача

Задачи на проектирование (разработка архитектуры самостоятельной конфигурации для учета задач по 1С) показали, насколько модели "понимают" специфику 1С.

Чтобы составить свое впечатление о генерациях моделей - можете посмотреть их здесь.

Сводная таблица оценок (средние значения по нескольким экспертным оценкам):

 

Модель Понимание метаданных 1С Механизмы учета Отчетность Полнота решения Итог
Llama 4 Scout 3.33 1.67 3.00 3.50 11.50
Llama 4 Maverick 4.00 3.67 3.33 4.17 15.17
DeepSeek R1 4.50 3.33 3.33 4.83 16.00
Qwen 3-32B 2.83 2.33 2.83 4.60 12.60
GLM-4-32B 2.50 1.67 2.67 3.33 10.17
Gemma-3-27B 4.17 2.83 3.00 4.67 14.67

 

Лидеры те же, что и в тесте на разработку, но немного в другом порядке.

 

Выводы: Стоит ли игра свеч?

Тестирование далось мне непросто, потребовало много терпения и самообладания. :) И, скажу честно, на данный момент я не вижу большого смысла использовать протестированные открытые модели в задачах генерации кода, за исключением, быть может, Llama 4 Maverick, которую можно еще потестировать и попробовать на более серьезных задачах.

В задачах проектирования они могут подкинуть иногда интересные идеи. Думаю, что справятся с оформлением документации, инструкций.

А для чего же они могут пригодиться в разработке?

  • Как модель для автодополнений кода (в IDE, которые это поддерживают)
  • Документирование кода
  • Брейнсторминг по вариантам решений

Возможно, ситуацию может изменить:

  • Файн-тюнинг весов на примерах встроенного языка 1С.
  • Системы с RAG (Retrieval Augmented Generation), которые будут подсовывать в контекст модели окружение, релевантные примеры кода или документацию из базы знаний.

(насколько я знаю, разработчики 1С:Напарника пошли по такому пути)

А пока я бы рекомендовал для серьезной работы проприетарные модели, такие как Claude Sonnet или последние модели Gemini от Google, которые, по отзывам, также показывают хорошие результаты (см. статью Олега Филиппова).

 

Зачем вообще нужны открытые модели?

Если говорить про рассматриваемый в этой статье класс задач, то я вижу такие аргументы в их пользу:

  • Информационная безопасность: Возможность запускать модель в полностью закрытом контуре.
  • Отсутствие интернета: Работа там, где нет стабильного подключения.

Вопросы стоимости – второстепенны. Облачный инференс сейчас очень дешев, и вложения в оборудование, необходимое для запуска приличных локальных моделей, будут окупаться долго. Свое железо – это всегда ограничения (нехватка мощностей при росте нагрузки, невозможность использовать большие контекстные окна из-за нехватки памяти, низкая скорость работы). Часто недостатки превышают достоинства.

 

Вместо заключения

Признаюсь, я с юности мечтаю спихнуть на компьютер максимум рутинной, да и сложной, интеллектуальной работы. Искусственным интеллектом, и нейросетями в частности, увлекаюсь очень давно. Появление больших языковых моделей меня невероятно воодушевило. Стараюсь применять их везде, где это целесообразно сегодня. И как 1С-ник со стажем, прежде всего – в 1С-разработке.

Надеюсь, статья для вас полезна. Спасибо за внимание!


Репозиторий с материалами тестирования: GitHub

ИИ LLM

См. также

Нейросети Мастера заполнения Платформа 1С v8.3 1С:ERP Управление предприятием 2 1С:Управление торговлей 11 1С:Комплексная автоматизация 2.х 1С:Управление нашей фирмой 3.0 Платные (руб)

Расширение для заполнения описания номенклатуры с помощью модели ИИ GigaChat от Сбера. Расширение формирует продающее описание товара по его наименованию с помощью модели искусственного интеллекта. Будет полезно для владельцев интернет магазинов, каталогов товаров и продающих через маркетплейсы. Адаптировано для основных конфигураций: УТ, ЕРП, КА, УНФ.

5000 руб.

08.11.2023    3903    15    0    

25

Нейросети Программист 1С:Библиотека стандартных подсистем Бесплатно (free)

Рассмотрим Claude Sonnet 4, GPT o3 и 4.1, Qwen3, Llama 4 Maverick, Grok. Cursor и плагин для EDT.

28.05.2025    5385    comol    30    

32

Нейросети Платформа 1С v8.3 1С:Управление торговлей 11 Платные (руб)

ИИ престиж это уникальное готовое решение для того, чтобы начать применять современные технологии искусственного интеллекта в вашей учетной системе и сразу получать выраженный экономический эффект. Для этого вам не надо будет отказываться от устоявшихся практик. ИИ престиж дополнит вашу рабочую систему инструментами, операторами, агентами на базе искусственного интеллекта. Вы получите учетную систему совершенно другого уровня, которую вы сможете развивать в нужном направлении.

600000 руб.

23.05.2025    1785    0    0    

1

Нейросети Программист Платформа 1С v8.3 Бесплатно (free)

На связи Сергей Скирдин, технический директор ИТ-интегратора «Белый код». На майских праздниках, как водится, собрались на шашлыки, за шашлыками много обсуждали искусственный интеллект. В результате получился интересный эксперимент.

16.05.2025    986    sergey.skirdin    3    

6

Нейросети Программист Бесплатно (free)

В статье кратко на реальных примерах проанализированы возможности генерации кода 1С сетями от Yandex, Sber, Microsoft, Anthropic, DeepSeek, OpenAI, Google.

10.05.2025    11197    comol    58    

53

WEB-интеграция Нейросети Программист Пользователь Платформа 1С v8.3 1С:ERP Управление предприятием 2 1С:Бухгалтерия 3.0 Абонемент ($m)

Представляем универсальную обработку для 1С, которая предоставляет два мощных инструмента для работы с платежной системой ЮКасса: интерактивный Дашборд для анализа финансовых потоков и инновационный модуль взаимодействия с API ЮKassa через запросы на естественном языке с использованием Искусственного Интеллекта. Решение обеспечивает как готовый функционал для пользователей, так и широкие возможности для кастомизации программистами 1С благодаря передаче сырых JSON-данных непосредственно в 1С.

10 стартмани

10.05.2025    458    0    Prepod2003    0    

4

Нейросети Программист Платформа 1С v8.3 Россия Бесплатно (free)

Все пишут, какой умный о3 от openAI, как он прекрасно разбирается в логике и какой у него замечательный механизм рассуждения. Проверим это на примитивных задачах 1С. Мы знаем, что буржуйский зверь не учили на нормальных данных по 1С и, следовательно, он толком ничего не умеет, но при этом он неплохо ищет в интернете, так вот заценим, сможет ли он скомпилировать что-то рабочее из того, что он там в интернетах найдет.

05.05.2025    3232    IncomeGroup    6    

3
Комментарии
Подписаться на ответы Инфостарт бот Сортировка: Древо развёрнутое
Свернуть все
1. mkalimulin 1531 16.05.25 15:51 Сейчас в теме
Противопоставление закрытых и открытых моделей только сбивает с толку. Я думаю, что в недалеком будущем все модели будут открытыми. OpenAI уже заявляли, что подумывают над этим. Продают не доступ к модели. Продают compute. А модель это всего лишь повод продать вам compute.
Поэтому, на мой взгляд, правильно говорить о локальном или облачном доступе. По аналогии с электроэнергией, все сводится к вопросу покупать ли ее у крупного поставщика, или делать свою электростанцию. С вполне предсказуемым ответом
4. skif-m 16.05.25 16:35 Сейчас в теме
(1) Далеко не всем нравится идея отдавать свои разработки и данные "в облако".
5. mkalimulin 1531 16.05.25 16:41 Сейчас в теме
28. Nikola23 707 26.05.25 17:28 Сейчас в теме
(4) Про данные - соглашусь
А вот код. Безусловно - очередная "нетленка" на 1с - это очень дорогой сердцу разработчика инструмент
Но сам по-себе инструмент, если это пара обработок или целая конфа на 20 тыс строк кода - ничего не стоят. Отдай в облако и фокусируйся на том, что приносит деньги: ваша компетенция, например
wonderboy; +1 Ответить
6. wonderboy 563 16.05.25 16:49 Сейчас в теме
(1) Если у ты разработал классную модель, то просто так взять и открыть ее, чтобы compute к ней мог продавать любой.. ну это надо быть очень щедрым. Ты вложился миллионами долларов, а зарабатывать будут все, у кого есть оборудование. Вобщем что-то сомневаюсь, что все модели когда-нибудь откроют..
EvgeniyOlxovskiy; +1 Ответить
14. mkalimulin 1531 18.05.25 08:50 Сейчас в теме
(6) Ты вкладываешься миллионами долларов в рекламу себя и своих способностей предоставить услугу. Обычное дело. Модели уже сейчас можно открывать. Мелкая сошка тебе не конкурент, по ценам не вытянет. А крупные соперники никогда не станут использовать твою модель
29. Nikola23 707 26.05.25 17:29 Сейчас в теме
(6) compute "любой"...
Попробуйте запустить локально дипсик 671 и оцените скорость
Потом подумайте, какими ресурсами надо обладать, чтобы продавать compute
Сколько единиц таких дата центров в мире

И окажется, что "любой" продавать-то не сможет)
30. wonderboy 563 26.05.25 17:35 Сейчас в теме
(29) Под "любой" имел ввиду не условного Васю, который на коленке сервер собрал и решил compute продавать. :)
Имеется ввиду любой, у кого есть ресурсы, но который не вкладывался в разработку модели. А это ведь серьезный НИОКР, который просто так взять и открыть.. ну как минимум подозрительно щедро.
13. defin 17.05.25 15:10 Сейчас в теме
(1) этой OpenAI надо сменить название на CloseAI
EvgeniyOlxovskiy; +1 Ответить
17. zqzq 25 19.05.25 09:25 Сейчас в теме
(1) У открытых моделей реальная конкуренция провайдеров вычислений, а у закрытых монополия (привет Claude 3.7 Sonnet с $15,00 output).

Открывают доступ в основном чтобы подсадить сообщество и пользоваться сторонними наработками по своей модели (путь Meta).

Скорее всего популярным будет промежуточный подход -- открывать предыдущую версию (путь xAI, возможно OpenAI в будущем).
2. vlad1976 16.05.25 15:58 Сейчас в теме
а про эти кто нибудь может что сказать?
Прикрепленные файлы:
9. wonderboy 563 16.05.25 17:34 Сейчас в теме
(2) Попробовал Qwen большой на первых 3 задачах.
Получше конечно чем 32B.
Но все равно так себе.

Можете посмотреть генерации
https://github.com/vladimir-kharin/llm_1c_benckmark/compare/main...qwen_3_235b
d4rkmesa; +1 Ответить
3. vlad1976 16.05.25 16:14 Сейчас в теме
без электростанции обошлось. 3 видеокарты tesla p40 и двухядерная мать. 2 cpu e5-2697, 768 гб., блок питания 2000вт.
Прикрепленные файлы:
EvgeniyOlxovskiy; wonderboy; skif-m; +3 Ответить
7. wonderboy 563 16.05.25 16:53 Сейчас в теме
8. vlad1976 16.05.25 17:32 Сейчас в теме
Изначально собирал для замены ночных операторов. lm studio, AnythingLLM, comfiUI, forge, недавно поставил Visual Studio Code с плагином continue, 1c_edt. вот заинтересовался можно ли ИИ поручить писать.
Прикрепленные файлы:
EvgeniyOlxovskiy; wonderboy; +2 Ответить
10. wonderboy 563 16.05.25 17:41 Сейчас в теме
(8)
Изначально собирал для замены ночных операторов. lm studio, AnythingLLM, comfiUI, forge


А модельки какие используете для этих задач?


(8)
вот заинтересовался можно ли ИИ поручить писать.


Всмысле локальными моделями?
Ну вот по моим тестам - пока как-то не очень.. Что-то у некоторых получается, но в реальной работе больше мучений чем эффекта.
15. mkalimulin 1531 18.05.25 08:53 Сейчас в теме
(3) Сколько токенов в сутки проходит?
11. vlad1976 16.05.25 17:55 Сейчас в теме
Модели? Если модель правильно 5 раз подряд отвечает на вопрос "2+2 умножить на два" то добавляю к себе в базу. странно что очень многие не справляются. По моим наблюдением за облачные модели могут выдавать другие модели попроще. или параметры выставлены не по модели.
Прикрепленные файлы:
EvgeniyOlxovskiy; wonderboy; +2 Ответить
12. starik-2005 3177 16.05.25 19:04 Сейчас в теме
Ну эта статья повеселее, чем та, ссылка на которую приведена в тексте. За нее не жалко и плюсануть )
wonderboy; +1 Ответить
16. zqzq 25 19.05.25 09:01 Сейчас в теме
Llama 4 Maverick 17B-128E путается в сложных задачах, даже хуже DeepSeek V3 0324.

Мой фаворит сейчас TNG: DeepSeek R1T Chimera -- это помесь DeepSeek R1 и V3 (0324) от компании TNG Technology Consulting.
Прикрепленные файлы:
wonderboy; +1 Ответить
18. Dmitriy_Kolesnikov 21.05.25 18:54 Сейчас в теме
(16) Какие ресурсы нужны для запуска тяжелой модели - DeepSeek или Llama?
19. vlad1976 21.05.25 21:52 Сейчас в теме
(18) запускать модели в lm sudio? можно без видеокарт. нужно Для Deepsek-r1 или llama-4-Maverick минимум 255гб памяти надо. и потоков процессорных чем больше тем лучше. у меня 2 cpu e5-2697 58 потоков - 4.38 tok/sec
Прикрепленные файлы:
20. vlad1976 21.05.25 22:01 Сейчас в теме
(18)
15 минут. задача 0 2 cpu e5-2697 58 потоков - 4.38
Прикрепленные файлы:
21. vlad1976 23.05.25 14:50 Сейчас в теме
а как правила составляли? как понять что ему нужно?
22. wonderboy 563 23.05.25 14:54 Сейчас в теме
(21)
правила


А это к кому вопрос и про какие правила? :)
23. vlad1976 23.05.25 16:21 Сейчас в теме
24. wonderboy 563 23.05.25 16:28 Сейчас в теме
(23) брал несколько ссылок на материалы, показавшиеся мне подходящими в качестве базы для той или иной задачи, или с описанием синтаксиса. И просил в чате с o3 (это модель OpenAI) чтобы эти ссылки посмотрела и сделала выжимку с примерами кода. Потом вычитывал, корректировал, дополнял.
25. vlad1976 24.05.25 23:27 Сейчас в теме
(24)
Все чаще начинает Cline посылать. говорит "У Cline возникли проблемы...
Cline использует сложные подсказки и итеративное выполнение задач, что может быть затруднительно для менее способных моделей. Для достижения наилучших результатов рекомендуется использовать Claude 3.7 Sonnet с его расширенными возможностями агентного кодирования."
Прикрепленные файлы:
26. wonderboy 563 24.05.25 23:36 Сейчас в теме
(25) такой ошибки не встречал. У меня частенько модели не могли сформировать пары поиска / замены чтобы точечно модуль редактировать. Точнее не сразу могли сформировать.
Но с другой стороны хотелось бы всё-таки ставить модели задачу и получать конечный результат уже в редактируемом модуле, чтобы модель была достаточно умной для такого варианта работы. А не копипастить вручную фрагменты кода из чата, с генерацией которого справилась в чате слабая модель.
27. vlad1976 25.05.25 00:50 Сейчас в теме
(24)
(26)
Еще часто у меня зацикливались ответы задание. крутило крутило и не каких изменений. Но вот благодаря вашего видео. сейчас попробовал Плагин Continue. так он также делает. и быстрее. пока только начал мучать. по ощущениям не в моделях дело. промт один в одинт а ответы лучше.
Прикрепленные файлы:
wonderboy; +1 Ответить
31. user1428473 02.06.25 15:11 Сейчас в теме
32. wonderboy 563 02.06.25 15:36 Сейчас в теме
(31) Да что-то расстроили меня Квены в плане 1С-разработки. Попробую Кодер попозже тоже, но почти уверен, что врядли он будет лучше чем Квен3..
Оставьте свое сообщение