Нагрузочный тест для базы данных 1С (обычные и управляемые формы)

17.10.24

База данных - HighLoad оптимизация

Универсальный нагрузочный тест для баз данных 1С. Позволяет оценивать производительность работы в конкретной базе данных при подборе параметров сервера. Тест производит циклическое перепроведение документов и замер скорости на каждом цикле. Выбирается интервал документов и виды документов для перепроведения.

Скачать файл

ВНИМАНИЕ: Файлы из Базы знаний - это исходный код разработки. Это примеры решения задач, шаблоны, заготовки, "строительные материалы" для учетной системы. Файлы ориентированы на специалистов 1С, которые могут разобраться в коде и оптимизировать программу для запуска в базе данных. Гарантии работоспособности нет. Возврата нет. Технической поддержки нет.

Наименование По подписке [?] Купить один файл
НагрузочныйТест_ПерепроведениеДокументов.epf (обычные формы)
.epf 11,41Kb
14
14 Скачать (1 SM) Купить за 1 850 руб.
НагрузочныйТест_ПерепроведениеДокументов_УФ.epf (управляемые формы)
.epf 10,88Kb
1
1 Скачать (1 SM) Купить за 1 850 руб.

Универсальный нагрузочный тест для баз данных 1С. Позволяет оценивать производительность работы в конкретной базе данных при подборе параметров сервера.

Тест производит циклическое перепроведение документов и замер скорости на каждом цикле. Выбирается интервал документов и виды документов для перепроведения. Можно задать определенное количество циклов или бесконечное тестирование до принудительной остановки.

При завершении тестирования выдается средний результат за три последних цикла.

Можно организовать стресс-тестирование сервера запустив непрерывный тест в нескольких базах данных. При работе оценить узкие места сервера. Например если будет малая загрузка процессора (меньше 50%), то это означает, что слабое место сервера - дисковая система или неоптимальные параметры СУБД.

Для работы теста требуется база данных, работающая на обычных или управляемых формах, например Управление Торговлей 11, в которой есть проведенные документы. Лучше использовать копию рабочей базы данных. Для сравнения производительности разных серверов, или например файловой и серверной баз данных, следует использовать идентичную базу данных, загруженную из одного и того же архива.

Внимание! Тест перепроводит существующие в базе данных документы! Возможно изменение данных! С осторожностью использовать в рабочих базах данных!

Протестировано на платформе версии 8.3.25.1374, конфигурация Управление Торговлей 11.5.17.143.

Проверено на следующих конфигурациях и релизах:

  • Управление торговлей, редакция 10.3, релизы 10.3.88.3
  • Управление торговлей, редакция 11, релизы 11.5.17.143

Стресстест стресс тест производительность нагрузка сервер скорость диагностика

См. также

HighLoad оптимизация Программист Платформа 1С v8.3 Бесплатно (free)

Метод очень медленно работает, когда параметр приемник содержит намного меньше свойств, чем источник.

06.06.2024    9259    Evg-Lylyk    61    

44

HighLoad оптимизация Программист Платформа 1С v8.3 Конфигурации 1cv8 Бесплатно (free)

Анализ простого плана запроса. Оптимизация нагрузки на ЦП сервера СУБД используя типовые индексы.

13.03.2024    5097    spyke    28    

49

HighLoad оптимизация Программист Платформа 1С v8.3 Бесплатно (free)

Оказывается, в типовых конфигурациях 1С есть, что улучшить!

13.03.2024    7573    vasilev2015    20    

42

HighLoad оптимизация Инструменты администратора БД Системный администратор Программист Платформа 1С v8.3 Конфигурации 1cv8 Абонемент ($m)

Обработка для простого и удобного анализа настроек, нагрузки и проблем с SQL сервером с упором на использование оного для 1С. Анализ текущих запросов на sql, ожиданий, конвертация запроса в 1С и рекомендации, где может тормозить.

2 стартмани

15.02.2024    12419    241    ZAOSTG    80    

115

HighLoad оптимизация Системный администратор Программист Платформа 1С v8.3 Конфигурации 1cv8 Абонемент ($m)

Принимать, хранить и анализировать показания счетчиков (метрики) в базе 1С? Почему бы нет? Но это решение быстро привело к проблемам с производительностью при попытках построить какую-то более-менее сложную аналитику. Переход на PostgresSQL только временно решил проблему, т.к. количество записей уже исчислялось десятками миллионов и что-то сложное вычислить на таких объемах за разумное время становилось все сложнее. Кое-что уже практически невозможно. А что будет с производительностью через пару лет - представить страшно. Надо что-то предпринимать! В этой статье поделюсь своим первым опытом применения СУБД Clickhouse от Яндекс. Как работает, что может, как на нее планирую (если планирую) переходить, сравнение скорости работы, оценка производительности через пару лет, пример работы из 1С. Все это приправлено текстами запросов, кодом, алгоритмами выполненных действий и преподнесено вам для ознакомления в этой статье.

1 стартмани

24.01.2024    5669    glassman    18    

40

HighLoad оптимизация Программист Платформа 1С v8.3 Конфигурации 1cv8 Абонемент ($m)

Встал вопрос: как быстро удалить строки из ТЗ? Рассмотрел пять вариантов реализации этой задачи. Сравнил их друг с другом на разных объёмах данных с разным процентом удаляемых строк. Также сравнил с выгрузкой с отбором по структуре.

09.01.2024    14010    doom2good    49    

71
Комментарии
Подписаться на ответы Инфостарт бот Сортировка: Древо развёрнутое
Свернуть все
1. Gilev.Vyacheslav 1917 27.12.21 15:25 Сейчас в теме
во сколько потоков делается тест?
2. Miket78 33 27.12.21 15:28 Сейчас в теме
3. Gilev.Vyacheslav 1917 27.12.21 16:43 Сейчас в теме
(2)
полезности в циклах не вижу (холодный кэш разогреется на первых же документах, а дальше все будет ровно, если нет внешней нагрузки на физическое железо) - ну разве что поясните зачем так

проведение в один поток документов то же в куче обработок - что мешает сделать перепроведение групповой обработкой и замерить время?

вот если бы вы например взяли месяц или какой то приемлемый, разделили ну пусть на 10 интервалов, и каждый интервал запустили в фоновике, тогда ценность обработки была бы понятна - потому что одновременно замерять 10 разных операций вручную нетривиальная задача

и ваша обработка лучше подошла бы не для подбора, а для оценки параллельности проведения документов, можно было бы в несколько потоков увидеть косяки с избыточными блокировками

файловую и серверную базу бесмысленно тестировать в один поток - файловая будет быстрее, но что толку от этого, если у вас сто пользователей и файловым режим просто не выдержит такую параллельность

стресс-тестирование вашей обработкой тоже не сделать - для этого надо достигать предельные возможности оборудования, нащупывая узкие места, а проведение документов для этого в чистом виде не подходит - если вам например нащупать объем данных, то вам надо повышать количество строк в табличной части документов от 1 строки и до того количества когда документ перестанет проводится в приемлемое время для этого документа, либо на оборудовании возникнет общая очередь к оборудованию, которая в дальнейшем также отразится во времени отклика/времени проведения - и все это делать в n-итераций на одном и том же документе или группе документов

маленькая нагрузка на процессор не означает что проблема в дисках или только в дисках
причин низкой нагрузке может быть множество
видел когда ставили 1. виртуалку 2. ставили отдельный сервер лицензий 3. несколько рабочих серверов 4. служба hyper-v как служба и все 4 компонента влияли на время проведения документов
особенной загадкой выглядит 4й вариант
Merkalov; akR00b; +2 Ответить
4. Miket78 33 28.12.21 07:07 Сейчас в теме
(3) Проводить документы в одной базе в несколько потоков бесполезно - блокировки не дадут.

(3)
что мешает сделать перепроведение групповой обработкой и замерить время?

Собственно это и делает обработка. Перепроводит и замеряет время. Одной кнопкой.

Я благодарен Вам за подробную рецензию. Тут каждому свое. Я делал для себя, мне это было полезно, при подборе параметров серверов. Особенно в postgres - поменял параметр, крутнул обработку, посмотрел эффект.
Не претендую на полноту тестирования.
akR00b; Gilev.Vyacheslav; +2 Ответить
Оставьте свое сообщение