Какой вес опасен для здоровья базы? Большая не значит с лишним весом
У людей все просто – оптимальный вес вычисляется как соотношение роста и веса, + используются дополнительные показатели (возраст, пол …) для определения индекса массы тела. Калькулятор роста веса Конечно, всем не угодишь – например, культуристы могут возмутиться.
С оптимальным размером базы все гораздо сложнее – оптимальный объем базы определяется бизнес-процессом и потоком данных, но и здесь можно сформулировать четкие критерии. Далее все изложено для финансового и управленческого учета 1С, поскольку в других сферах могут быть другие пропорции идеального веса базы.
База имеет оптимальный размер, если:
- В ней содержатся только данные, которые входят в период оперативной доступности данных для учета.
- Данные обеспечивают необходимую детализацию в периоде оперативной доступности данных
- Сроки восстановления базы укладываются в целевые сроки восстановления (Recovery Time Objective) и согласуются с Business continuity planning
- Допустимые простои на обслуживание согласно Business continuity planning
- Стоимость хранения данных устраивает бизнес
- Подготовка тестовых баз с реальными данными не требует больших усилий
Я намеренно не указал влияние размера базы на общую производительность, здесь нет прямой зависимости при грамотном построении архитектуры, только косвенные эффекты, вызванные ошибками проектирования и ограничениями возможности маштабирования 1С. См. Язык мой Враг мой.
Оперативную доступность можно пояснить на примере: допустим, у вас есть займ, сделка с датой поставки и датой оплаты. Очевидно, чтобы производить расчеты с периодом действия займа, или датой оплаты\ поставки эта операция должна быть доступна – даже если сама дата операции была 3 года назад. То же самое относится к амортизации основных средств, где важна дата приема основного средства, период действия. Хороший пример - период регистрации\период действия в 1С Зарплата и кадры.
В целом большая база вызывает противоречивые чувства – с одной стороны, гордость за объемы, которыми оперируем, с другой стороны - постоянное напряжение от обратного отсчета дискового пространства. Разница в ощущениях и квалификации как у капитана прогулочного судна против капитана морского танкера.
Далее все изложено на реальном примере управленческого и финансового учета сделок, см. тут Язык мой Враг мой с применением горизонтального маштабирования.
Объем обрабатываемых данных за 1.5 года создает объем данных 5 Терабайт для базы 1С (включая детальные сделки\трансферы\проводки 1С и т.д.) на MS SQL 2019 с учетом мероприятий по обслуживанию индексов и устранению фрагментации. Размер сжатого бэкапа 0.5 Терабайт
Для процесса обработки\сверки данных (формирование проводок по исходным сделкам и операциям) применяются роботы (обработки запускаемые по расписанию), а пользователи уже работают с готовыми расчетами. По сути мы получаем нагруженную OLTP систему, полностью реализованную средствами 1С.
Буфер сообщений (за периметром 1С) из шины данных RabbitMQ – 3 терабайта каждые 2 месяца
Такой объем данных уже не позволяет использовать обычные средства платформы 1С для переиндексирования, сжатия таблиц, выгрузки бэкапа через dt файл, удаления помеченных на удаление объектов и т.д.
Временные метрики
Мероприятие |
Время |
Время полного бэкапа |
2 часа 30 минут |
Время полного восстановления с сети |
1 час – 1 час 30 минут |
Время копирования бэкапа в резервный ЦОД по WAN с задержкой 60мс |
3-4 часа |
Перестроение одного индекса по самой большой таблице |
2-3 часа |
|
|
|
|
Временные окна
Зарезервированный период времени |
|
Пн-Пт 6.00-11.00 |
Импорты операций\изменений поступивших с 0.00 до 6.00 ,пересчеты за предыдущие три дня |
Пн-Пт 13.00-15.00 |
Импорты и пересчеты с учетом текущего дня |
Пн-Пт 9.00-22.00 |
Работа пользователей в разных часовых поясах |
Пн-Пт с 22.00 – 1.00 |
Резервное копирование |
Пн-Вс с 1.00- 4.00 |
Импорты за предыдущие сутки, обновление агрегатов |
Сб 6.00 – 16.00 |
Пересчет недели |
Вс |
Свободно для регламентных операций |
Самые большие таблицы
В колонке Reserved можно видеть полный размер с данными и индексами
Table Name |
# Records |
Reserved (KB) |
Data (KB) |
Indexes (KB) |
Unused (KB) |
dbo._InfoRg19541 |
2 129 006 521 |
935 854 848 |
330 776 488 |
605 006 384 |
71 976 |
dbo._InfoRg18843 |
2 249 531 309 |
868 625 224 |
404 594 224 |
463 926 136 |
104 864 |
dbo._InfoRg18800 |
474 701 158 |
464 440 080 |
237 170 176 |
226 214 496 |
1 055 408 |
dbo._InfoRg18860 |
210 648 091 |
364 976 152 |
161 322 160 |
202 245 752 |
1 408 240 |
dbo._InfoRg19155 |
213 300 609 |
288 223 232 |
147 725 760 |
139 103 120 |
1 394 352 |
dbo._InfoRg17958 |
950 225 249 |
272 452 928 |
112 304 896 |
160 024 808 |
123 224 |
dbo._AccRg640 |
173 846 826 |
216 363 688 |
114 061 808 |
100 367 624 |
1 934 256 |
dbo._AccRgED677 |
719 075 121 |
210 720 168 |
85 568 344 |
124 133 600 |
1 018 224 |
dbo._InfoRg17039 |
370 016 366 |
187 902 208 |
38 467 072 |
149 404 080 |
31 056 |
dbo._Document16379 |
124 261 741 |
157 270 936 |
87 645 272 |
69 585 416 |
40 248 |
dbo._InfoRg17540 |
465 538 086 |
130 361 760 |
48 378 552 |
81 972 648 |
10 560 |
dbo._InfoRg19532 |
319 591 053 |
117 715 648 |
36 970 224 |
80 632 544 |
112 880 |
dbo._AccumRgAgg1efff3h18432 |
35 654 182 |
113 249 992 |
16 904 528 |
96 339 088 |
6 376 |
dbo._Document16378 |
44 003 768 |
109 851 688 |
58 681 312 |
50 688 960 |
481 416 |
dbo._InfoRg19498 |
85 023 186 |
109 818 320 |
29 883 608 |
79 798 344 |
136 368 |
dbo._Document17199 |
75 350 013 |
96 437 040 |
50 024 488 |
46 376 920 |
35 632 |
dbo._AccumRg16920 |
55 665 218 |
72 446 544 |
34 478 320 |
36 183 960 |
1 784 264 |
dbo._Document17554 |
46 735 956 |
61 361 048 |
30 128 088 |
31 202 152 |
30 808 |
Зарезервированное время, не всегда используется полностью, но в пиковых нагрузках приходится выходить за границы. Финансовый\Управленческий учет с высокой детализацией требует ресурсов и создает объемы. Из таблиц видно, что работа построена довольно плотно, и даже вклинится с регламентными процедурами не так просто
Обслуживание для plus size модели
Такие размеры базы налагают определенные условия на мероприятия по обслуживанию:
- Нужно забыть регламентных заданиях обновления статистики SQL это долго, хорошо жить с флагом трассировки-Т2371 - он изменяет порог обновления статистики на более частый. Если его не включить – вставка\обновление нескольких миллионов записей уже искажает статистику и влияет на запросы . Формально считается, что он не влияет на SQL 2016 - 2019 но есть нюансы
- Вы должны быть внимательны к режиму совместимости вашей базы даже, если вы ее перенесли на SQL Server 2019 . Напр. при переносе базы c SQL 2008 на SQL 2019 по умолчанию ставится режим совместимости с 2008. Во много это определяется изменившимся режимом оптимизатора в котором Microsoft видимо не уверен. Я бы тоже был осторожен при таком кардинальном изменение кардинальности см тут Улучшенная кардинальность в MS SQL
- Раз в полгода нужна переиндексация НЕкластерных индексов с наибольшей фрагментацией. В 1С напр. много обновляющихся(insert, delete) таблиц (напр. итоги) в которых растет фрагментация. В такой базе как наша это позволяет выиграть 3 - 4 сотни гигабайт за мероприятие . Для эффективности используйте ALTER INDEX <Index_Name> ON dbo.<Table_Name> REBUILD WITH (SORT_IN_TEMPDB = ON). Это предотвратит рост размера файловой группы, ведь ее потом трудно сжать обратно не смотря на свободное место.
- После свертки остатков и удаления лишних данных проведите реиндексацию кластерных индексов. С фрагментацией и перестройкой кластерных индексов сложнее – фактически нужно место равное размеру таблицы, но это решаемо
Такие размеры выявляют несовершенство оптимизатора SQL, я неоднократно сталкивался со случаями, когда вдруг запрос на одном дне работает очень медленно, а если период расширить до +N дней, то быстро. Если пересчитать статистику все начинает работать быстро на любых периодах.
Программист 1С в этом случае должен трансформироваться минимум в Эксперта 1С по технологическим вопросам, а в идеале знать в совершенстве Performance and tuning из сертификации DBA. 1С это всего лишь удобный инструмент для генерации запросов, как сыграешь на нем, так и будет работать.
Анонс: В целом детали управления слоном в клетке ЦОД это отдельная статья, поскольку избыточного места равного размеру базы почти никогда нет. Сложностей добавляет структура таблиц\индексов 1С которые генерируют метаданные.
Снижение веса как стиль жизни
При таком потоке данных разовыми мероприятиями по удалению лишнего не обойтись, нужно встраивать это в архитектуру. Рассмотрим варианты от самого плохого до самого хорошего
Удаление миллионов – дорого и долго.
Удаление миллионов средствами 1С будет в любом случае самым долгим, поскольку это можно делать либо по регистратору, либо по измерениям регистра с условием на равенство. Даже если это запустить в параллельных фоновых заданиях, маштабируя горизонтально, вы будете сталкиваться с waits на обновлении данных таблиц и что не маловажно индексов. Ведь любой удаляемый набор записей SQL Server должен исключить не только из таблицы, но и всех индексов.
Если вы решили ускорить удаление, делая это напрямую через SQL Server в цикле DELETE TOP 1000 FROM 1CTable, вас ожидает две проблемы:
- В Цикле в один поток это будет медленно.
- Распараллелить данный оператор на уровне SQL это прямой путь к блокировкам. Еще в MS SQL (Transact SQL) нет хороших средств распараллелить ваш код кроме механизма Jobs.
Если кто-то хочет сделать просто DELETE * FROM 1CTables – оцените влияние объемов на Transaction log и Вы много поймете в архитектуре СУБД.
Анонс: Вообще делать часть кода на MS SQL (Transact SQL ) это плохая затея, несмотря на кажущуюся эффективность. Тема для отдельной статьи.
Даже если вы все-таки удалили миллионы этим способом, MS SQL на этом не закончил – вы там обнаружите … призрака
Выглядит он так
Это процесс очистки фантомных записей MS SQL. Забавно, что не только 1С умеет “помечать” на удаление, но и MS SQL, см. Ghost clean up guide
А в качестве бонуса всей процедуры удаления Вы получите хорошую фрагментацию файловой группы. См
Reorganize and rebuild indexes
В итоге получается, что не смотря на простоту программной реализации, обычное удаление слишком дорого обходится для и так нагруженной системы даже если это делать в технологические окна.
Партицирование миллионов - дешево и сердито.
Для больших таблиц современные СУБД (MS SQL 2019 в Standard edition) предлагают механизм партицирования. Напр периодический регистр сведений можно партицировать по дате, а потом:
- Данные старых партиций сохранять в архив
- Удаление старых данных в одной партиции производить операцией TRUNCATE TABLE WITH (PARTITIONS(N)), быстро, без фрагментаций и других неприятных последствий описанных выше;
Подробнее можно почитать тут: Партицированные таблицы
И инструкция с примером тут: Пример создания партицированных таблиц
Казалось бы, вот хорошее решение, но проблемы кроются в деталях:
- Партицирование возможно только по одной Partitioning column, т.е. использовать составной ключ для партицирования типа (Разделитель данных, Дата) которые часто используются в типовых конфигурациях невозможно
- Partition column должна присутствовать во всех индексах таблицы иначе вы сможете делать только DML операции, но не DDL TRUNCATE TABLE WITH (PARTITIONS(N));
- Многие метаданные 1С напр, Регистр бухгалтерии по структуре состоит из нескольких таблиц, его партицировать невозможно. Т.е. в общем случае возможность эффективного использования партицирования должна быть заложена на уровне платформы, а этого нет.
- Партицирование позволяет быстро удалить данные партиции, используя TRUNCATE TABLE WITH (PARTITIONS(N)); но не позволяет быстро поместить в архив и это сужает применение партицирование для узких задач. Напр хранение данных буфера сообщений для RabbitMQ, это сильно облегчает жизнь, но не решает общую проблему быстрого снижения веса.
Про помещение в архив стоит остановится подробнее. В партицировании есть операция SWITCH позволяющая переключить на уровне метаданных SQL (не путать с метаданными 1С) данные из партиции в таблицу той же структуры. Делается это мгновенно на уровне метаданных SQL, но пользы для быстрого архивирования нет
- Переключение идет только в рамках той же файловой группы, мы не можем сделать SQL бэкап отдельно партиции с ее индексами. Только бэкап всей базы или файловой группы
- Бэкап можно сделать только через стандартную утилиту копирования таблиц MS SQL BCP , которая не сжимает данные и работает медленней чем SQL Backup на уровне экстентов
Получается, что партицирование позволяет только быстро удалять данные, но не быстро архивировать\восстанавливать и как следствие эффективно только для некоторых таблиц. Учитывая вышеперечисленные недостатки для 1С проще использовать другой метод.
Методика похудения для 1С – 100%
«Я беру камень и отсекаю всё лишнее.» - так творил шедевры Микеланджело, но это было долго.
В СУБД есть более простой способ - «Я беру все нужное и ничего лишнего». В этом нам поможет утилита BCP, которая позволяет выгрузить и загрузить данные таблицы в Native формате. Допустим, мы хотим оставить в базе данных данные оборотов в регистре бухгалтерии, только за 2022 год
- Сворачиваем остатки своей процедурой и фиксируем их под регистратором Документ.СворачиваниеОстатков на 31.12.2021
- Выгружаем через BCP данные из таблиц проводок включая проводки за 2022 год включая проводки Документ.СворачиваниеОстатков
- Делаем Truncate всех таблиц регистра бухгалтерии
- Отключаем все индексы регистра бухгалтерии кроме кластерных
- Загружаем через BCP данные сохраненные в пункте 2) обратно
- Включаем, выключенные индексы регистра бухгалтерии
- Пересчет итогов
Далее примеры скрипта для некоторых таблиц и индексов регистра бухгалтерии
Детально про BCP можно почитать тут: Утилита BCP
П 1 |
_RecorderTRef = 0x00004248 документ регистратор остатков |
П 2 |
bcp "SELECT * FROM [%2].[dbo].[_AccRgED677] WHERE _Period > CONVERT(datetime, '%3 %4', 120) OR _Period = CONVERT(datetime, '%3 %4', 120) AND _RecorderTRef = 0x00004248" queryout %5\_AccRgED677.bcp -a 16384 -b 10000 -S %1 -d %2 -N -T -e %5\_AccRgED677_unload_error.log -o %5\_AccRgED677_unload_report.log |
П 3 |
sqlcmd -S %1 -d %2 -Q "TRUNCATE TABLE [%2].[dbo].[_AccRgED677]" -o %5\_AccRgED677_truncate_report.log |
П 4 |
sqlcmd -S %1 -d %2 -Q "ALTER INDEX _AccRgED677_ByRecorder_RNN ON [%2].[dbo].[_AccRgED677] DISABLE" sqlcmd -S %1 -d %2 -Q "ALTER INDEX _AccRgED677_ByExtDim_RR ON [%2].[dbo].[_AccRgED677] DISABLE" |
П 5 |
bcp [%2].dbo.[_AccRgED677] IN %5\_AccRgED677.bcp -a 16384 -b 10000 -h "TABLOCK" -S %1 -E -N -T -e %5\_AccRgED677_load_error.log -o %5\_AccRgED677_load_report.log |
П 6 |
sqlcmd -S %1 -d %2 -Q "ALTER INDEX _AccRgED677_ByRecorder_RNN ON [%2].[dbo].[_AccRgED677] REBUILD" sqlcmd -S %1 -d %2 -Q "ALTER INDEX _AccRgED677_ByExtDim_RR ON [%2].[dbo].[_AccRgED677] REBUILD" |
П 7 |
Пересчет итогов |
Про предварительные бэкапы, и контрольные отчеты до и после включая аналитику я писать не буду, поскольку это не инструкция для американских домохозяек. Структура базы данных подробно изложена тут Структура базы данных 1С совершенно открыто поэтому не стоит боятся манипуляций с данными напрямую
Есть один принципиальный момент – это сортировка загружаемых данных – она должна соответствовать сортировке кластерных индексов , от этого зависит фрагментация кластерного индекса и скорость. Далее цитата из ссылки про bcp
«The sort order of the data in the data file. Bulk import performance is improved if the data being imported is sorted according to the clustered index on the table, if any. If the data file is sorted in a different order, that is other than the order of a clustered index key, or if there is no clustered index on the table, the ORDER clause is ignored. The column names supplied must be valid column names in the destination table. By default, bcp assumes the data file is unordered. For optimized bulk import, SQL Server also validates that the imported data is sorted.»
Минус у такой методики один – невозможность в BCP делать сжатые бэкапы таблиц. Размеры *.bcp файлов получаются большими, при том, что там только данные без индексов
Дальше одни плюсы
- Место для *.bcp файлов может быть где угодно, на любых носителях и сетевых дисках
- Время только тратится на выгрузку и загрузку
- Можно параллельно выгружать\загружать разные таблицы увеличивая общую скорость
- Сразу решатся вопрос с фрагментацией , а ее нужно решать при любых вариантах
- Можно использовать сложные выборки для актуальных данных учитывая даты оплаты и поставки.
Для большей скорости Вам нужно использовать большие размеры пакетов в BCP (параметр -a_ ) .
Размер самой файловой группы возможно легко сократить не удасться из-за разбросанных экстентов, однако там появится свободное место для новых данных т.е. база будет в фиксированной форме.
Анонс: Увеличить широту пропускания сети либо технологиями Teamed Lan либо используя сетевые карты с технологией RDMA. В целом настройка сети это тема отдельной статьи
Анонс: Практическая реализация подсистемы очистки это хорошая тема для отдельной статьи.
Коллективная ответственность за вес базы, мифы и реальность?
В любой крупной организации можно выделить системы
- FrontOffice (где заключаются сделки, контракты, оформляются продажи)
- BackOffice (где производятся взаиморасчеты, отражается работа по контрактам и закрытие продаж)
- Финансовый учет
- Управленческий учет
Они могут совмещаться или делится в разных комбинациях, но суть в том что большинство информации там дублируется . Кроме того для финансового и управленческого учета требуются расшифровки с исходными сделками для сверок, проверок, аудиторов. И все эти базы требуют RAID с избыточным количеством дисков. Как правило пока все умещается на текущие сервера это устраивает разные ответственные подразделения, но когда количество сделок\операций во FrontOffice планируется увеличить на несколько сот тысяч в день, тогда простые расчеты показывают, что дублирование начинает грозить стабильности бизнес процессов
- Во-первых, это все нужно обработать в регламентное время на всех уровнях без ночных смен сотрудников
- Во-вторых, хранить на избыточных RAID, которые тянут за собой много другой ИТ инфраструктуры
И этот момент хорош для внедрения агрегирования операций хотябы на уровне BackOffice – Фин\Упр учет иначе в потоке данных потонут все ИТ отделы, и это хорошая мотивация. Агрегация это непростой вопрос, поскольку она должна обязательно позволять обратную расшифровку и обновятся при изменениях задним числом.
Анонс: Варианты агрегации с расшифровкой это тема отдельной статьи.
Теперь можно подвести итоги:
Держать базу в фиксированной форме, означает внедрение подсистемы, которая работает на регулярной основе. Мы живем во время производства избыточных данных. Делитесь своими приемами обрезки базы, подключайтесь в наш канал. Как создать удобную подсистему по обрезке данных в 1С – тема отдельной статьи, пишите, если эта тема интересна.