Исследование технологического журнала 1С при помощи регулярных выражений в блокноте

Публикация № 693103

Администрирование - Производительность и оптимизация (HighLoad)

ТЖ Perl Bash

Все из тех, кто пробовали сдать на сертификат "Эксперт по технологическим вопросам 1С", сталкивались с методикой ЦКТП - разбор файлов технологического журнала при помощи консоли bash. Я, в свою очередь,внёс изменения в данную методику. Мне хотелось достичь более понятного вида и сфокусироваться на Perl, в качестве предпочтительного средства обработки файлов ТЖ. Вот что из этого вышло:

[Дополнение от 2017.11.23: Для тех, кому неинтересно читать - в репозитории есть готовая portable сборка и выкладываются готовые скрипты.]

 

Подготовка

Для начала подготовим удобную и комфортную среду исполнения. Для этого потребуются

  • Git Bash - эмулятор консоли bash со многоми дополнительными программами, важнейшей из который для нас является perl
  • Notepad++ - удобнейший редактор кода, который вместе с дополнением NppExec становится полноценной IDE для наших комфортного выполнения задач анализа

После скачивания и установки данных программ необходимо настроить. И настраивать понадобится только Notepad++. Идём в Plugin Manager и устанавливаем дополнение NppExec.

В его настройках выбираем формат локали (ConsoleOutput) - необходимо выбрать UTF-8 как для Input, так и для Output. (Plugins->NppExec->Console Output..)

В настройках Notepad++ обязательно поставьте замену табов на пробелы, иначе ничего не будет нормально работать. Лучше, если табов в тексте скрипта вообще не будет.

Теперь может писать наш первый скрипт.

Напишем простую команду: ls -l, нажмём F6 для запуска и настроим его команды:

npp_save - этот макрос сохранит текущий скрипт перед выполнением
"C:\Program Files\Git\bin\bash.exe"  "$(FULL_CURRENT_PATH)" - запускаем bash и передаём в качестве аргумента имя открытого файла

Теперь результат выполнения операций будет отображаться внизу, в дополнительном окне самого Notepad++.

 

 

Обработка

Начнём обработку. Допустим, нас интересует суммарная продолжительность вызовов к СУБД (SDBL) в разрезе контекстов. Выбирать информацию мы будем из технологического журнала 1с (вопросы его настройки здесь рассматриваться не будут).

Так как полный текст одного события в ТЖ 1с может быть разбит на несколько строк, то нам сначала нужно склеить все строки, принадлежащие одинаковым событиям, чтобы в дальнейшем обрабатывать их уже построчно.

Я реализовал такой алгоритм склейки строк одного события:

  1. Заменяем все переносы строки на пробел (в других случаях это может быть любая необходимая последовательность)
  2. Если начало строки соответствует шаблону начала строки записи, то ставим перенос строки перед этой строкой.
perl -ne '{
    $_=~s/\r*\n/ /g;                        #\r*\n в пробел
    $_="\r\n".$_ if(/^\d\d:\d\d\.\d+/);     #если строка начинается с заголовка записи 1с строка начнётся с переноса
    print $_;}'

Таким образом мы получим список полного текста всех событий ТЖ.

После этого отрежем всю информацию от начала события до его длительности:

$_=~s/^\d{2}:\d{2}\.\d+-//;

и уберём весь текст от SDBL до контекста

$_=~s/,SDBL.*Context=/\@SDBL\@/;

После этих нехитрых манипуляций события на выходе приобретут следующий вид:

(длительность события)@(названия события-SDBL)@(и его контекст)

Небольшое пояснение по используемым в Perl конструкциям:

  • команда perl -ne означает лишь только выполнить программу, указанную в кавычках и передавать ей на вход строки на вход.
  • принимаемые строки попадают в системную переменную Perl - $_
  • операция $_=~s/123/321/g; есть ни что иное, как присвоение переменной $_ результатов замены содержимого $_ в соответствии с регулярным выражением s/123/321/g. В данном контексте 123 меняется на 321.

Теперь при помощи AWK можно просуммировать длительность и количество событий по контексту.

Результирующий скрипт будет примерно таким:

cat //server/c$/1clog/sdbl/rphost_*/*.log | \
perl -ne '{
    $_=~s/\xef\xbb\xbf//g;                  #BOM
    $_=~s/\r*\n/ /g;                        #\r*\n в пробел
    $_=~s/\s+/ /g;                          #и много пробелов - в 1    
    $_="\r\n".$_ if(/^\d\d:\d\d\.\d+/);     #если строка начинается с заголовка записи 1с строка начнётся с переноса
    print $_;}' | \
perl -ne '
    if ((/,SDBL.*Context=.{3}/)){           #по событиям SDBL
        $_=~s/^\d{2}:\d{2}\.\d+-//;         #Убрать всё начала строки до длительности операции
        $_=~s/,SDBL.*Context=/\@SDBL\@/;    #Убираю ненужную информацию между ,SDBL и Context=
        $_=~s/\x27//g;                      #апострофы тоже все в сад
        print $_;
    }' | \
awk -F'@' '{
        sum[$3]+=$1;                        #суммирую продолжительность
        ttl+=$1;                            #общая продолжительность
        cnt[$3]+=1;                         #суммирую количество
        ct+=1;                              #и общее количество увеличивается
}
    END{
        printf "%d %s %'\''d %s %'\''d %s %d\n", ttl, "=====SDBL TOTAL(ms)", ttl/1000, "COUNT:", ct, "AVG(ms):", ttl/ct/1000
        for(i in sum){
            printf "%d %s %'\''d %s %'\''.2f %s %'\''d %s %'\''.2f %s %'\''d %s\n",
            sum[i],
            "TOTAL(ms):", sum[i]/1000,
            "TOTAL(ms)%:", sum[i]/ttl*100,
            "COUNT:", cnt[i],
            "COUNT%:", cnt[i]/ct*100,
            "AVG(ms):", (cnt[i]>0?sum[i]/cnt[i]/1000:sum[i]/1000),
            "CONTEXT="i
    }}' | \
sort -rnb | \
head -n 11 | \
perl -pe 's/\d+\s/\r\n/;                    #первое число - продолжительность для сортировки меняем на переносы строк для удобства восприятия'

Небольшое пояснение по используемым в AWK конструкциям:

  • -F'@' - означает что в качестве разделителя полей выступает символ @. Разделителем можно назначить как символ, так и последовательность.
  • значения между разделителями в awk попадают в переменные служебные переменные $1, $2, $3 итд. (в зависимости от количества полей). В $0 приходит вся строка, без разбивки по разделителям.
  • команда printf в первом параметре определяем типы выводимых значений и их форматирование, так:
    %s - строка
    %d - целое, %'\''d означает группировку по 3 частей целого числа (123456 = 123 456, для удобства восприятия)
    %f - float, %'\''.2f означает группировку по 3 частей числа с округлением до двух знаков после запятой (123456,1234 = 123 456,12 для удобства восприятия)

Таким незамысловатым образом, мы можем увидеть, что 2,46% обращений к СУБД контекста "ДинамическийСписок.ПолучитьДанные : ЖурналДокументов.КадровыеДокументы.Форма.ФормаСписка.Реквизит.Список" создали 60,36% процентов нагрузки.

 

Ныряем глубже

Так как в записях журналов регистрации 1с не содержится информация о часе и дате, а мне очень бы хотелось использовать для отборов и их, то попробуем получить и эти данные:

grep -r ".*" -H /c/rphost_*/*.log

В таком формате команда grep будет выводить перед каждой строкой имя файла, в пути и имени которого содержится дополнительная информация:

Но, имя файла будет выводиться и перед склеиваемыми строками. Значит нужно убрать его из склеиваемых строк. И, для начала, изменить формат строки события на более читабельный.

Здесь на помощь снова приходит Perl со своими мощными регулярными выражениями.

grep -r ".*" -H /c/rphost_*/*.log  | \
perl -ne '{
    $_=~s/\xef\xbb\xbf//g;                      #BOM
    $_=~s/\r*\n/ /g;                            #\r*\n
    $_=~s/\x27//g;                              #убираю апострофы
    $_=~s/\s+/ /g;                              #сворачиваю последовательности пробелов в один
    if(/\d\d:\d\d\.\d+/){
        while(s/^.*_(\d+)\/(\d{2})(\d{2})(\d{2})(\d{2})\.log\:(\d+:\d+\.\d+)\-(\d+),(\w+),(\d+)//){
            $_="\r\n"."dt=20".$2.".".$3.".".$4.",time=".$5.":".$6.",pid=".$1.",dur=".$7.",evnt=".$8.",ukn=".$9.$_ ;
        }
    }else{$_=~s/^.*log://;}                     #из перенесённых строк просто вытираю начало    
    print $_;}'| \
head -n 150

Результатом такой обработки строк будет удобный и читаемый вид:

Теперь становится возможным разделить поля по разделителю(то есть выводить только те поля, что нам реально нужны). Например, необходимо вывести только дату, время и контексты всех SCALL'ов

grep -r ".*" -H /c/rphost_*/*.log  | \
perl -ne '{
    $_=~s/\xef\xbb\xbf//g;                      #BOM
    $_=~s/\r*\n/ /g;                            #\r*\n
    $_=~s/\x27//g;                              #убираю апострофы
    $_=~s/\s+/ /g;                              #сворачиваю много пробелов в один
    if(/\d\d:\d\d\.\d+/){
        while(s/^.*_(\d+)\/(\d{2})(\d{2})(\d{2})(\d{2})\.log\:(\d+:\d+\.\d+)\-(\d+),(\w+),(\d+)//){
            $_="\r\n"."dt=20".$2.".".$3.".".$4.",time=".$5.":".$6.",pid=".$1.",dur=".$7.",evnt=".$8.",ukn=".$9.$_ ;
        }
    }else{$_=~s/^.*log://;}                     #из перенесённых строк просто вытираю начало    
    print $_;}'| \
perl -ne '{
    if(/time=.*evnt=SCALL.*Context=/){
        for (split /(?=\,\w+:*\w*=)/, $_){
            $_=~s/,//g;
            print $_."  [][][] " if(/dt=/);
            print $_."  [][][] " if(/time=/);
            print $_."  [][][] " if(/evnt=/);
            print $_ if(/Context=/);
        }
    }
}' |\
head -n 150

Результат будет весьма наглядным:

 

Бритва Оккама

В представленных выше группировках по полям всё ещё используется AWK, хотя в самом Perl есть не менее мощные возможности для оперирования данными.

Можно убрать и AWK, и сортировку при помощи команды sort -rnb, и вывод только 10 строк при помощи head.

Попробуем же только средствами Perl подсчитать количество и продолжительность событий SDBL в разрезе контекстов:

time grep -r ".*" -H /c/rphost_*/*.log  | \
perl -ne '{
    $_=~s/\xef\xbb\xbf//g;                      #BOM
    $_=~s/\r*\n/ /g;                            #\r*\n
    $_=~s/\x27//g;                              #убираю апострофы
    $_=~s/\s+/ /g;                              #сворачиваю много пробелов в один
    if(/\d\d:\d\d\.\d+/){
        while(s/^.*_(\d+)\/(\d{2})(\d{2})(\d{2})(\d{2})\.log\:(\d+:\d+\.\d+)\-(\d+),(\w+),(\d+)//){
            $_="\r\n"."dt=20".$2.".".$3.".".$4.",time=".$5.":".$6.",pid=".$1.",dur=".$7.",evnt=".$8.",ukn=".$9.$_ ;
        }
    }else{$_=~s/^.*log://;}                     #из перенесённых строк просто вытираю начало    
    print $_;}'| \
perl -ne '                                      #perl умеет работать как AWK
    if(/dur=(\d+),evnt=SDBL.*Context=(.*)/){
        $dur_ttl+=$1/1000;
        $dur{$2}+=$1/1000;
        $cnt_ttl+=1;
        $cnt{$2}+=1;
    }
    END{
        printf("=====TIME TOTAL(ms):%.2f      COUNT:%d      AVG(ms):%.2f\r\n",
               $dur_ttl,
               $cnt_ttl,
               $dur_ttl/$cnt_ttl);              #формирую заголовок
        foreach $k (sort {$dur{$b} <=> $dur{$a}} keys %dur) {
            printf "[][][] TIME(ms):%d [][][] TIME(%):%.2f [][][] COUNT:%d [][][] COUNT(%):%.2f [][][] BY:%s \r\n",
            $dur{$k},
            $dur{$k}/$dur_ttl*100,
            $cnt{$k},
            $cnt{$k}/$cnt_ttl*100,
            $k;                                 #сортирую массив по убыванию длительности и вывожу его
            last if ($_+=1)>10;                 #но только первые 10 строк
        }
    }'

Результатом будет очень быстрая обработка всего массива ТЖ для получения интересующей нас информации.

Оценить скорость выполнения всегда можно командой time в самом начале выполнения.

Пояснения по конструкция Perl:

  •  
    if(/dur=(\d+),evnt=SDBL.*Context=(.*)/){ #если у строки есть dur=\d+, его evnt=SDBL И у него есть контекст
        $dur_ttl+=$1/1000; 
        $dur{$2}+=$1/1000; #суммируем продолжительность - $1 (первые круглые скобки(\d+)) по контексту - $2 (Context=(.*))
        $cnt_ttl+=1;
        $cnt{$2}+=1;       #суммируем количество контекстов - $2 (Context=(.*))
    }
  •  
foreach $k (sort {$dur{$b} <=> $dur{$a}} keys %dur) { #сортировка массива и обход по всем его ключам
  •  
last if ($_+=1)>10; #каждый проход мы увеличиваем на 1 переменную $_. Выходим, если число проходов превысило 10
  •  

 

Оптимизация

Обработка(парсинг) ТЖ - чрезвычайно ресурсоёмкое занятие. ТЖ запросто могут достигать нескольких десятков (а то и сотен) гигабайт. И выборка информации из них может занимать ОЧЕНЬ продолжительное время.

Поэтому весь код для парсинга должен быть максимально эффективным.

В предыдущем примере в первом вызове Perl склеиваются все строки, даже не отбираемые во втором вызове (подсчёт). То есть мы обрабатываем в первом проходе те строки, которые не понадобятся во втором.

Немного модифицируем отбор для того, чтобы склеивать строки только по нужному событию. Справедливости ради стоит заметить, что сразу всё необходимое - SDBL с контекстом - мы отобрать не сможем, потому что перед склейкой строк контекст может находиться на разных строчках с событием.

echo "Длительность событий SDBL в резрезе контекстов"
time grep -r ".*" -H /c/v8/logs/*/*.log  | \
perl -ne '
    s/\xef\xbb\xbf//;                               #BOM - обязательно в начале, иначе с певой строкой будут проблемы
    if(/log:\d\d:\d\d\.\d+-\d+,(\w+),/){            #если в строке есть идентификатор начала строки и это наш тип события
        if($1 eq "SDBL"){                           #первоначальный отбор по событиям            
            s/\s+/ /g;                              #сворачиваю много пробелов в один, и перенос строки тоже здесь улетит в пробел
            if(s/^.*_(\d+)\/(\d{2})(\d{2})(\d{2})(\d{2})\.log\:\s*(\d+:\d+\.\d+)\-(\d+),(\w+),(\d+)//){
                $_="\r\n"."dt=20".$2.".".$3.".".$4.",time=".$5.":".$6.",pid=".$1.",dur=".$7.",evnt=".$8.",ukn=".$9.$_ ;                
            }
            $f=1;
        }else{$f=0};
    }
    elsif($f) {                                     #если наше событие, то обрабатываем эту висячую  строку
        s/^.*log://;                                #из перенесённых строк просто вытираю начало
        s/\s+/ /g;                                  #сворачиваю много пробелов в один, и перенос строки тоже здесь улетит в пробел
    }
    if($f){
        s/\x27//g;                                  #убираю апострофы
        print;
    }END{print "\r\n"}                              #надо поставить, чтобы последняя строка в обработку попала
' | \
perl -ne '                                          #perl умеет работать как AWK
    if(/dur=(\d+),evnt=SDBL.*Context=(.*)$/){
        $dur_ttl+=$1/1000;
        $dur{$2}+=$1/1000;
        $cnt_ttl+=1;
        $cnt{$2}+=1;
    }
    END{
        printf("=====TIME TOTAL(ms):%.2f      COUNT:%d      AVG(ms):%.2f\r\n",
            $dur_ttl,
            $cnt_ttl,
            $dur_ttl/$cnt_ttl);                     #формирую заголовок
        foreach $k (sort {$dur{$b} <=> $dur{$a}} keys %dur) {
            last if ($_+=1)>10;                     #но только первые 10 строк
            printf "$_: [][][] TIME(ms):%d [][][] TIME(%):%.2f [][][] COUNT:%d [][][] COUNT(%):%.2f [][][] BY:$k \r\n",
            $dur{$k},
            $dur{$k}/($dur_ttl>0?$dur_ttl:1)*100,
            $cnt{$k},
            $cnt{$k}/($cnt_ttl>0?$cnt_ttl:1)*100;   #сортирую массив по убыванию длительности и вывожу его
        }
    }'

Теперь оценим скорость выполнения:

Скорость отбора той же самой информации увеличилась в 5 раз!

 

 

Вместо заключения

Надеюсь, данная статья поможет Вам раскрыть новые возможности и измерения анализа ТЖ 1с.

Если какие-то моменты остались непонятными, то напишите о них в комментариях. Я постараюсь описать их более подробно.

Рабочие примеры скриптов парсинга ТЖ по описанным выше методикам доступны в открытом репозитории Bash1C. Присоединяйтесь!

 

 

Специальные предложения

Комментарии
В избранное Подписаться на ответы Сортировка: Древо развёрнутое
Свернуть все
1. Darklight 22 30.10.17 18:03 Сейчас в теме
ох... как всё жестоко... прямо хакинг какой-то
2. herfis 372 30.10.17 18:20 Сейчас в теме
Плюсанул.
(1) Неудивительно. Вводной статьей это никак нельзя назвать.
Предполагается, что вы уже умеете в регулярные выражения и немножко знакомы с POSIX (в части общеупотребимых никсовых команд и работы командного интерпретатора). Короче, нужно уже быть немножко линуксоидом.
Kami4; Сурикат; +2 Ответить
21. starik-2005 2195 11.11.17 21:20 Сейчас в теме
(2)
вы уже умеете в регулярные выражения и немножко знакомы с POSIX (в части общеупотребимых никсовых команд и работы командного интерпретатора)
Это о чем?
POSIX (англ. portable operating system interface — переносимый интерфейс операционных систем) — набор стандартов, описывающих интерфейсы между операционной системой и прикладной программой (системный API), библиотеку языка C и набор приложений и их интерфейсов. Стандарт создан для обеспечения совместимости различных UNIX-подобных операционных систем и переносимости прикладных программ на уровне исходного кода, но может быть использован и для не-Unix систем.


Cygwin состоит из двух частей: динамически подключаемой библиотеки (DLL) cygwin1.dll, которая обеспечивает совместимость API и реализует значительную часть стандарта POSIX, и огромной коллекции приложений, которые обеспечивают привычную среду UNIX, включая Unix shell.


Т.е. POSIX и Unix Shell - это совсем разное, поэтому придираюсь...
22. herfis 372 13.11.17 10:24 Сейчас в теме
(21) Не готов спорить. Вики тут не помощник, а в спецификации POSIX лезть лень. Но если уж придираетесь, тогда идите до конца :) Мне тоже будет интересно узнать. На вики написано "и набор приложений и их интерфейсов", что очень расплывчато. Но очевидно, что туда входит описание ряда стандартных команд и приложений. Входит ли сюда командный интерпретатор или нет - непонятно. Мне кажется, что базовые принципы работы командного интерпретатора, типа перенаправления ввода-вывода, должны быть там прописаны.
23. starik-2005 2195 13.11.17 11:32 Сейчас в теме
(22)
типа перенаправления ввода-вывода
Так это и в досовской еще ОСи было: "type filename | more". Это к POSIX вряд ли имеет отношение, ибо ДОС уж точно никогда даже и не позиционировался, как POSIX (в отличие от винды NT).
24. herfis 372 13.11.17 14:24 Сейчас в теме
(23) Ок, сам нашел состав стандарта.
Один из четырех разделов POSIX: Оболочка и утилиты (англ. Shell and utilities) — описание утилит и командной оболочки sh, стандарты регулярных выражений.
siliconvalet; +1 Ответить
3. MrWonder 621 30.10.17 21:51 Сейчас в теме
(1) а что подробнее расписать? какая часть самая непонятная?
4. Armando 1393 30.10.17 23:55 Сейчас в теме
На эксперте только bash котируется? Powershell не?
surikateg; +1 Ответить
5. MrWonder 621 31.10.17 00:32 Сейчас в теме
6. LexSeIch 206 31.10.17 09:23 Сейчас в теме
(5) Такой ответ - фраза, ставящая в тупик многих иностранцев :-) Статья интересная - пошёл по ссылкам нашёл на русском электронную версию книги "ProGid"... Спасибо!
15. AlX0id 02.11.17 08:14 Сейчас в теме
(4)
Ну у меня пару лет назад одним из практических вопросов было: найти в 30 Гб ТЖ таймаут на блокировке и объяснить.
С помощью грепа он находился где-то за минуту на не очень выдающемся ноуте. Если Powershell способен это повторить, то вайнот.
Объяснить я пытался при помощи как раз таки нотпад++. В тот кон, правда, не объяснил :) Но проблема была не в нотпаде.
7. logarifm 1080 31.10.17 12:13 Сейчас в теме
Какой размер файла удается таким образом анализировать? Я имею ввиду файлы ТЖР. Сколько будет парсить файл к примеру с 10 Гб?
9. MrWonder 621 31.10.17 12:45 Сейчас в теме
(7) Вы же понимаете, что у Вашего вопроса очень много если. Например, скорость СХД, на которой лежит файл. Доступные процессорные ресурсы и.т.д.
Сейчас попробовал у себя: 3,68 GB чистых SDBL'ей на шпинделе по сети распарсились до окончательного результата за 110 секунд. То же самое локально - 90 секунд.
10. stveans@gmail.com 11 01.11.17 12:21 Сейчас в теме
(9)А в сравнении на том же оборудовании с git bash, cygwin?
11. herfis 372 01.11.17 12:36 Сейчас в теме
(10) Так он в git bash и парсил, насколько я понял.
Кстати, вроде в Windows 10 запилили Windows Subsystem for Linux и для подобных вещей отпадает необходимость в установке cygwin и иже с ними.
Правда, не уверен на сто процентов, что получится из нотепада выполнять.
(8) В bash, при необходимости, тоже можно разбивать на фоны. В любом случае это заведомо быстрее, чем средствами 1С. И при этом универсальнее.
12. MrWonder 621 01.11.17 14:16 Сейчас в теме
(11) Всё верно, я использовал Git Bash. Об этом явно написано в начале статьи. Можно и под cygwin. И с bash в Win10 можно настроить (при условии наличия Perl). Но в рамках данной статьи я вариации со средой исполнения не буду расмматривать.
14. stveans@gmail.com 11 01.11.17 15:13 Сейчас в теме
(12)Понял. Недоглядел, думал этот плагин самостоятельный, а он оказывается использует стороннюю программу.
(10)Что касается подсистемы в Windows 10 - она ещё в бета версии и имеются ошибки. Например, у меня склейка строк с помощью awk неправильно работает в 10. В git bash, cygwin с этим всё в порядке.
13. MrWonder 621 01.11.17 14:17 Сейчас в теме
(9) отвечаю сам себе - используй команду time !
8. logarifm 1080 31.10.17 12:21 Сейчас в теме
Я пытался это решить посредствами самой 1С. Последовательным чтением файлов ТЖР. При этом разбивая на фоны.
https://infostart.ru/public/418347/
16. A_Max 18 08.11.17 13:27 Сейчас в теме
Очень порадовал комментарий "#perl умеет работать как AWK" :о)
Когда в первый раз увидел статью как раз и удивился смеси использования perl/grep/awk
17. MrWonder 621 09.11.17 09:38 Сейчас в теме
(16) Истоки сего смешения явились из здания на Дмитровском шоссе )
Эволюция по тексту тоже, думаю, прослеживается
18. magicbuka 10.11.17 11:53 Сейчас в теме
(17) Алексей, а экзамен то в итоге сдали?
19. MrWonder 621 10.11.17 14:22 Сейчас в теме
(18) На текущий момент - нет.
20. starik-2005 2195 11.11.17 21:16 Сейчас в теме
25. c1nil 11.01.18 09:36 Сейчас в теме
Когда-то экспериментировал с Perl 6 для этих целей. Скорости такой не получил, конечно. Но склеить строки за первый проход можно сразу, а потом отформатировать в html, например или во внутреннее представление по средствам классов, которые специальным образом обрабатывают "grammar".
Что нашёл из экспериментов с грамматиками (grammar):
https://gist.github.com/mrDSide/217695e9db031b9f32eb04a543298c53
Более развёрнутый пример с "made", "make" не нашёл уже. Но есть документация:
https://docs.perl6.org/language/grammars

П.С. делал разбор файла для ПУ-3 и получил полезный комментарий по поводу переноса строк (см. "token win - nl", "token lin-nl")
https://gist.github.com/araraloren/6051fd7aa24dad1b7f499e01bed3c03c
26. starik-2005 2195 11.01.18 10:20 Сейчас в теме
(25) а я вот sed использую - для большинства вещей хватает.
27. c1nil 11.01.18 11:29 Сейчас в теме
(26) Уверен, что так и есть. Я мало пользуюсь утилитами командной строки linux (пока). А по поводу sed отличный комментарий дал автор курса по анализу технологического журнала 1С с помощью регулярных выражений - предлагает использовать "perl -pe" вместо sed, т.к. на больших объёмах данных они кэшируются и обработка происходит быстрее.
К слову, можете использовать эти же утилиты в сценариях на Perl 6, там есть возможность вызова утилит командной строки в момент выполнения сценария с получением результата (вывода команды), так же есть конвееры, кроме того ещё и двунаправленные, если можно так сказать ("<==" и "==>") :) Модуль есть для отладки регулярных выражений (Grammar::Tracer).
Хотя лично у меня получилось больше всего информации извлечь и отладить проще всего с помощью PowerShell ISE.

UPD: справедливости ради нужно заметить, что "perl -pe", конечно, вызов интерпретатора perl 5, т.к. именно он на данный момент является интерпретатором по-умолчанию
MrWonder; +1 Ответить
28. RailMen 802 11.01.18 14:07 Сейчас в теме
Только начал готовиться к эксперту, а тут такая статья в тему. Спасибо!
29. MrWonder 621 11.01.18 14:49 Сейчас в теме
30. lustin 11.01.18 17:48 Сейчас в теме
(0) всем не знающим регулярные выражения посвящается https://github.com/silverbulleters/verbal-expressions

ВербальноеВыражение = Новый ВербальноеВыражение()
    .НачалоСтроки()
    .Затем("http")
    .МожетБыть("s")
    .Затем("://")
    .ЧтоНибудьНоНе(" ")
    .КонецСтроки();
Показать
Perfolenta; kote; mickey.1cx; +3 Ответить
34. kote 519 03.09.18 07:57 Сейчас в теме
35. MrWonder 621 03.09.18 09:58 Сейчас в теме
36. kote 519 03.09.18 10:27 Сейчас в теме
31. ADirks 182 12.01.18 07:23 Сейчас в теме
Для пущего ускорения я бы файлы самим перлом читал, а не через конвейер (grep ... | perl)
Сам перл это делает сильно быстрее.

к примеру
open LOG, "< $log_fname";
foreach $line (<LOG>)
{
$line =~ m/^\s*dt=([\d.]+).*$/;
print $1;
}
close LOG;

для чтения кучи файлов с логами можно использовать пакет File::Find

годная документация по перлу с примерами например тут есть https://www.activestate.com/activeperl
(мне реализация АктивПерл для винды больше всего нравится)
kote; A_Max; mickey.1cx; artbear; MrWonder; +5 Ответить
32. MrWonder 621 12.01.18 09:39 Сейчас в теме
(31) Спасибо за совет. Я уже делаю так в текущих разработках. Как руки дойдут - дополню статью примером исключительно на Perl.
33. MrWonder 621 04.05.18 10:52 Сейчас в теме
(32) Отвечу сам себе, почему такого примера не будет. В описанных выше примерах чтение файлов и последующая обработка выполняется в разных процессах, и ОС использует разные процессоры. На протестированном мной однофайловом решении (чтение и обработка в Perl) задействуется всего один процессор. Таким образом описанное решение работает быстрее однофайлового и полностью на Perl. Поэтому его здесь и не будет.
AlexandrSmith; CratosX; +2 Ответить
40. MrWonder 621 19.06.19 20:32 Сейчас в теме
(39) Большое спасибо за Ваш отзыв. Рад, что пригодилось O:-)
42. user860784 24.04.20 16:22 Сейчас в теме
А можно как то сделать чтоб выбирать по времени? например от 40:00 до 42:00 все события получить?
43. MrWonder 621 25.04.20 22:00 Сейчас в теме
(42) Всё можно: пропустите после склейки через конвейер perl -ne 'prinf if /^4[0-2]\:\d{2}/'
44. user860784 28.04.20 14:14 Сейчас в теме
(43)
perl -ne 'prinf if /^4[0-2]\:\d{2}/'

Спасибо за ответ, подскажите еще как мне написать поиск от 10:20:30-10:20:31сек,
у меня никак не получается
45. MrWonder 621 28.04.20 16:10 Сейчас в теме
(44) Уверен, что вам стоит подучить регулярные выражения
perl -ne 'prinf if /^10\:20\:3[0-1]/'
Оставьте свое сообщение

См. также

Долго открывается конфигуратор Промо

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

В ОС Windows Server 2012 бывает полезно выключать службу Dynamic Fair Share Scheduling (DFSS позволяет балансировать и распределять ресурсы между пользователями), чтобы повысить производительность 1С:Предприятие 8 в ряде случаев.

22.04.2015    40810    Gilev.Vyacheslav    1    

Описание почти всех событий технологического журнала

Технологический журнал v8 Бесплатно (free)

Краткое описание событий технологического журнала с примерами. Все для быстрого старта.

19.08.2020    4727    YPermitin    22    

Адаптация автоматической классификации ошибок технологического журнала при появлении новых текстов и типов

Технологический журнал v8 1cv8.cf Бесплатно (free)

Корректируем классификацию ошибок ТЖ в процессе работы для конфигурации мониторинг производительности

17.08.2020    343    ivanov660    0    

SQL для 1С: пишем правильно, красиво, сложно

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Многие программисты боятся работать с Null, считая, что от этих данных в запросах нужно избавляться. О том, как с помощью Null-полей в запросе решать востребованные в учете задачи по выборке данных, на конференции Infostart Event 2019 Inception рассказал ведущий разработчик ГК WiseAdvice Дмитрий Дудин.

14.08.2020    8464    dmurk    30    

Как можно "положить" SQL сервер с помощью обычной консоли запросов 1С Промо

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Описано как из 1С, с помощью безобидной на первый взгляд обработки, можно сделать неработоспособным SQL сервер. Предложены меры, позволяющие избежать этого.

22.01.2014    67177    yuraos    112    

Нестандартные блокировки при работе с OLAP-нагрузкой

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Если выполнение отчета мешает работе других пользователей и провоцирует блокировки, даже с учетом «грязного чтения» – ситуация кажется парадоксальной. О том, как расследовать такие проблемы, на конференции Infostart Event 2019 Inception рассказали ведущий программист торгового дома «Петрович» Станислав Щербаков и специалист по производительности компании «СофтПоинт» Александр Денисов.

20.07.2020    1849    Филин    7    

Автоматическая классификация ошибок технологического журнала

Технологический журнал v8 1cv8.cf Бесплатно (free)

В статье обсудим пример практической настройки конфигурации «Мониторинг производительности» для автоматической классификации ошибок по группам/кластерам на данных текстов описания ошибок. Используем механизм векторной модели текстов и косинусное сходство между ними.

25.06.2020    2577    ivanov660    12    

Выявляем и оптимизируем ресурсоемкие запросы 1С:Предприятия

Производительность и оптимизация (HighLoad) Администрирование СУБД Технологический журнал Структура метаданных v8::Запросы Бесплатно (free)

Обычно предметом оптимизации являются заранее определенные ключевые операции, т.е. действия, время выполнения которых значимо для пользователей. Причиной недостаточно быстрого выполнения ключевых операций может быть неоптимальный код, неоптимальные запросы либо же проблемы параллельности. Если выясняется, что основная доля времени выполнения ключевой операции приходится на запросы, то осуществляется оптимизация этих запросов. При высоких нагрузках на сервер СУБД в оптимизации нуждаются и те запросы, которые потребляют наибольшие ресурсы. Такие запросы не обязательно связаны с ключевыми операциями и заранее неизвестны. Но их также легко выявить и определить контекст их выполнения, чтобы оптимизировать стандартными методами.

24.05.2020    7115    DataReducer    22    

Ускоряем списание партий УПП 1.2 / 1.3 / УТ 10.3 Промо

Производительность и оптимизация (HighLoad) v8 УТ10 УПП1 Бесплатно (free)

Не секрет, что многие пользователи, использующие партионный учет (а таких очень много, даже среди огромных холдингов, несмотря на пропаганду РАУЗ) при больших нагрузках сталкиваются с резким замедлением списания партий.

21.06.2013    54262    Антон Ширяев    117    

[SQL Server] Использование trace flag 9592 для сжатия траффика в кластере AlwaysOn

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Недавно мы столкнулись с проблемой производительности, при которой дополнительная нагрузка, связанная с записью большого массива данных, приводила к существенным задержкам в операциях записи основного траффика. Найденное решение позволило не только уменьшить влияние нового процесса на основной пользовательский трафик, но и существенно снизить сетевой траффик между синхронными репликами кластера.

18.05.2020    2020    Aleksey.Bochkov    3    

Эти занимательные временные таблицы

Производительность и оптимизация (HighLoad) Администрирование СУБД v8 Бесплатно (free)

Кое-что интересное о временных таблицах и работе платформы 1С с ними.

06.04.2020    11356    YPermitin    0    

Оптимизация запросов 1С посредством индексации временных таблиц. Миф? Тестируем, смотрим, считаем

Производительность и оптимизация (HighLoad) Практика программирования v8 Бесплатно (free)

Появилось свободное время, решил проверить на работе индексацию таблиц. Решил поделиться с Вами результатами исследования. Давайте порассуждаем на эту тему? Часто ли вы пользуетесь индексацией в запросах? Платформа 8.3.16.1224

03.04.2020    4072    feva    15    

Сравнение скорости работы 1C+MSSQL и файлового варианта Промо

Производительность и оптимизация (HighLoad) v8 1cv8.cf Россия Бесплатно (free)

На форумах постоянно задается один и тот же вопрос: почему 1C+MSSQL медленнее обрабатывает запросы чем файловая? Затем обычно идет «флуд» на несколько десятков страниц. Есть два популярных «течения» в таких форумах — одни говорят что для клиент-серверного варианта это нормально, файловый вариант всегда должен работать быстрее, другие говорят что 1С плохо работает с субд. В результате «баталий и выяснения отношений» на форумах люди расходятся при своих мнения.

19.02.2013    54664    Gilev.Vyacheslav    46    

Как я собрал для себя высокопроизводительный и бесплатный облачный бекенд для 1С на PosgreSQL + PostgREST

Производительность и оптимизация (HighLoad) WEB Интеграция Мобильная разработка Администрирование веб-серверов v8 Бесплатно (free)

В этой статье я расскажу о проблемах бека для мобильных приложений или другого фронта, который требует производительности, быстрой реакции и отказоустойчивости, и как я решил это благодаря opensource проекту PostgREST и СУБД Postgre SQL 12. Проведу простой тест производительности для сравнения 1С с данным решением. Это может быть полезно всем, кто разрабатывает мобильные приложения либо фронтсайд-приложения для 1С на чем угодно - на мобильной платформе или на нативном языке или на Simple UI. И также обзор новых функций SimpleUI для связи с этим бекендом.

31.03.2020    12487    informa1555    28    

Многострочный контекст событий

Производительность и оптимизация (HighLoad) Технологический журнал v8 Бесплатно (free)

Разбор технологического журнала с группировкой событий по первой или последней строке многострочного контекста.

31.03.2020    3097    vasilev2015    9    

Анализ взаимоблокировок

Производительность и оптимизация (HighLoad) Технологический журнал v8 Бесплатно (free)

Скрипт Bash, который выводит полную информацию взаимоблокировок по технологическому журналу. Не имеет аналогов в отечественных публикациях.

20.03.2020    4688    vasilev2015    24    

Параллельные вычисления в 1С 8 Промо

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Решение позволяет ускорять выполнение запросов в 1С 8 в отчетах путем их параллельного выполнения в разных потоках.

11.02.2013    30010    gallam99    19    

Многопоточность

Практика программирования Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Увеличиваем скорость загрузки данных в 20 раз. Как следует использовать многопоточность и готовый модуль для внедрения.

18.03.2020    6984    kaliuzhnyi    43    

Планы запросов - это просто! Разбор оптимизаций запросов PostgreSQL на живых примерах

Производительность и оптимизация (HighLoad) v8::Запросы Бесплатно (free)

Проблема быстродействия 1С напрямую зависит от производительности запросов. Но как понять механику работы СУБД с помощью плана запроса? Андрей Овсянкин и Никита Грызлов на конференции Infostart Event 2019 Inception подробно рассмотрели алгоритм работы с планом запроса СУБД PostgreSQL, полученным из технологического журнала, и рассказали, на что обратить внимание, чтобы оптимизировать работу системы.

17.02.2020    9267    Evil Beaver    13    

Ubuntu vs CentOS vs Win2k8 vs Debian: производительность PostgreSQL Промо

Статистика базы данных Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Хотя интернет уже переполнен статьями о "правильной" настройке связки PostgreSQL и 1C 8.2, для подводных камней всегда остается место. При сравнении производительности СУБД PostgreSQL на разных ОС, показатели различаются в разы. Самую большую обиду принесла любимая Ubuntu (человечность). После долгих дней и ночей проведенных за консолью этой ОС, она разочаровала окончательно. Тормоза PostgreSQL в Ubuntu Server. Что с ними делать? Сколько раз можно наступать на грабли?

03.11.2012    42230    madmpro    32    

Оптимизатор запросов. Вторая часть

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Продолжение статьи об оптимизаторе запросов. Во второй части мы попробуем создать свой оптимизатор и попутно разберемся с такими вопросами, как: хранение файлов; индексы; статистика.

23.01.2020    6364    darkdan77    59    

Улучшаем производительность 1С. Рекомендации

Производительность и оптимизация (HighLoad) v8 1cv8.cf Россия Бесплатно (free)

Каждый уважаемый разработчик 1С сталкивался или столкнется с вопросом производительности высоконагруженных систем. В статье агрегирован основной набор рекомендаций, который позволит повысить производительность системы. Эти рекомендации должны быть просто must have по определению.

23.01.2020    7709    Kaval88    26    

Мониторим производительность с помощью 1С RAS

Инструментарий разработчика Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Подключаемся и анализируем данные через 1С RAS. Необходимо выполнить 5 пунктов и серьезный инструмент мониторинга будет у вас в руках.

19.12.2019    11076    ivanov660    16    

Весёлые картинки о работе Performance Monitor на Windows Server 2016 Std по мотивам расследования потери производительности на базе 1С

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Данная публикация посвящена одной особенности Performance Monitor на Windows Server 2016 Std. Как понимать графики Performance Monitor на Windows Server 2016 Std при расследовании проблем в работе 1С.

22.10.2019    7489    EugeneSemyonov    11    

Обслуживание баз данных. Не так просто, как кажется

Производительность и оптимизация (HighLoad) Администрирование СУБД v8 1cv8.cf Бесплатно (free)

Считаете, что обслуживание индексов и статистик дело простое? Что ж, это не всегда так.

14.10.2019    17519    YPermitin    28    

Мониторинг высоконагруженной системы

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Высоконагруженной системе (более 8000 клиентских сессий) мониторинг необходим. Про опыт использования инструментов для мониторинга – самописной системы информирования, написанной на C#, и конфигурации «Центр контроля качества» в связке с системой отображения данных Grafana, на конференции Infostart Event 2018 Education рассказал Олег Репников.

13.09.2019    8932    Repich    5    

Использование Zabbix для сбора информации о серверных вызовах и управляемых блокировках с сервера 1С Предприятия, работающего на платформе GNU/Linux

Администрирование данных 1С Zabbix v8 Бесплатно (free)

Описанные в данном опусе механизмы ни в коей мере не противопоставляются тому, что реализует КИП от 1С или какие-либо другие инструменты (решения)! Это всего лишь еще один взгляд на "проблему", который может быть полезен в некоторых ситуациях.

10.09.2019    18438    Sloth    24    

Хранение файлов - как уменьшить размер базы данных

Чистка базы Производительность и оптимизация (HighLoad) Практика программирования Разработка v8 Россия Бесплатно (free)

Хранение файлов в базе 1С можно оптимизировать для уменьшения размера хранимых данных.

09.09.2019    8470    2tvad    17    

Неочевидные проблемы производительности: важность системного подхода при анализе

Производительность и оптимизация (HighLoad) v8 Россия Бесплатно (free)

Часто программисты и 1С-ники сталкиваются с совершенно необъяснимыми на первый взгляд проблемами. Но это потому, что их внимание направлено только на один сегмент системы, а не на всю систему полностью. О том, почему нужно стараться смотреть на ситуацию комплексно, рассказал специалист по производительности компании SOFTPOINT Александр Денисов.

19.07.2019    8880    Филин    12    

Ловля блокировок на связке "Microsoft SQL server - 1С"

Производительность и оптимизация (HighLoad) v8 v8::blocking Бесплатно (free)

Материал относится к базам данных на связке «1С - MS SQL Server». Один из способов отлова блокировок в бд 1С . Переход к управляемым блокировкам через режим "Автоматический и управляемый".

16.07.2019    9797    fhqhelp    0    

Анти-оптимизация: как мы ускорили запрос в 4 раза, сделав его неоптимальным

Производительность и оптимизация (HighLoad) Практика программирования Решение задач на 1С:Специалист Разработка v8 Бесплатно (free)

В этой статье приведен пример неочевидной "оптимизации" запроса, которая противоречит всем правилам, описанным в книгах для подготовки к сертификации "1С:Эксперт по технологическим вопросам", а также преподаваемым на курсах подготовки экспертов.

02.07.2019    11249    igordynets    119    

Ускорение чтения правил обмена в УПП 1.3 в 20 раз!

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Способ оптимизации чтения правил обмена конвертации данных. Может понадобиться при большом размере правил и высокой периодичности обмена.

27.06.2019    9784    YPermitin    17    

Хотите снизить нагрузку на процессор сервера в 2 раза?

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

В статье рассмотрено влияние частого запуска регламентных заданий на процессор сервера 1С.

27.06.2019    9570    Дмитрий74Чел    6    

Непридуманные истории по оптимизации. История 1

Производительность и оптимизация (HighLoad) v8 1cv8.cf Россия Бесплатно (free)

Первая статья из планируемого цикла об оптимизации приложений на базе 1С. Без теории. Одна практика.

13.06.2019    12565    Repich    117    

Оптимизация: неэффективные запросы

Производительность и оптимизация (HighLoad) Практика программирования Разработка v8 1cv8.cf Бесплатно (free)

В большинстве случаев основной причиной медленной работы системы при многопользовательском режиме работы является блокировка данных СУБД (говорим про клиент-серверную версию). Блокировка - это не есть хорошо или плохо, это жизненно необходимая вещь при построении прикладной логики работы системы. Но блокировки таблиц, записей могут быть как вполне законными, так и далеко не всегда оправданными в каждой конкретной ситуации. Одной из самых распространенных причин неоптимальной блокировки ресурсов является некорректное написание запросов.

13.06.2019    5864    slayer-ekb    10    

Многопоточное ускорение однопользовательских нагрузок в 1С + Microsoft SQL Server 2017

Практика программирования Производительность и оптимизация (HighLoad) v8 v8::Запросы Бесплатно (free)

Взаимодействие с Microsoft SQL Server нередко вызывает трудности у 1С-ников, а потому интересны любые моменты, связанные с его использованием. О своем опыте работы с новым SQL Server 2017 участникам конференции Infostart-2018 рассказал директор ООО «Аналитика софт» Дмитрий Дудин.

11.06.2019    24798    dmurk    145    

За 5 шагов добавляем мониторинг счетчиков производительности серверов MS SQL и 1С

Статистика базы данных Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Мы расскажем и покажем, как добавить данные счетчиков производительности серверов 1С и MS SQL в нашу базу мониторинга за 15 минут. Приведем список наиболее важных из них, опишем основные особенности.

28.05.2019    18965    ivanov660    9    

Не думать о секундах свысока...

Производительность и оптимизация (HighLoad) v8 1cv8.cf Бесплатно (free)

Несколько примеров оптимизации типовой конфигурации УТ11. Описанные приемы подходят для многих других конфигураций.

21.05.2019    7932    vasilev2015    21    

Альтернативная стратегия управления блокировками

Производительность и оптимизация (HighLoad) v8 v8::blocking 1cv8.cf Россия Бесплатно (free)

Данная публикация освещает одну из альтернативных стратегий блокирования данных на уровне MS SQL Server, которая недоступна средствами 1С, но может быть весьма полезной. Разбирается практический пример.

20.05.2019    7142    zhichkin    15    

Как работают управляемые блокировки

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Все типовые конфигурации содержат ошибки, потому как управляемые блокировки в 1С слишком уж "управляемые", при понижении уровня изоляции про некоторые "нюансы" просто забыли. Для создания и эксплуатации качественной системы, которая способна поддерживать транзакционную целостность данных при параллельной работе, информацию в этой статье желательно знать, хотя, конечно, ничего особо нового я не открыл.

29.04.2019    22758    comol    198    

Странное потребление места на диске С

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Решение проблемы постоянного роста папки %AppData%/Local/Temp.

26.04.2019    14136    kuzyara    12    

Включение встроенного в платформу механизма "Копии базы данных" и использование "Дата Акселератора". Новый стандартный механизм использования баз OLAP в 1С

Производительность и оптимизация (HighLoad) v8 Россия Бесплатно (free)

С версии 1С 8.3.14 в платформе появился новый функционал «Копии базы данных». В данной публикации я хочу рассказать, как включить использование данного механизма в платформе 1с и как его использовать для получения отчетов с копии базы данных, которая может быть вынесена на внешний сервер относительно текущей базы данных, а также как использовать систему «Дата акселератор», в которой база данных целиком размещена в оперативной памяти рабочего сервера кластера серверов «1С:Предприятия».

25.04.2019    14031    Elf1k    27    

5 простых шагов и 15 минут на разворачивание инструмента мониторинга проблем производительности базы 1С

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

В этой статье мы разберем механизм использования конфигурации "Анализ технологического журнала" на практике, и всего через 15 минут работы вы получите функциональный, удобный инструмент мониторинга проблем производительности базы 1С.

18.04.2019    29544    ivanov660    77    

Как разбить базу на файлы и не сойти с ума

Производительность и оптимизация (HighLoad) v8 Бесплатно (free)

Разбиение базы данных 1C на файлы и последующее сопровождение. Нюансы, грабли и прочее.

06.04.2019    15810    YPermitin    30