В России создадут систему искусственного интеллекта, которая будет оценивать психологическое состояние жителей страны по материалам на их страницах в социальных сетях. Грант на разработку получил Институт системного программирования им. В. П. Иванникова (ИСП).
Зачем это нужно
По словам представителей Аналитического центра при Правительстве РФ, система искусственного интеллекта поможет бороться с запрещенным контентом и его распространителями. Анализ постов позволит быстро находить группы смерти и площадки для размещения информации о террористических и экстремистских организациях, чтобы оперативно их блокировать.
Эксперты считают, что материалы из соцсетей позволяют прогнозировать поведение человека. И в отличии от психологического тестирования и других экспертиз, для таких исследований не нужно получать добровольное согласие автора.
Применять систему будут, в первую очередь, для исследования аккаунтов людей, которые принимают важные решения в большом бизнесе или на государственном уровне. Искусственный интеллект поможет выявить манипуляции над большими группами лиц, чтобы предупредить разжигание конфликтов, национальной розни, а также вербовку и привлечение к терроризму.
Кроме того, технология сможет оценивать творческий потенциал сотрудников и прогнозировать их профессиональный рост.
Во сколько обойдется создание системы
ФГБУ «Институт системного программирования им. В. П. Иванникова» получило грант на создание такой системы. В ее основу должна лечь доверенная технология диагностики свойств личности.
На портале госзакупок организация объявила тендер с максимальной ценой 36 млн рублей – во столько оценили проведение исследования возможностей создания такого решения. Работы нужно выполнить до 1 сентября 2024 года. О внедрении технологии и рабочих прототипах речь пока не идет.
ФГБУ объявил и другие тендеры, связанные с ИИ. Например, в этой заявке с максимальной ценой 16 млн рублей речь идет об обнаружении методов противодействия состязательным атакам на модели машинного обучения.
С чем будет работать ИИ
Системе предстоит анализировать цифровые следы личности. Это, прежде всего, информация из соцсетей: фото, статусы, посты, репосты, подписки.
В описании тендера подчеркивается: социальные сети «накапливают обширный материал». Он позволит судить об интересах и увлечениях человека, его поведенческой активности.
Насколько это законно
Юристы считают, что система искусственного интеллекта может нарушать нормы закона, связанные с защитой персональных данных. В конце прошлого года власти приняли поправки, в которых четко сказано, что анализировать даже опубликованные гражданами данные можно использовать только с их согласия.
Искусственный интеллект фактически нарушит право на частную жизнь, отметил преподаватель Moscow Digital School Олег Блинов. Пока от человека не получено согласие, в котором подробно описаны условия и ограничения обработки данных третьими лицами, психологическую диагностику проводить нельзя, добавила директор по правовым инициативам Фонда развития интернет-инициатив Александра Орехович. Она также добавила, что на анализ записей не из общего доступа нужно получать отдельное согласие.
Жизнеспособна ли эта идея
Анализ материалов в социальных сетях действительно способен помочь в диагностике психологического состояния и даже в выявлении психических расстройств. Например, фото в Instagram могут быть маркерами депрессии. В исследовании искусственный интеллект анализировал цвета на фото, компоненты метаданных снимков, а также обнаруживал лица и выявлял эмоции на них. Полученные модели были в целом эффективнее, чем средний показатель успешной диагностики депрессии у врачей общей практики.
Сами социальные сети активно борются с запрещенным контентом. Например, алгоритмы Facebook уже в 2017 году позволяли выявлять и блокировать материалы, посвященные терроризму, настолько быстро, что исследователи не смогли собрать достаточно данных для анализа. Алгоритмы «ВКонтакте» были не столь эффективны, и ученым удалось отследить механику создания и наполнения таких групп.
Проблема в том, что у подобных аналитических алгоритмов очень высок процент ложных срабатываний. Обнаружение реальной угрозы – это даже не поиск иголки в стоге сена, а перебирание кусочков таких иголок для нахождения самого опасного из них, отметил сотрудник DARPA (Управление перспективных исследовательских проектов) Тед Сенатор. И высока вероятность, что использование алгоритмов для таких целей рискованно и нецелесообразно.