Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) создали решение для поиска ботов, размещающих спам и дезинформацию на любом языке.
Точное определение
Результаты работы исследователей опубликованы в международном журнале JoWUA. Для создания модели искусственного интеллекта авторы проекта разделили ботов на группы и проанализировали каждую из них, чтобы установить неявные социальные связи между различными аккаунтами. Кроме того, ученые отследили активность вредоносных программ в соцсетях и их способы взаимодействия между собой и с другими пользователями. Собранные данные позволяют нейросети с большой долей вероятности определить, владеет учетной записью человек или бот.
Чтобы обучить искусственный интеллект, российские ученые создали в социальных сетях специальные группы, в которые были добавлены боты разного качества: как имитирующие поведение людей, так и просто занимающиеся простым спамом. После исследователи анализировали, насколько эффективно алгоритм выявляет виртуальные аккаунты. Ведущий научный сотрудник лаборатории проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин рассказал, что по итогу эксперимента разработанный подход позволил выявлять даже хорошо замаскированных ботов.
Кроме того, нейросеть исследователей способна не только обнаруживать вредоносную деятельность программ, но и оценить качество ботов, а также рассчитать примерную стоимость атаки. Полученные таким образом сведения можно применять для расследования инцидентов безопасности.
Без привязки к языку
Исследователи СПб ФИЦ РАН отмечают, что ботов активно используют для распространения нежелательной рекламы, накрутки рейтинга, публикации ложных положительных или отрицательных отзывов, распространения дезинформации. Главная проблема при выявлении подобной активности – разнообразие социальных сетей, которые сильно отличаются друг от друга, особенно языком пользователей. Поэтому российские разработчики создали систему, которая привязана не к языковым конструкциям, а к поведению ботов.
В качестве примера использования нейросети ученые рассказывают о ресторане, аккаунт которого в соцсетях атакован негативными комментариями. Система позволит определить, написаны отзывы ботами или реальными клиентами, недовольными сервисом. В первом случае компания получит инструмент для оценки стоимости атаки, что поможет скорректировать планы по защите своей репутации от накрутки отрицательного рейтинга.