Специалисты из университета Индианы разработали инструмент, который помогает определить, стоит ли за учетной записью в твиттере человек или же это работает автоматизированное программное приложение, известное как «социальный бот». Новый инструмент анализа основан на исследованиях Блумингтонской школы информатики и вычислительной техники, финансируемой Министерством обороны США для противодействия технологиям дезинформации.
BotOrNot анализирует подписки и подписчиков пользователя, содержание твитов и другую информацию, что позволяет в итоге вычислить вероятность того, что учетная запись является ботом.
Национальный фонд науки и американские военные финансировали научные исследования, признав, что увеличение потока информации — в блогах, социальных сетях, медиа-технологиях обмена — наряду с ускоренным распространением мобильной связи изменяют способ общения и позволяют проводить обширные кампании дезинформации.
Когда методы network science применяются для выявления обмана, используется как знание о социальных структурах и распространении информации в сетях, так и языковые сигналы, структуру активности по времени и «настроения» — данные, извлекаемые из контента, распространяемого через социальные медиа. Все это может быть проанализировано с помощью BotOrNot.
«Мы применили метод статистического обучения как основу для анализа данных, полученных из Твиттера, но «секретным ингредиентом» стал набор более чем из тысячи прогностических функций, способных отличить пользователя-человека от социального бота, основываясь на содержании и времени публикации твитов и структуре связей с другими пользователями», — заявил Алессандро Фламмини, руководитель проекта.
«Одним из поводов для проведения исследования стало то, что мы не знаем, насколько серьезна проблема ботов в количественном выражении, — сказал Фил Менчер, профессор информатики, руководитель центра изучения сложных сетей и систем, где новая работа проводится как часть информационной поддержки исследовательского проекта «Truthy».
«Существуют тысячи ботов? Миллионы? Мы знаем, что есть много ботов, многие из которых совершенно безвредны. Но мы также знаем примеры ботов, используемых для введения в заблуждение, создания и распространения слухов, спама, вредоносных программ, дезинформации, политической пропаганды и клеветы».
Фламмини и Менчер заявляют, что по их мнению, эти виды социальных ботов могут быть опасными для американской демократии, способны вызвать панику во время чрезвычайной ситуации, повлиять на фондовый рынок, являются одним из инструментов киберпреступников и противоречат целям государственной политики. Задача программы — поддержать усилия по противодействию дезинформации.
Использование социальных ботов широко освещается в средствах массовой информации. Менчер дал интервью «Нью-Йорк Таймс», в котором рассказал, как социальные боты используются для влияния на избирателей и в других целях.
Команда получила чуть более 2 млн долларов в 2012 году для решения задачи по «выявлению ранних проявлений пропаганды в информационном потоке» и в прошлом месяце представила результаты, включающие BotOrNot и другие инструменты в департаменте обороны США.