Роботы могут бороться с фейковыми новостями только с помощью людей
Алгоритмы и программное обеспечение могут помочь людям обнаружить ложные новости, но для изобличения каждой лжи в интернет-пространстве требуется искусственный интеллект, сравнимый с человеческим. В то же время, автоматическое удаление ложной информации из сети может легко привести к ограничению демократии и свободы слова, считают ученые в области информатики.
Армия ботов-троллей
Боты, используемые для влияния на мнения и усиления замешательства, стали печально известны после кампании по выходу Великобритании из ЕС и последних выборов президента США. Однако, по мнению профессора ТТУ Танеля Таммета, не стоит переоценивать их влияние.
"Они, конечно же, не могут подкосить или уничтожить нашу демократию, но являются отличным рабочим инструментом для распространения мнений и информации в соцсетях. Их следует принимать всерьез, а людям стоит привыкнуть к ситуации, когда любой текст или новость могут не являться достоверными. В этом, парадоксальным образом, Трамп прав - фейковые новости действительно существуют", - признал Таммет.
Образно говоря, автоматические алгоритмы помогают размножить ложную информацию подобно вирусу. "Большая часть низкокачественной информации - дело рук не обычных людей, а различных организаций, использующих ботов в социальных сетях и поддельные аккаунты в открытых средствах массовой информации", - подтвердил профессор информатики Университета Индианы Филиппо Менцзер, специализирующийся на борьбе с фейковыми новостями.
Людям, привыкшим потреблять ложную информацию, сложнее отличить правду от лжи. Если повторять ложь множество раз, то она не станет правдой, но результатом станет новая нормальность.
Руководитель рабочей группы по рассчитанной пропаганде Оксфордского университета Филип Хорворд констатирует, что т.н. "интеллектуальные агенты" стали с годами более очеловеченными. Самые первые из них заполняли веб-пространство одними и теми же сообщениями через одинаковые промежутки времени. Теперь для пущей убедительности они используют картинки и хештеги, а также заимствуют фразы из лексикона того или иного политика в качестве "вдохновения". Некоторые операторы ботов иногда сами оставляют сообщения, чтобы запутать следы.
С развитием искусственного интеллекта мы зашли так далеко, что умный алгоритм может написать эссе на основе нескольких предложенных отрывков текста, и оно будет казаться убедительным. По словам Таммета, львиную часть работы все же делают более "глупые" боты. "В принципе, можно легко генерировать более длинные тексты - но интерес к ним гораздо ниже, и их не репостят. Обычно люди хотят распространить конкретное сообщение, убедительное и вызывающее сильные эмоции", - пояснил профессор.
Убийца ботов
Хотя боты стали более сообразительными, им все еще не удается полностью обмануть человека. Их сущность может выдавать поведение. Настоящие люди редко отправляют сообщения сутки напролет, и не участвуют в программах массовой почтовой рассылки после нескольких месяцев отсутствия. Сообщения "интеллектуальных агентов" могут быть эмоционально заряженными, и при этом отличаться от сообщений реальных людей использованием слов. Но если они имеют доступ к массивам грамотных и неграмотных текстов, то при помощи глубинного обучения можно использовать другие параметры, чтобы их искусственность не бросилась в глаза сразу.
Приложение Botslayer ("Убийца ботов") для Twitter было создано Филиппом Менцзером и его коллегами как раз на основе этих и других свойств ботов. Оно может схематизировать распространение обрывков информации, связанных с популярными темами. На основе видимых паттернов приложение вычисляет вероятность того, что за той или иной информационной бомбой стоит бот. Приложение не всегда действует безошибочно, но в 95% может идентифицировать бот.
"Для ученых, учитывая сложность темы, это уже может показаться хорошим результатом. Но те реальные пять человек из ста, чьи аккаунты были заблокированы из-за этого, имеют полное право разозлиться. Нам может не нравиться информация, которую они распространяют, но это вполне сравнимо с затыканием рта, надеванием намордника", - констатировал Менцзер. Именно это и является одной из причин, по которым сражающиеся с ложной информацией боты не используются более масштабно.
Сейчас боты используются, скорее, как фильтр. Подозрительные сообщения и обращения передаются людям-модераторам, которые решают - идет ли речь о человеке или боте. "Из наших соседей Литва довольно серьезно применяет эту систему. Они реализовали это в сотрудничестве с новостными агентствами и исследовательской группой Google. Созданный ими алгоритм ищет ложные новости и направляет их людям на проверку", - сказал Таммет.
Применение той же системы на публичных платформах с сотнями миллионов пользователей вызвало множество проблем из-за программных неточностей. "Даже со сравнительно точным алгоритмом это потребовало бы много человеческих ресурсов, да и дорого вышло бы", - добавил профессор. В случае с Литвой, чей пример приводился ранее, частично использовалась платная рабочая сила. Но большую часть работы делают добровольцы.
Шаг в сторону защиты свободы слова
Все это заставляет задать вопрос: а кто вообще должен систематически помечать ложную информацию или удалять ее из сети? Помимо вопроса денежных и временных затрат встает и другой: кто вообще хочет стать цензором?
Танель Таммет советует тщательно подумать о следующем: стоит ли требовать немедленного удаления лживой публикации, как только вы ее заметили. "Одна из основ свободы слова заключается в том, что человек может написать все, что угодно, если это не вредит другим. Даже если нам удастся обнаружить все ложные новости, это не значит, что у нас есть право препятствовать их распространению", - отметил Таммет.
Использование безошибочных, или, хотя бы, совершающих как можно меньше ошибок ботов, предполагает прорыв в области искусственного интеллекта. Интеллектуальные агенты должны понимать контент таким же образом, как люди, вместо того, чтобы действовать по шаблонам. Например, о достоверности некоторых исторических фактов спорят уже веками. Так что… использование ботов не может быть окончательным решением для борьбы с ложной информацией.
Но, по словам Таммета и Менцзера, хоть использование полезных ботов и помогло бы очистить информационное пространство и сосредоточить внимание на важном, людям все равно следует научиться жить с ложными новостями. Для развития собственной медиаграмотности можно начать с соблюдения инфодиеты. "Однородное информационное пространство делает нас более открытыми и восприимчивыми к ложной информации. Нам может не нравиться точка зрения нашего друга, но у нас есть с ним общие точки соприкосновения", - отметил Менцзер.
Таммет констатировал, что часто для человека не так важно, что есть правда, а что ложь. А интерес человека совсем в другом. "Например, сторонники Трампа могут понимать, что многие тезисы его предвыборной кампании - ложь. Но они будут отстаивать эти тезисы просто для того, чтобы показать свою принадлежность к группе. Это усложняет всю динамику, так что я не думаю, что есть простые решения - разве что люди сами все поймут на своем опыте", - добавил профессор.
Редактор: Андрей Крашевский