Эксперт по соцмедиа: через несколько лет ИИ станет самой большой угрозой для интернета

Технологии предлагают новые возможности для манипуляций, а искусственный интеллект создает все больше онлайн-контента; новостные ленты поддаются манипуляциям, а критически оценить информацию становится все сложнее.
23 октября на конференции по медиаобразованию "Экраны и души – жизнь в цифровом мире" исследователь дезинформации, научный сотрудник университета Тампере и эксперт по социальным медиа Пекка Каллиониеми расскажет, как противостоять ложной информации.
- Правильно ли мы понимаем, что такое дезинформация?
- На Западе – определенно нет. Россия, Китай и Иран тратят на онлайн-влияние и манипуляции гораздо больше, чем мы на собственную информационную защиту, и мы отстаем от них уже более десяти лет.
Многие интернет-пользователи до сих пор не могут понять или принять мысль о том, что через год-два большая часть онлайн-контента на самом деле будет создана искусственным интеллектом.
- Понимаем ли мы сущность и масштаб ложной информации правильно?
- На самом деле – нет. Информации слишком много, и без автоматизированных инструментов обработать ее невозможно. Социальные медиа усложняют ситуацию еще больше, так как они не публикуют статистику об организованных кампаниях по воздействию на общественное мнение. К тому же, распространение ложной информации стало частью прибыльной бизнес-модели – люди сознательно делятся фейками, чтобы заработать деньги.
- Какая форма ложной информации была самой трудной для распознания в ваших исследованиях?
- Новости всегда самые сложные. В этом жанре новые данные распространяются невероятно быстро, и проверить факты крайне трудно. К примеру, террористическая атака ХАМАС 7 октября 2023 года и последующий конфликт Израиля / США и Ирана. Обычно существует лишь ограниченное количество достоверной информации, но при этом циркулирует огромное количество фейков.
В случае с российской дезинформацией, наиболее эффективная контрмера – pre-bunking. Это стратегия, когда людям заранее дают знания о том, как распознавать и отталкивать ложь, еще до того как она начнет распространяться. Российская дезинформация обычно строится вокруг определенных нарративов с некоторыми вариациями, и постоянно создаются новые. Важно понимать, как работает эта схема, тогда мы сможем быстро распознавать новые онлайн нарративы.
- Какие основные тенденции и изменения вы наблюдаете в информационной войне?
- Все становится автоматизированным и созданным искусственным интеллектом. Фото, видео, аудио и тексты – все это теперь может быть порождением ИИ, развитие происходит очень быстро. Через несколько лет ИИ станет самой большой угрозой для интернета с момента его появления.
- Какие практические инструменты или цифровые решения вы порекомендовали бы библиотекам для помощи пользователям в выявлении автоматизированной или массово производимой дезинформации (например, боты, фейковые новостные сайты)?
- Для контента, созданного ИИ, нужны детекторы ИИ. Большие данные невозможно анализировать вручную. Пока что таких инструментов доступно не так много.
- Как измерить реальное влияние развития медиаграмотности в обществе?
- Такое обучение должно быть встроено в нашу образовательную систему, и проверять его можно так же, как знания по математике или географии. Навыки критического анализа информации в ближайшем будущем станут жизненно необходимыми.
- Если распространение дезинформации благодаря искусственному интеллекту станет еще более масштабным и трудным для распознания, смогут ли люди тогда вообще полагаться на что-то или кого-то, кроме собственного разума?
- Я не уверен. Существует теория, которую называют "мертвый интернет". Она утверждает, что в будущем интернет в основном будет состоять из ботов и автоматически сгенерированного контента. Думаю, мы уже движемся в этом направлении, и уже есть сети, предназначенные только для людей с подтвержденной личностью (verified humans). Мы уже наблюдаем этот сдвиг в сторону платформ с подтверждением личности, таких как LinkedIn, вместо анонимных.
- Использование ChatGPT и других чат-ботов очень распространено. Как Россия может влиять на нас через них?
- Эти методы называются настройкой больших языковых моделей. Это значит, что разработчики могут "подкладывать" системе новые данные. Например, Россия может обучать ИИ на основе миллионов фейковых сайтов, утверждающих, что именно Украина начала войну России против Украины. Такие действия предпринимаются уже несколько лет.
Конференция по медиаобразованию "Экраны и души – жизнь в цифровом мире" пройдет 23 октября в Раквере. Онлайн-трансляцию можно будет посмотреть на сайте Национальной библиотеки.
Редактор: Ирина Киреева





