Ученый об использовании ИИ для модерации публикаций: он может быть демократичнее человека

Социальные сети все активнее используют искусственный интеллект (ИИ) для оценки того, насколько публикации соответствуют правилам платформы. По словам представителя TalTech Аго Луберга, это естественный этап развития. Однако, по его мнению, окончательное решение должно оставаться за человеком.
Он отметил, что использование ИИ для определения допустимости контента в соцсетях – это логичный шаг.
"Если ИИ становится надежнее и функциональнее, то его использование в таких задачах вполне оправдано", – прокомментировал он в эфире программы Terevisioon на ETV.
Если пользователь обнаруживает, что доброжелательный пост, ранее считавшийся приемлемым, вдруг помечен как неподходящий, это не обязательно означает ошибку ИИ.
"В некотором случае это может быть связано с политическими решениями. Возможно, ИИ лишь чуть ускоряет их реализацию", – сказал он, добавив, что платформы, зарабатывающие на просмотрах и лайках, скорее склонны смягчать правила для постов.
ИИ может ошибаться, особенно при анализе контента, связанного с менее распространенными языками и культурами, выдавая уверенные, но неверные ответы. Однако, как отметил представитель TalTech, точность моделей в этой области растет.
"Когда речь идет о публикациях, связанных с недавними событиями, о которых у модели еще нет данных, проблемы, конечно, возможны", – признал он.
По его мнению, идеальной была бы система, при которой первый этап сортировки выполняет ИИ, а окончательное решение принимает человек.
"Ежедневно публикуются миллиарды постов, и большие языковые модели не могут справиться с таким объемом данных. Первичную фильтрацию выполняют гораздо более быстрые и эффективные модели, которые менее ресурсозатратны. При этом даже на этом этапе возможны ошибки", – отметил Луберг.
Критике подвергается и то, что ИИ порой принимает решения, будто он "белый мужчина с определенными взглядами".
"Думаю, это отчасти отражает те данные, на которых обучалась модель. Но в какой-то мере ИИ может быть даже демократичнее, чем человек, принимающий политически окрашенные решения", – отметил Луберг. Вместе с тем, по его словам, полностью аполитичным ИИ назвать нельзя: например, китайские модели выдают предвзятую информацию об истории КНР.
"В какой-то степени предвзятость всегда заложена в модели. Даже если бы ИИ был идеальным, он все равно отражал бы взгляды, которые кому-то кажутся неверными", – уточнил Луберг.
Редактор: Эллина Качан



















