Grok AI больше не сможет "раздевать" реальных людей в ряде стран

ИИ-модель Grok, принадлежащая Илону Маску, больше не сможет редактировать фотографии реальных людей, изображая их в откровенной одежде, в тех юрисдикциях, где это незаконно. Такое решение принято после волны возмущения сексуализированными дипфейками, создаваемыми с помощью ИИ.
Об изменениях было объявлено через несколько часов после того, как генеральный прокурор Калифорнии заявил, что власти штата расследуют распространение сексуализированных ИИ-дипфейков, в том числе с изображениями детей, созданных этой моделью, сообщила Русская служба Би-би-си.
"Мы приняли меры, чтобы Grok не позволял редактировать изображения реальных людей и изображать их в откровенной одежде, такой как бикини. Это ограничение распространяется на всех пользователей, включая платных подписчиков", – говорится в объявлении на платформе X, которая управляет инструментом Grok AI.
"Теперь мы геоблокируем возможность для всех пользователей создавать изображения реальных людей в бикини, нижнем белье и аналогичной одежде через аккаунт Grok и Grok в X в тех юрисдикциях, где это незаконно", – заявила в среду компания X.
Также в компании подчеркнули, что редактировать изображения с помощью Grok на платформе смогут только пользователи с платной подпиской.
По заявлению компании, это добавит дополнительный уровень защиты и поможет обеспечить привлечение к ответственности тех, кто пытается использовать Grok для нарушения закона или правил X.
При включенных настройках NSFW (not safe for work) Grok, по словам Маска, должен разрешать "обнажение верхней части тела у воображаемых взрослых людей, но не реальных" – в рамках того, что можно увидеть в фильмах с рейтингом R.
"Это фактический стандарт в США. В других регионах он будет различаться в зависимости от законодательства конкретной страны", – заявил миллиардер в среду.
В последние дни лидеры разных стран подвергли функцию редактирования изображений Grok резкой критике.
Редактор: Эллина Качан




















