Представитель банка о кибербезопасности: не стоит делиться с ИИ личной информацией
Искусственный интеллект (ИИ), например популярный ChatGPT, предлагает пользователям множество возможностей, позволяя быстро искать информацию, анализировать и систематизировать большие объемы данных. Однако, хотя ИИ используют очень активно, в тени остается тема кибербезопасности, подчеркивает руководитель отдела по борьбе с отмыванием денег банка Citadele Виктор Ткаченко.
"Многим ИИ помогает быстрее выполнять рабочие задачи или просто эффективнее искать информацию. В то же время ИИ является большим подспорьем для киберпреступников, которые могут использовать его для перевода фальшивых писем, создания сайтов, сбора информации и кражи личных данных. Однако редко обсуждается тот факт, что люди сами часто передают ИИ слишком много личных данных", - приводятся в пресс-сообщении Citadele слова Ткаченко. По мере развития технологий становится очень сложно контролировать, куда и к кому в итоге попадает информация.
Он пояснил, что многие ИИ-системы разработаны для обработки огромного объема данных, чтобы иметь возможность предлагать пользователю наилучшие ответы. Для того чтобы ИИ понял, о чем именно его спрашивают, он также может собирать и анализировать представленную пользователями информацию.
"Даже если некоторые модели ИИ, такие как ChatGPT, работают на защищенных серверах OpenAI, пользователю не всегда понятно, где именно хранятся данные и как долго. Возможно, данные хранятся в облаке, откуда со временем могут стать доступными злоумышленникам благодаря новым технологиям, программам или утечкам", - добавил Ткаченко.
"На данный момент сложно оценить риски использования ИИ, поскольку это крайне быстро развивающаяся и меняющаяся сфера, однако в будущем, по мере развития технологий, может стать проще получать и анализировать данные для различных целей. Это означает, что информация, которой мы делимся сейчас, через несколько лет может оказаться ценным источником данных, который, попав в чужие руки, может быть использован, например, с целью кражи личности. Данные, которые мы передаем ИИ, могут быть слишком личными с точки зрения кибербезопасности", - сказал Ткаченко, отметив что при использовании ИИ действуют те же правила, что и при использовании и общении в интернете.
Рекомендации по использованию ИИ:
- Избегайте передачи личной информации. Не указывайте личные коды, полные имена, адреса, номера телефонов, финансовые и другие конфиденциальные данные;
- Задавайте вопросы в обобщенной форме. Используйте более общие вопросы, не требующие для ответа точной информации о вашей личности. Например, спрашивайте у ИИ о финансовых или туристических рекомендациях в общем, а не о собственных банковских данных или советах по управлению финансами;
- Предпочитайте анонимность. Убедитесь, что используемые ИИ-системы не связаны с другими личными аккаунтами, где могут собираться и храниться личные данные. Дополнительную безопасность может обеспечить создание отдельного электронного адреса – исключительно для регистрации в ИИ-системах;
- Ознакомьтесь со своими правами и политиками конкретной ИИ-платформы. Чтобы избежать неприятных сюрпризов в будущем, важно знать свои права, особенно относительно того, что касается удаления и передачи данных;
- Используйте только официальные системы. Мошенники пользуются популярностью ИИ, создавая собственные чат-боты, чтобы получить личные данные людей. Обращайтесь за советом только к тем системам и чат-ботам, в надежности владельцев и разработчиков которых вы уверены.
Редактор: Эллина Качан