Исследователи безопасности ИИ из израильской компании Zenity продемонстрировали, как злоумышленники могут красть пользовательские данные через ChatGPT.
Кибер-специалисты представили свои результаты в среду на конференции Black Hat. Они привели несколько примеров того, как ИИ-помощники могут быть использованы злоумышленниками (в некоторых случаях без взаимодействия с пользователем) для выполнения задач злоумышленника.
Сейчас все чаще инструменты ИИ интегрируются с другими инструментами, например ChatGPT можно связать с вашим почтовым ящиком Gmail, разрешить ему просматривать код GitHub или находить встречи в календаре Microsoft. Однако эти связи могут быть использованы не по назначению, и исследователи показали, что для этого может хватить всего одного «зараженного» документа.
Пользователю даже не нужно ничего делать - для атаки, названной специалистами “zero-click”, хватило просто адреса электронной почты пользователя. Злоумышленник делится с вами “зараженным” документом, в котором спрятан вредоносный промпт, содержащий инструкции для ChatGPT.
После этого злоумышленник получает доступ к Google Drive пользователя и далее к истории прошлых запросов к ChatGPT и доступ к запросам будущим, а также может дать указание ИИ-агенту собирать учетные данные и отправлять их злоумышленнику.
Ольга Божкова