Израильские специалисты показали, как через ChatGPT можно похищать данные пользователей

 Израильские специалисты показали, как через ChatGPT можно похищать данные пользователей
Mijansk786/Shutterstock.com

Технологии 7 августа 2025, 14:20

Исследователи безопасности ИИ из израильской компании Zenity продемонстрировали, как злоумышленники могут красть пользовательские данные через ChatGPT. 

Кибер-специалисты представили свои результаты в среду на конференции Black Hat. Они привели несколько примеров того, как ИИ-помощники могут быть использованы злоумышленниками (в некоторых случаях без взаимодействия с пользователем) для выполнения задач злоумышленника.

Сейчас все чаще инструменты ИИ интегрируются с другими инструментами, например ChatGPT можно связать с вашим почтовым ящиком Gmail, разрешить ему просматривать код GitHub или находить встречи в календаре Microsoft. Однако эти связи могут быть использованы не по назначению, и исследователи показали, что для этого может хватить всего одного «зараженного» документа.

Пользователю даже не нужно ничего делать - для атаки, названной специалистами “zero-click”, хватило просто адреса электронной почты пользователя. Злоумышленник делится с вами “зараженным” документом, в котором спрятан вредоносный промпт, содержащий инструкции для ChatGPT.

После этого злоумышленник получает доступ к Google Drive пользователя и далее к истории прошлых запросов к ChatGPT и доступ к запросам будущим, а также может дать указание ИИ-агенту собирать учетные данные и отправлять их злоумышленнику.

Ольга Божкова

Будьте всегда в курсе главных событий:

Telegram-канал «Новости Израиля»

Еще новости по теме: chatgpt искусственный интеллект кибер-безопасность

Заметили ошибку в тексте?
Выделите текст мышью и нажмите Ctrl + Enter

Еще в разделе Технологии