Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи
Среди обнаруженных векторов атак:
Google подчеркивает важность применения традиционных методов безопасности и редтимминга (от англ.
Исследователи
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Для просмотра ссылки необходимо нажать
Вход или Регистрация
6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model,
Для просмотра ссылки необходимо нажать
Вход или Регистрация
), используемыми, например, в
Для просмотра ссылки необходимо нажать
Вход или Регистрация
и Google
Для просмотра ссылки необходимо нажать
Вход или Регистрация
. Такие атаки могут привести к непредвиденным или злонамеренным результатам, от простого появления фотографий обычного человека на сайте знаменитостей до серьезных нарушений безопасности, таких как фишинг и кража данных.Среди обнаруженных векторов атак:
- Атаки с помощью инженерии запросов (Prompt Attacks): злоумышленник может создать эффективные запросы, которые заставляют LLM-модели выполнять нужные действия. Например, введение параграфа, невидимого для пользователя, в текст фишингового письма, составленного ИИ, может обойти средства защиты электронной почты.
- Извлечение обучающих данных (Training-data extraction): атака направлена на воссоздание дословных примеров обучения, которые использует LLM. Например, злоумышленник может извлекать личные данные или пароли из обучающих данных.
- Внедрение бэкдора в модель (Backdooring the model): киберпреступник может попытаться скрытно изменить поведение модели, чтобы она выдавала неверные результаты при определенном «триггере». Например, злоумышленник может скрыть вредоносный код в модели или в ее выходных данных.
- Применение враждебных примеров (Adversarial examples): это вводные данные, которые атакующий предоставляет модели, чтобы получить «детерминированный, но совершенно неожиданный вывод». Например, модель может показать изображение, которое для человеческого глаза значит одно, но модель распознает его как совершенно другое.
- Атака с отравлением данных (Data-poisoning attack): хакер может манипулировать обучающими данными модели, чтобы влиять на выходные данные модели согласно своим предпочтениям. Атака также может представлять угрозу для безопасности цепочки поставки ПО, если разработчики используют ИИ в разработке программного обеспечения.
- Атаки на эксфильтрацией данных (Exfiltration attacks): злоумышленник может скопировать файловую систему модели, чтобы украсть интеллектуальную собственность, хранящуюся в ней. Затем хакер может использовать эту информацию для создания своих собственных моделей, которые предоставляют уникальные возможности в настраиваемых атаках.
Google подчеркивает важность применения традиционных методов безопасности и редтимминга (от англ.
Для просмотра ссылки необходимо нажать
Вход или Регистрация
) для обеспечения защиты ИИ-систем. Исследователи также отмечают, что наиболее эффективным будет сочетание этих методов с экспертизой в области ИИ для создания надежных систем защиты. В своем отчете исследователи подчеркнули, что красные команды и симуляции атак могут играть решающую роль в подготовке каждой организации к атакам на ИИ-системы.
Для просмотра ссылки необходимо нажать
Вход или Регистрация