Политические фейки – главный способ использования искусственного интеллекта злоумышленниками

Время на прочтение: 2 мин

Искусственный интеллект, имеющий огромный потенциал и способный выполнять задачи различной сложности, получает все большее распространение в генерации противоправного и вводящего в заблуждение контента.

Ставшая подразделением Google, DeepMind утверждает, что искусственный интеллект используется скорее для создания суперреалистичных фейковых фото и видео знаменитостей, чем для кибератак в классическом понимании.

Созданные искусственным интеллектом (ИИ) дипфейки, гораздо более распространены, чем попытки использовать возможности ИИ для кибератак, согласно исследованию Google, посвященному распространенным способам использования передовых технологий в преступных целях. Видео и аудио дипфейки в отношении известных людей встречаются почти в два раза чаще, чем следующее по распространенности злоупотребление генеративными нейронными сетями: фальсификация информации с использованием текстовых (семантических) инструментов, для создания дезинформации в Интернете. Анализ показал, что наиболее распространенным сценарием для злоумышленников стало воздействие на общественное мнение. На это пришлось 27% случаев использования, что усилило опасения о силе дипфейков при влиянии на выборы во всем мире, учитывая близость президентской гонки в США.

Широко распространена обеспокоенность тем, что, несмотря на модерацию поисковиков и социальных сетей, аудитория не может распознать дипфейк, а значит распространение такого контента может повлиять на избирателей. По данным опроса Statista, порядка 43% респондентов не могут отличить deepfake.

В дополнение к этому ряд исследователей также выявил основные тактики неправомерного использования ИИ. Генеративный ИИ также применяется для:

Использования или изменения сходства человека без его согласия.

Создания искусственных онлайн-персонажей, дискредитирующих реальных личностей.

Создания откровенного контента без согласия.

Фальсификации доказательств, таких как отчеты или документы.

Нарушения прав интеллектуальной собственности, использования чьей-либо интеллектуальной собственности без разрешения.

Производства контрафакта, имитирующего оригинальные произведения и выдаваемого за настоящее.

Автоматизации распространения контента.

Таргетинга и персонализации для целенаправленных атак.

Компрометация генеративного ИИ применяется для:

Изменения входных данных, создания отравленных данных, вызывающее сбой в работе модели.

Манипулирования текстовыми инструкциями для получения вредоносных выходных данных.

Джейлбрейки, т.е. обход ограничений модели и фильтров безопасности.

Перепрофилирование моделей для непреднамеренного использования.

Скрытие сообщений в выходных данных модели.

Нарушение конфиденциальности данных.

Незаконное получение обучающих данных, вплоть до извлечения модели, то есть кражи архитектуры модели и ее параметров.

Исследователи всего мира все чаще делают попытки количественно оценить риски, связанные с использованием инструментов генеративного ИИ, которые крупнейшие технологические компании мира представили общественности в поисках прибылей. По мере того как такие генерирующие продукты, как ChatGPT и Google Gemini, получают все более широкое распространение, компании, работающие с ИИ, начинают отслеживать поток дезинформации и другого потенциально опасного или неэтичного контента, создаваемого этими инструментами.

Эксперты также отмечают, что как правило инциденты происходят при использовании легкодоступных инструментов, а это означает, что все больше злоумышленников могут злоупотреблять генеративным ИИ.

Все это вновь показывает, что даже несовершенный на сегодня ИИ, который будет эволюционировать еще долгое время, уже сейчас представляет вполне реальную угрозу мирового масштаба.