Фейки стало сложнее отличить от реальности

Время на прочтение: 2 мин

Искусственный интеллект настолько повысил качество фейкового контента, что его практически невозможно идентифицировать. Людям важно понять, что они на каждом шагу могут столкнуться с недостоверной информацией и развивать критическое мышление.

Об этом рассказала советник гендиректора по научно-техническому развитию Главного радиочастотного центра (ФГУП «ГРЧЦ») Евгения Рыжова на Международном форуме «Диалог о фейках» в Москве 22 ноября.

Фейковый контент продолжает находить свою аудиторию. Люди верят в фейки потому, что они действуют на эмоциональную сферу, отключая критическое мышление. Евгения Рыжова пояснила, что содержать недостоверную информацию могут и новости, и компьютерные игры, и фильмы, и рекламные ролики, и театральные постановки. Через эти средства воздействия людей могут дезинформировать или переориентировать систему их ценностей.

Производить недостоверную информацию выгодно для продвижения своих интересов в сфере развлечения, рекламе, бизнесе, геополитике. Эксперт считает, что с развитием искусственного интеллекта фейкового контента будут производить больше, потому что это быстро и дешево. Но самое главное — ИИ значительно повысил качество недостоверной информации.

Поэтому один из навыков, который необходим каждому человеку в современном мире — критическое мышление, уверена эксперт. Будут востребованы тренинги, помогающие прокачать критическое мышление. «Это направление активно развивается, внедряются новые методики», — отметила Евгения Рыжова.

Эксперт обратила внимание, что методам защиты от фейков посвящено большое исследование, которое в этом году провел Главный радиочастотный центр совместно с аналитическим центром MINDSMITH и компанией «Ростелеком». В нем определены способы противодействия злоумышленникам, в руках которых находятся инструменты ИИ. Бороться с создателями фейков будут с помощью их же оружия — искусственного интеллекта.

Авторы исследования пришли к выводу, что через несколько лет ИИ-системы смогут анализировать речь и потоковое видео, проверять их, а при обнаружении ложных новостей — поднимать тревогу или оповещать пользователей о недостоверном контенте. Однако сейчас полностью положиться на ИИ в проверке фактов нельзя, можно лишь автоматизировать часть процессов.

Еще один вывод заключается в том, что государству необходимо решить важную инфраструктурную задачу: разработать процедуры тестирования и оценки моделей ИИ. Это позволит держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты.

Ознакомиться с текстом исследования можно по ссылке: https://rdc.grfc.ru/2023/04/ai_priority_area_application/