ВЭФ: Искусственный интеллект для детей

Время на прочтение: 3 мин

В современном мире дети на постоянной основе взаимодействуют с искусственным интеллектом как в социальных сетях, так и в образовательных программах, видеоиграх, умных колонках и игрушках.

29 марта 2022 г. ВЭФ выпустил доклад на тему «Искусственный интеллект для детей», в котором для руководителей компаний, команд разработки, родителей и опекунов был подготовлен инструментарий для ответственной разработки, использования и потребления доверенного ИИ.

В первую очередь в документе предлагается ввести систему маркировки для устройств и приложений ИИ с целью краткого информирования непосредственных потребителей (детей и молодежи), а также родителей и опекунов о том, как работает конкретная система с ИИ и какие варианты ее использования доступны пользователям.

Маркировка должна содержать следующие данные:

рекомендуемый возраст пользователя;

возможность использования людьми с ограниченными возможностями (подтверждение проведения тестов с детьми, доступность для слабослышащих, глухих, нейроотличных и ограниченных в физической мобильности детей, поддерживаемые языки);

наличие сенсоров и возможность их отключения (например, камеры или микрофона);

возможность социального взаимодействия и социализации (с возможностью отключения);

способы взаимодействия ИИ с пользователем (распознавание лица, голоса, эмоций);

использование персональных данных (взаимодействие системы с данными и соблюдение COPPA/GDPR и др., а также цель сбора данных).

Эксперты предлагают производителям располагать маркировку на физической упаковке товара с ИИ и сделать ее доступной для чтения онлайн по QR-коду.

Основными проблемами, связанными с ускоренным развитием ИИ, по мнению ВЭФ, являются следующие:

компании не раскрывают информацию о том, как используется ИИ;

сохранение и усиление предвзятости в системах с ИИ, в частности, в отношении маргинализированных групп (например, пользователи с ограниченными возможностями) и пользователей из разных культурных и социально-экономических слоев общества;

отсутствие валидации системы со стороны потенциальных пользователей и экспертного сообщества на стадиях дизайна и прототипирования;

вопросы конфиденциальности и безопасности данных пользователей.

Чтобы минимизировать риски, связанные с развитием и применением технологий ИИ, ВЭФ предлагает руководителям и разработчикам при создании и эксплуатации ИИ-продуктов использовать следующие критерии: справедливость, инклюзивность, ответственность, безопасность и прозрачность.

Каждый из критериев предполагает постановку конкретных целей и ряд действий, которые должны предпринимать руководители компаний и команды разработки.

Справедливость: упреждающие стратегии для ответственного и этичного управления; тестирование и проверка данных для понимания поведения моделей и их предвзятости.

Инклюзивность: исследовательские планы, консультативные советы и пулы участников, представляющие высокую вариативность целевой аудитории; проактивный поиск сбоев взаимодействия с пользователем, создающих проблемы изоляции отдельных категорий пользователей.

Ответственность: проактивный поиск сбоев взаимодействия с пользователем, создающих негативный опыт для детей и молодежи; повышенное внимание в части безопасности и конфиденциальности данных; формирование убеждения относительно поведения ИИ и того, как он может подстраиваться под стадии развития пользователя.

Безопасность: проведение регулярных исследований поведения пользователей с целью создания потенциальных сценариев злонамеренного использования систем и мер по снижению риска; создание прозрачной, объяснимой и основанной на данных пользователя модели отношений между ребенком, опекуном и технологией для выявления и уменьшения потенциального вреда; разработка со стороны продуктовой команды методологии проведения экспертных проверок в отношении использования технологий детьми и молодежью; использование нескольких видов индикаторов (качественных и количественных) для измерения качества работы системы; разработка с учетом когнитивной, эмоциональной и физической безопасности детей и молодежи.

Прозрачность: правила пользования должны быть ясными, простыми для понимания технически не подкованным, но грамотным пользователем; раскрытие информации по использованию таких высокорисковых технологий как распознавание лиц и эмоций, а также того, как обрабатываются эти данные; указание регионов, в соответствии с законами которых осуществляется обработка и защита персональных данных; использование по умолчанию максимальных настроек безопасности с возможностью изменения данных настроек опекунами; указание конкретной возрастной группы, для которой создано приложение; предоставление рекомендаций для среды, в которой предполагается использовать технологию; создание механизма предупреждения для опекунов в случае возникновения какого-либо риска во время использования технологии.

Для оценки работы систем с ИИ рекомендуется привлекать экспертов в развитии детей, психологии и дидактике, а также развивать многофакторный подход с использованием качественных и количественных методов, долгосрочных исследований, контекстуальных исследований и интервью, бенчмаркинга и проверки удобства использования сервисов.

Руководство для родителей и опекунов создано с целью предоставить ответственным за развитие и благополучие ребенка взрослым информацию, необходимую для принятия ими решения о допустимости использования ребенком определенного приложения или устройства с ИИ.