ВЭФ: Искусственный интеллект для детей
В современном мире дети на постоянной основе взаимодействуют с искусственным интеллектом как в социальных сетях, так и в образовательных программах, видеоиграх, умных колонках и игрушках.
29 марта 2022 г. ВЭФ выпустил доклад на тему «Искусственный интеллект для детей», в котором для руководителей компаний, команд разработки, родителей и опекунов был подготовлен инструментарий для ответственной разработки, использования и потребления доверенного ИИ.
В первую очередь в документе предлагается ввести систему маркировки для устройств и приложений ИИ с целью краткого информирования непосредственных потребителей (детей и молодежи), а также родителей и опекунов о том, как работает конкретная система с ИИ и какие варианты ее использования доступны пользователям.
Маркировка должна содержать следующие данные:
рекомендуемый возраст пользователя;
возможность использования людьми с ограниченными возможностями (подтверждение проведения тестов с детьми, доступность для слабослышащих, глухих, нейроотличных и ограниченных в физической мобильности детей, поддерживаемые языки);
наличие сенсоров и возможность их отключения (например, камеры или микрофона);
возможность социального взаимодействия и социализации (с возможностью отключения);
способы взаимодействия ИИ с пользователем (распознавание лица, голоса, эмоций);
использование персональных данных (взаимодействие системы с данными и соблюдение COPPA/GDPR и др., а также цель сбора данных).
Эксперты предлагают производителям располагать маркировку на физической упаковке товара с ИИ и сделать ее доступной для чтения онлайн по QR-коду.
Основными проблемами, связанными с ускоренным развитием ИИ, по мнению ВЭФ, являются следующие:
компании не раскрывают информацию о том, как используется ИИ;
сохранение и усиление предвзятости в системах с ИИ, в частности, в отношении маргинализированных групп (например, пользователи с ограниченными возможностями) и пользователей из разных культурных и социально-экономических слоев общества;
отсутствие валидации системы со стороны потенциальных пользователей и экспертного сообщества на стадиях дизайна и прототипирования;
вопросы конфиденциальности и безопасности данных пользователей.
Чтобы минимизировать риски, связанные с развитием и применением технологий ИИ, ВЭФ предлагает руководителям и разработчикам при создании и эксплуатации ИИ-продуктов использовать следующие критерии: справедливость, инклюзивность, ответственность, безопасность и прозрачность.
Каждый из критериев предполагает постановку конкретных целей и ряд действий, которые должны предпринимать руководители компаний и команды разработки.
Справедливость: упреждающие стратегии для ответственного и этичного управления; тестирование и проверка данных для понимания поведения моделей и их предвзятости.
Инклюзивность: исследовательские планы, консультативные советы и пулы участников, представляющие высокую вариативность целевой аудитории; проактивный поиск сбоев взаимодействия с пользователем, создающих проблемы изоляции отдельных категорий пользователей.
Ответственность: проактивный поиск сбоев взаимодействия с пользователем, создающих негативный опыт для детей и молодежи; повышенное внимание в части безопасности и конфиденциальности данных; формирование убеждения относительно поведения ИИ и того, как он может подстраиваться под стадии развития пользователя.
Безопасность: проведение регулярных исследований поведения пользователей с целью создания потенциальных сценариев злонамеренного использования систем и мер по снижению риска; создание прозрачной, объяснимой и основанной на данных пользователя модели отношений между ребенком, опекуном и технологией для выявления и уменьшения потенциального вреда; разработка со стороны продуктовой команды методологии проведения экспертных проверок в отношении использования технологий детьми и молодежью; использование нескольких видов индикаторов (качественных и количественных) для измерения качества работы системы; разработка с учетом когнитивной, эмоциональной и физической безопасности детей и молодежи.
Прозрачность: правила пользования должны быть ясными, простыми для понимания технически не подкованным, но грамотным пользователем; раскрытие информации по использованию таких высокорисковых технологий как распознавание лиц и эмоций, а также того, как обрабатываются эти данные; указание регионов, в соответствии с законами которых осуществляется обработка и защита персональных данных; использование по умолчанию максимальных настроек безопасности с возможностью изменения данных настроек опекунами; указание конкретной возрастной группы, для которой создано приложение; предоставление рекомендаций для среды, в которой предполагается использовать технологию; создание механизма предупреждения для опекунов в случае возникновения какого-либо риска во время использования технологии.
Для оценки работы систем с ИИ рекомендуется привлекать экспертов в развитии детей, психологии и дидактике, а также развивать многофакторный подход с использованием качественных и количественных методов, долгосрочных исследований, контекстуальных исследований и интервью, бенчмаркинга и проверки удобства использования сервисов.
Руководство для родителей и опекунов создано с целью предоставить ответственным за развитие и благополучие ребенка взрослым информацию, необходимую для принятия ими решения о допустимости использования ребенком определенного приложения или устройства с ИИ.