Заседание по теме «Мировые тренды регулирования ИИ: ответственный, человекоцентричный и заслуживающий доверия искусственный интеллект»

Время на прочтение: 2 мин

21 октября 2021 года прошло заседание Экспертного совета ФГУП «ГРЧЦ» по искусственному интеллекту, посвященное мировым трендам регулирования ИИ.

На обсуждение были вынесены вопросы обработки персональных и не персональных данных с помощью ИИ, международный опыт регулирования ИИ, а также вопросы стандартизации ИИ.

В заседании ЭС приняли участие представители ФГУП «ГРЧЦ», Технического комитета по стандартизации №164 «Искусственный интеллект», Ассоциации Больших Данных, а также Университета Сириус.

В ходе заседания были представлены и обсуждены следующие доклады:

  • «Дистанционное распознавание людей в режиме реального времени: позиция международных организаций и экспертного сообщества, лучшие практики правового регулирования и правоприменения», Садовников Денис Владимирович, главный эксперт-юрист документационного обеспечения Управления по обеспечению осуществлений полномочий Роскомнадзора ФГУП «ГРЧЦ»;
  • «Особенности соблюдения прав граждан при обработке биометрических персональных данных с использованием технологий ИИ», Куровская Людмила Николаевна, руководитель Центра правовой помощи гражданам в цифровой среде;
  • «Риски при обработке обезличенных данных и пути их минимизации», Левова Ирина Юрьевна, директор по стратегическим проектам Ассоциации больших данных (АБД), и Нейман Алексей Владимирович, исполнительный директор АБД;
  • «Технологические проблемы ИИ и их влияние на стандартизацию», Дегтярев Александр Борисович, профессор СПбГУ, эксперт ПК02 «Данные» Технического комитета по стандартизации «Искусственный интеллект», и Хохлов Юрий Евгеньевич, руководитель подкомитета ПК02, председатель Совета директоров Института развития информационного общества;
  • «Практическая деятельность международных объединений в направлении регулирования ИИ (в том числе в сферах защиты персональных данных и оборота неперсональных данных, включая обезличенные)», Федоров Максим Валериевич, ректор НТУ «Сириус»;
  • «Правовые и этические аспекты клинических испытаний систем ИИ в клинической медицине», Мешкова Евгения Александровна, руководитель юридического направления Фонд «Сколково», эксперт ПК01 «Искусственный интеллект в здравоохранении» Технического комитета по стандартизации «Искусственный интеллект».

В отношении представленной модели для расчета рисков обезличивания экспертами были высказаны опасения о недостаточной проработанности модели оценки нематериальных рисков, таких как нарушение тайны усыновления, вмешательство в личную жизнь, нарушение семейной тайны, компрометация данных о человеке и, как следствие, ущерб его репутации.

Неоднозначное отношение экспертов вызвал тезис о необходимости доступа разработчиков технологий ИИ ко всем медицинским персональным данным (не только к обезличенным). Цели такого доступа, по мнению экспертов, должны быть обоснованы в каждом конкретном случае.

По итогам заседания эксперты пришли к выводу о необходимости учесть в дальнейшей работе ЭС первоочередное значение целеполагания при доработке регулирования в сфере ИИ и формировании требований к обработке данных.

Наборы данных должны быть валидированы и верифицированы в соответствии с нормами отраслевого регулирования и риск-ориентированным подходом. Кроме того, должны быть разработаны четкие требования к наборам данных, которые предполагается использовать для обучения систем с ИИ.

Разработка подобных норм и методологии по работе с наборами данных будет проведена при тесном сотрудничестве между ТК 164 и отраслевыми экспертами, а также в ходе проведения ФГУП «ГРЧЦ» собственных исследований.

Было принято решение о необходимости проведения заседания Экспертного совета по вопросам ответственности за последствия принятых решений на основе работы искусственного интеллекта.

Стандартизация искусственного интеллекта в ЕС

Время на прочтение: 19 мин

Организация AI Watch, созданная при Европейской комиссии, провела исследование по соответствию стандартов различных стандартизирующих организаций положениям законопроекта AIA от 21.04.2021, согласно которым ужесточаются требования к стандартизации систем искусственного интеллекта1 «Система искусственного интеллекта» означает программное обеспечение, которое разработано с использованием одного или нескольких методов и подходов (контролируемое, неконтролируемое обучение и обучение с подкреплением, с использованием самых разных методов, включая глубокое обучение; логические и основанные на знаниях подходы, включая представление знаний, индуктивное (логическое) программирование, базы знаний, механизмы вывода и дедукции, (символические) рассуждения и экспертные системы; статистические подходы, байесовское оценивание, методы поиска и оптимизации), и может для заданного набора определенных человеком целей генерировать выходные данные, такие как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой они взаимодействуют.

Читать дальше
  • 1
    «Система искусственного интеллекта» означает программное обеспечение, которое разработано с использованием одного или нескольких методов и подходов (контролируемое, неконтролируемое обучение и обучение с подкреплением, с использованием самых разных методов, включая глубокое обучение; логические и основанные на знаниях подходы, включая представление знаний, индуктивное (логическое) программирование, базы знаний, механизмы вывода и дедукции, (символические) рассуждения и экспертные системы; статистические подходы, байесовское оценивание, методы поиска и оптимизации), и может для заданного набора определенных человеком целей генерировать выходные данные, такие как контент, прогнозы, рекомендации или решения, влияющие на среду, с которой они взаимодействуют