ВЭФ: Искусственный интеллект для детей

Время на прочтение: 3 мин

В современном мире дети на постоянной основе взаимодействуют с искусственным интеллектом как в социальных сетях, так и в образовательных программах, видеоиграх, умных колонках и игрушках.

29 марта 2022 г. ВЭФ выпустил доклад на тему «Искусственный интеллект для детей», в котором для руководителей компаний, команд разработки, родителей и опекунов был подготовлен инструментарий для ответственной разработки, использования и потребления доверенного ИИ.

Читать дальше

Заседание по теме «Информационная безопасность искусственного интеллекта»

Время на прочтение: < 1 мин

17 февраля 2022 прошло заседание Экспертного совета ФГУП «ГРЧЦ» по искусственному интеллекту, посвященное аспектам информационной безопасности ИИ.

В ходе заседания были представлены и обсуждались доклады по темам:

  • «Проблемы обеспечения информационной безопасности в автоматизированных и информационных системах, использующих технологии искусственного интеллекта», Арлазаров Владимир Викторович, к.т.н., ФИЦ ИУ РАН;
  • «Киберустойчивость систем, использующих технологии искусственного интеллекта», Москвин Дмитрий Андреевич, к.т.н., доцент, Институт кибербезопасности и защиты информации СПбПУ Петра Великого;
  • «Возможные подходы к стандартизации вопросов обеспечения информационной безопасности в системах искусственного интеллекта», Домрачев Алексей Александрович, советник руководителя НТЦ, ФГУП «ГРЧЦ»; 
  • «Проблемы использования ИИ в системах в защищённом исполнении», Васильев Виталий Геннадьевич, д.т.н., заместитель генерального директора ООО «Лан-Проект».

Для дальнейшей системной работы в названном направлении участниками предложено обсудить совершенствование нормативных документов по защите информации с позиции их применимости для вопросов ИИ. Также отмечена необходимость разработки доверенных средств искусственного интеллекта и создание в России единой платформы, работа которой будет нацелена на дальнейшее изучение возможностей искусственного интеллекта, его обучение и тестирование.

Заседание по теме «Технологии Компьютерного зрения»

Время на прочтение: < 1 мин

6 декабря состоялось 6-е заседание Экспертного совета по искусственному интеллекту, который создан на базе Научно-технического центра ГРЧЦ. Темой очередного мероприятия стали «Технологии компьютерного зрения».

«Для Роскомнадзора искусственный интеллект представляет интерес с практической точки зрения. Невозможно достичь того уровня реализации информационных систем, который нам необходим, если мы не будем уделять внимание обучению специалистов, создавать возможности для ученых и вкладывать средства. Мы продолжаем внедрять ИИ в наши системы, потому что объемы данных, с которыми мы работаем, неуклонно растут, а форматы медиа становятся все сложнее», — сказал глава ведомства Андрей Липов, открывая заседание.

Руководитель Роскомнадзора поблагодарил участников Экспертного совета за активную работу в течение года и обратил внимание на несколько особенно важных направлений в развитии технологий ИИ, в том числе компьютерного зрения, автоматизации обучения на различных отклонениях и генеративно-состязательных сетей.

В заседании участвовали с докладами представители нескольких организаций, в том числе ЦНТИ МФТИ, NTechLab, «СТРИМ Лабс» и др. Начальник отдела машинного обучения Департамента цифровых технологий ГРЧЦ Андрей Невзоров выступил с презентацией «Анализ изображений и видео на предмет выявления запрещенной информации». Руководитель проектов компании «СТРИМ Лабс» Виктор Артюхов представил доклад «Структурное описание объектов сцен в видеопотоке с целью улучшения качества распознавания запрещенных изображений».

Экспертный совет по искусственному интеллекту создан в марте 2021 г. Его главная цель — анализировать передовые технологии в области ИИ и оценивать возможности применения при реализации задач Роскомнадзора и ГРЧЦ. За 9 месяцев было представлено на обсуждение более 25 докладов по таким направлениям и темам, как «Стандартизация в области ИИ», «Обработка естественного языка», «Мировые тренды регулирования ИИ: ответственный, человекоцентричный и заслуживающий доверия ИИ» и др.

В составе Экспертного совета 27 постоянных участников, в том числе из Технического комитета по стандартизации №164 «Искусственный интеллект» (ТК 164), МФТИ, Сбер, НИЦ «Курчатовский институт», Ассоциации больших данных, Университета Сириус и др.

Анализ рынка искусственного интеллекта в 2021 году

Время на прочтение: 14 мин

В августе 2021 года аналитическая платформа Statista выпустила подробный отчет о состоянии рынка ИИ в 2021 году. Это вызвано увеличением доли технологий ИИ в различных отраслях и венчурных инвестиций в стартапы.

Читать дальше

Подходы и методы регулирования применения искусственного интеллекта и ответственности за эти действия

Время на прочтение: 24 мин

Научно-техническим центром ФГУП «ГРЧЦ» проведено исследование подходов и методов регулирования применения искусственного интеллекта и ответственности за эти действия в России, иностранных государствах и межгосударственных объединениях мира и выявлены перспективы развития такого регулирования.

Читать дальше

Заседание по теме «Мировые тренды регулирования ИИ: ответственный, человекоцентричный и заслуживающий доверия искусственный интеллект»

Время на прочтение: 2 мин

21 октября 2021 года прошло заседание Экспертного совета ФГУП «ГРЧЦ» по искусственному интеллекту, посвященное мировым трендам регулирования ИИ.

На обсуждение были вынесены вопросы обработки персональных и не персональных данных с помощью ИИ, международный опыт регулирования ИИ, а также вопросы стандартизации ИИ.

В заседании ЭС приняли участие представители ФГУП «ГРЧЦ», Технического комитета по стандартизации №164 «Искусственный интеллект», Ассоциации Больших Данных, а также Университета Сириус.

В ходе заседания были представлены и обсуждены следующие доклады:

  • «Дистанционное распознавание людей в режиме реального времени: позиция международных организаций и экспертного сообщества, лучшие практики правового регулирования и правоприменения», Садовников Денис Владимирович, главный эксперт-юрист документационного обеспечения Управления по обеспечению осуществлений полномочий Роскомнадзора ФГУП «ГРЧЦ»;
  • «Особенности соблюдения прав граждан при обработке биометрических персональных данных с использованием технологий ИИ», Куровская Людмила Николаевна, руководитель Центра правовой помощи гражданам в цифровой среде;
  • «Риски при обработке обезличенных данных и пути их минимизации», Левова Ирина Юрьевна, директор по стратегическим проектам Ассоциации больших данных (АБД), и Нейман Алексей Владимирович, исполнительный директор АБД;
  • «Технологические проблемы ИИ и их влияние на стандартизацию», Дегтярев Александр Борисович, профессор СПбГУ, эксперт ПК02 «Данные» Технического комитета по стандартизации «Искусственный интеллект», и Хохлов Юрий Евгеньевич, руководитель подкомитета ПК02, председатель Совета директоров Института развития информационного общества;
  • «Практическая деятельность международных объединений в направлении регулирования ИИ (в том числе в сферах защиты персональных данных и оборота неперсональных данных, включая обезличенные)», Федоров Максим Валериевич, ректор НТУ «Сириус»;
  • «Правовые и этические аспекты клинических испытаний систем ИИ в клинической медицине», Мешкова Евгения Александровна, руководитель юридического направления Фонд «Сколково», эксперт ПК01 «Искусственный интеллект в здравоохранении» Технического комитета по стандартизации «Искусственный интеллект».

В отношении представленной модели для расчета рисков обезличивания экспертами были высказаны опасения о недостаточной проработанности модели оценки нематериальных рисков, таких как нарушение тайны усыновления, вмешательство в личную жизнь, нарушение семейной тайны, компрометация данных о человеке и, как следствие, ущерб его репутации.

Неоднозначное отношение экспертов вызвал тезис о необходимости доступа разработчиков технологий ИИ ко всем медицинским персональным данным (не только к обезличенным). Цели такого доступа, по мнению экспертов, должны быть обоснованы в каждом конкретном случае.

По итогам заседания эксперты пришли к выводу о необходимости учесть в дальнейшей работе ЭС первоочередное значение целеполагания при доработке регулирования в сфере ИИ и формировании требований к обработке данных.

Наборы данных должны быть валидированы и верифицированы в соответствии с нормами отраслевого регулирования и риск-ориентированным подходом. Кроме того, должны быть разработаны четкие требования к наборам данных, которые предполагается использовать для обучения систем с ИИ.

Разработка подобных норм и методологии по работе с наборами данных будет проведена при тесном сотрудничестве между ТК 164 и отраслевыми экспертами, а также в ходе проведения ФГУП «ГРЧЦ» собственных исследований.

Было принято решение о необходимости проведения заседания Экспертного совета по вопросам ответственности за последствия принятых решений на основе работы искусственного интеллекта.

1 2 3 4 5 6