Информация о событиях, посвященных регулированию искусственного интеллекта

В течение последних недель произошел ряд важных событий, посвященных регулированию искусственного интеллекта

1. Конференция «Artificial Intelligence: The New Frontier of Business and Human Rights».

Среди ключевых тем конференции «Artificial Intelligence: The New Frontier of Business and Human Rights» представляется необходимым отметить:

1.1. Проблематика прав человека как критерия оценки ИИ (Human Rights as a Framework for Regulating AI).

Данной теме была полностью посвящена одна из секций конференции. Профессор Лорна Мак-Грегор (Prof. Lorna McGregor, Essex Law School and Human Rights Centre) представила концепцию оценки воздействия на права человека (Human Rights Impact Assessment – HRIA), которая является более широкой интерпретацией DPAI (Data Protection Impact Assessment). В рамках секции были представлены также доклады, посвященные использованию неуправляемых летательных аппаратов для мониторинга общественных мест и борьбы с пандемией COVID-19 (The Use of Unmanned Aerial Vehicles for Public Space Monitoring and COVID-19 Enforcement: The Good, the Bad, and the Ugly, Sadaf Shariat, University of South Wales, Pardis Moslemzadeh Tehrani, University of Malaya and Hossein Farasatkhah, Allameh Tabataba’i University), модерированию онлайн-контента социальными сетями и онлайн-платформами (Moderating Modulation: Rule of Law and Online Content, Andrew Mazibrada, University of Copenhagen). В случае с использованием беспилотников было указано на то, что использование технологий даже для законных и важных для общества целей может привести к негативным последствиям, если не проводится оценка рисков для прав человека и если не принимаются меры к предотвращению или уменьшению таких рисков. Использование систем ИИ (СИИ) государственными органами требует особой прозрачности и дополнительных гарантий. В случае с модерированием онлайн-контента основной проблемой является непрозрачность и неподконтрольность технологических компаний, осуществляющих такую модерацию. Другой проблемой является техническое несовершенство механизмов автоматического модерирования. Например, современные системы ИИ часто попадают в затруднительное положение, когда сталкиваются с юмористическим контентом.

1.2. Проблематика корпоративной ответственности бизнеса при использовании СИИ, в частности, автоматического принятия решений.

Спикерами указывалось на необходимость установления презумпции ответственности бизнеса в таких случаях, в частности, объективной ответственности за причиненный вред вне зависимости от вины (например, по модели ответственности владельца источника повышенной опасности), специальных правил по распределению бремени доказывания, более широкого понимания вреда, причиненного физическому лицу (например оценка вреда, исходя из прибыли, полученной бизнесом, использующим СИИ), обязательного страхования ответственности разработчиков и операторов СИИ.

1.3. Разработка конкретного инструментария для обеспечения соответствия СИИ правам человека.

Авторами предлагались различные методики и системы оценки рисков для прав и свобод человека при разработке и использовании СИИ. Обсуждение данного аспекта демонстрирует, что концепт ‘Human Rights as a legal check for AI’ является вполне устоявшимся и разработанным в западной правовой мысли, что является основной предпосылкой его внедрения на уровне законодательства соответствующих стран. Выступления участников были посвящены обеспечению соответствия правам человека СИИ, применяемых не только частным, но и публичным сектором, в частности, для целей правоохранительной деятельности, обороны и безопасности. Было отмечено, что именно данная сфера является наиболее проблемной с точки зрения возможных рисков для прав человека, поэтому использование СИИ государствами, особенно органами правопорядка, обороны и безопасности, требует усиленных гарантий, особой прозрачности и повышенной ответственности, а также многоуровневого, в т.ч., независимого надзора. Неоднократно отмечалось, что наиболее прогрессивные инструменты правовой защиты прав субъектов персональных данных, такие как GDPR и Модернизированная Конвенция СЕ № 108+ могут стать моделью регулирования отношений, связанных с ИИ. В частности, отмечалась необходимость применения принципов обработки данных, гарантий прав субъекта, систем оценки рисков (DPIA, PIA, LIA). Особо подчеркивалась эффективность системы независимого надзора, предусмотренной данными документами, указывалось на целесообразность наделения полномочиями по осуществлению контрольно-надзорной деятельности в отношении деятельности, связанной с ИИ, именно надзорных органов по защите прав субъектов персональных данных.

1.4. Обеспечение стабильного и предсказуемого и при этом актуального правового регулирования.

Было указано на неприемлемость частого внесения изменений в законодательство, ситуативных и бессистемных поправок, т.к. такой путь приводит к деградации правовой системы, лишая ее одного из главных качеств – предсказуемости. Другой стороной проблемы является устаревание правовых норм, неспособность законодательства угнаться за технологиями. В качестве решений данных проблем выступающие отмечали следование принципу технологической нейтральности права (римское право актуально до сих пор, потому что является технологически нейтральным, то же самое относится к английскому «общему праву» (common law)), использование качественной юридической техники, многоступенчатая всесторонняя оценка законов до их принятия, системные шаги в области технологического регулирования, комбинирование законодательного регулирования с саморегулированием, стандартизацией, этическим регулированием и широким использованием общих принципов права. Также говорилось о регулировании непосредственно работы машин и программ (минуя человека как переводчика): машиночитаемом праве, регулировании с помощью кода и метаданных.

2. Доклад Верховного комиссара ООН по правам человека.

Верховный комиссар ООН по правам человека Мишель Башле (Michelle Bachelet) озвучила опасения о влиянии некоторых технологий, использующих алгоритмы ИИ, на права человека и призвала:

2.1. Запретить использование технологий ИИ, которые «не могут быть использованы в соответствии с международным правом прав человека…» и ввести мораторий в отношении технологий ИИ, «… которые несут риск реализации человеком своих прав» («Expressly ban AI applications that cannot be operated in compliance with international human rights law and impose moratoriums on the sale and use of AI systems that carry a high risk for the enjoyment of human rights»);

2.2. Ввести мораторий на использование систем биометрического распознавания в общественных местах («Impose a moratorium on the use of remote biometric recognition technologies in public spaces»).

Предлагаемые запреты не носят абсолютный характер:

– в первом случае делается оговорка, что такие запреты можно не применять, когда в работе и применении таких технологий учтены и внедрены механизмы защиты прав человека («unless and until adequate safeguards to protect human rights are in place»);

– во втором случае также уточняется, что для использования систем распознавания уполномоченные органы должны обеспечить, как минимум, защиту персональных данных и отсутствие существенных рисков, связанных с точностью и возможностью дискриминации, а также имплементировать рекомендации, которые были ранее озвучены в докладе Верховного комиссара № A/HRC/44/24, 2020 (53 (j) (i – v)) («at least until the authorities responsible can demonstrate compliance with privacy and data protection standards and the absence of significant accuracy issues and discriminatory impacts, and until all the recommendations set out in A/HRC/44/24, paragraph 53 (j) (i–v), are implemented»).

В докладе также подчеркивается, что в соответствии со ст. ст. 2 и 17 Международного Пакта о Гражданских и Политических Правах, на государствах лежит не только обязанность не нарушать фундаментальное право человека на неприкосновенность частной жизни («негативная обязанность»), но и «позитивная обязанность» защитить человека от подобных посягательств, а также дискриминации, в пределах своей юрисдикции, в частности, установить надлежащие правовые гарантии и инструменты для их эффективной реализации (п. 10 Доклада).

В п. 12 Доклада отмечается, что СИИ могут усилить и углубить вмешательство в частную жизнь людей. П. 11 подчеркивает опасную тенденцию многих бизнесов оптимизировать свои сервисы с тем, чтобы собирать как можно больше персональных данных. Приводятся примеры, относящиеся к деятельности социальных сетей и брокеров данных, интернету вещей (IoT – Internet of Things). Накопление, объединение, хранение, а также продвинутые техники анализа гигантских массивов данных, создают различные пути уязвимости человека перед государствами и частными компаниями, а также манипуляций. Получение некоторыми государствами прямого доступа к массивам данных, накапливаемых компаниями, кратно повышает риски произвольного незаконного вмешательства в частную жизнь людей и их фундаментальные права (п. 14). Упоминаются также риски, связанные с утечками и деанонимизацией данных. Подчеркивается, что использование СИИ может существенно затрагивать права человека даже в том случае, если при этом не используются персональные данные (п. 15). Использование СИИ для выявления закономерностей поведения человека и прогнозирования его будущих поступков, а также автоматизированной принятие решений, затрагивающих его права и интересы, посягает на автономию личности и право распоряжаться личной информацией (п.п. 16 – 17). Упоминается об ошибках СИИ, об эффекте «черного ящика» (п.п. 18 – 20).

Выражается особая обеспокоенность в связи с использованием технологий ИИ государственными, в частности, правоохранительными, органами. В п. 27 отмечается, что дистанционное биометрическое распознавание связано с глубоким вторжением в частную жизнь. Биометрическая информация составляет одну из ключевых характеристик личности, отличающих ее от других людей. Дистанционная биометрическая идентификация значительно повышает способность государственных органов систематически идентифицировать и отслеживать людей в общественных местах, подрывая право людей на собственную жизнь без постороннего надзора и оказывая прямой негативный эффект на такие права как свобода высказываний, свобода мирных собраний и объединений и свобода передвижения. На этом фоне Верховный Комиссар приветствует недавние шаги по ограничению или запрету технологий биометрического распознавания в режиме реального времени.

В п. 28 упоминаются СИИ, разработанные для определения эмоционального, психологического или умственного состояния человека по его выражению лица или другим факторам. Указывается на недостаточную научную обоснованность таких СИИ, на их склонность к предвзятости, дискриминации, большой процент ошибок. Использование таких СИИ для целей правоохранительной деятельности подрывает права человека на неприкосновенность частной жизни, свободу передвижения и справедливое судебное разбирательство.

Выражается обеспокоенность в связи широким использованием СИИ в контексте трудовых отношений. Сбор и анализ избыточной информации о работниках и кандидатах на замещение вакансий, попытки предсказывать поведение людей, автоматическое принятие решений, излишний контроль за работниками вызывают серьезные нарушения прав человека (п. п. 32 – 33).

Деятельность социальных сетей по сбору и анализу персональных данных, профилированию людей, таргетированию, персонализации рекламы, контента и рекомендаций, а в особенности попытки предсказывать поведение людей и влиять на него, является одной из наиболее серьезных угроз правам и свободам человека (п. п. 34 – 36).

В п. 37 отмечается, что необходимость подхода, основанного на правах человека, для новых технологий, в особенности для СИИ, поддерживается большим и всё возрастающим количеством экспертов, заинтересованных лиц и международным сообществом. Подход, основанный на правах человека, предлагает инструменты, призванные помочь обществу определить пути для предотвращения или минимизации вреда при извлечении максимальной пользы новых технологий. Данный подход требует применения основных принципов, включающих равенство и недискриминацию, вовлеченность и подотчетность, легитимность, законность, необходимость и пропорциональность, которые должны быть соответственно применяемы к СИИ. СИИ должны поддерживать способность человека реализовывать свои экономические, социальные и культурные права. Каждому потерпевшему от нарушений прав или злоупотреблений в связи с ИИ должны быть гарантированы и обеспечены надлежащие средства правовой защиты, включая судебные, а также внесудебные (п. 38). Ограничения права на неприкосновенность жизни могут быть установлены на основе закона только в том случае, если это необходимо для достижения легитимных целей, и должны быть пропорциональны этим целям. Это означает, что государства обязаны тщательно и осторожно определять, что данные ограничения действительно способствуют достижению этих целей, насколько важны и легитимны эти цели и какое влияние оказывают принимаемые меры на права человека. Государства также должны выбирать наименее инвазивные средства достижения целей. Должны применяться тесты на необходимость и пропорциональность таких мер. Такие тесты также могут вести к заключению, что определенные меры являются недопустимыми. Например, требование общего и неизбирательного хранения всех данных коммуникации, возлагаемое на операторов связи и другие компании, не соответствует тесту на пропорциональность. Аналогичным образом, установление требования неизбирательной биометрической идентификации для получателей социальных пособий является непропорциональным, если получателям не предложена альтернатива. Более того, крайне важно, чтобы меры оценивались не по отдельности, а чтобы должным образом учитывались совокупные последствия взаимодействующих мер. Например, прежде чем принять решение о внедрении новых средств наблюдения на основе ИИ, государство должно проанализировать существующие возможности профилактики правонарушений и их влияние на осуществление права на неприкосновенность частной жизни и других прав (п. 39).

В п. 42 указывается, что система правовой защиты персональных данных должна принимать во внимание новые угрозы, связанные с ИИ. Например, законодательство может устанавливать ограничения по типам данных, которые могут быть выведены и в дальнейшем использованы или переданы. Законодатели должны также рассмотреть усиление прав физических лиц, включая предоставление им права требовать объяснения автоматизированных решений, затрагивающих права. Поскольку СИИ продолжают развиваться, необходимо повышать защищенность субъектов персональных данных.

П. 43 подчеркивает необходимость наличия независимого надзорного органа, который является ключевым элементом противодействия растущей сложности и непрозрачности глобальной среды данных, включая ее обширную информационную асимметрию. Эти органы должны обладать эффективными правоприменительными полномочиями и быть обеспечены достаточными ресурсами. Организации гражданского общества должны быть наделены полномочиями для поддержки исполнения законов о защите частной жизни, в том числе путем создания надежных механизмов рассмотрения жалоб.

Помимо законодательства о защите персональных данных, необходимо пересмотреть и в дальнейшем принять более широкий спектр законов для решения проблем ИИ с соблюдением прав человека (п. 44).

Принимая во внимание широкий спектр применения СИИ, регулирование должно быть достаточно определенным, чтобы соответствовать отраслевой специфике и учитывать специфические риски. Чем выше риск для прав человека, тем более строгим должно быть регулирование. Соответственно, сферы, связанные с особенно высокими рисками, такие как правоохранительная деятельность, национальная безопасность, уголовное правосудие, социальная защита, трудовые отношения, здравоохранение, образование и финансовая сфера, должны быть урегулированы в первую очередь. Регуляторный подход, пропорциональный рискам, потребует запрета определенных СИИ или способов их использования, если это создает потенциальный или реальный эффект, не оправдываемый согласно международному праву прав человека, включая несоответствие принципам необходимости и пропорциональности, а также запрету дискриминации. Например, социальные рейтинги, распределяющие граждан по кластерам на дискриминационных основаниях, должны быть запрещены. В отношении систем, использование которых представляет риски для прав человека, государства должны установить правила их использования и продажи для того, чтобы предотвратить или сократить такие риски как на своей территории, так и за ее пределами. В случаях, когда вероятность воздействия на права человека является высокой, должен быть предусмотрен обязательный человеческий контроль за принятием решений. Принимая во внимание, что оценка риска и реакция на него может занимать время, государствам следует установить мораторий на использование технологий с потенциально высоким уровнем риска, таких как дистанционное распознавание лиц в режиме реального времени, до тех пор, пока они не убедятся, что использование таких технологий не может нарушить права человека (п. 45).

Государствам также надлежит установить надежные режимы экспортного контроля за трансграничной торговлей технологиями слежения, чтобы предотвратить продажу таких технологий, создающую опасность нарушения прав человека, включая шпионаж за защитниками прав человека или журналистами (п. 46).

П. 47 указывает, что спектр рисков, создаваемых СИИ, нуждается в соответствующем независимом надзоре за созданием, размещением и использованием СИИ. Надзор может быть обеспечен сочетанием административных, судебных, квази-судебных и/или парламентских надзорных органов. Например, в дополнение к органам по защите персональных данных, прав потребителей и отраслевым регуляторам, органы по борьбе с дискриминацией или национальные структуры по защите прав человека, должны формировать часть системы надзора. Межотраслевые регуляторы должны помогать устанавливать фундаментальные стандарты и обеспечивать согласованное регулирование и правоприменение.

П. 59 Доклада содержит рекомендации Верховного Комиссара. Помимо рассмотренных выше, представляются заслуживающими внимание также:

(e) Принять и обеспечить эффективное исполнение через независимый надзорный орган законодательства о защите персональных данных, обязательное для частного и публичного сектора, как необходимую предпосылку защиты неприкосновенности частной жизни в контексте ИИ;

(f) Принять нормативную базу, адекватно предотвращающую и смягчающую многогранное негативное воздействие на права человека, связанное с использованием ИИ в государственном и частном секторах;

(g) Обеспечить, чтобы жертвы нарушений прав человека и злоупотреблений, связанных с использованием систем ИИ, имели доступ к эффективным средствам правовой защиты;

(h) Требовать адекватного объяснения всех основанных на ИИ решений, которые могут существенно повлиять на права человека, особенно в государственном секторе;

(i) активизировать усилия по борьбе с дискриминацией, связанной с использованием систем ИИ государствами и коммерческими предприятиями, в том числе путем систематических оценок и мониторинга результатов работы систем ИИ и последствий их применения;

(j) обеспечить, чтобы государственно-частные партнерства в области предоставления и использования технологий ИИ были прозрачными и подлежали независимому надзору за соблюдением прав человека и не приводили к отказу от ответственности правительства за соблюдение прав человека.

3. Европейские конференции по ИИ.

3.1. В ходе конференции 2nd AI Policy Conference было объявлено о создании онлайн платформы Globalpolicy.AI, которая призвана объединить и скоординировать усилия ряда неправительственных организаций в регулировании ИИ.

В состав партнеров площадки вошли ООН и ее специализированная организация ЮНЕСКО, Совет Европы и Евросоюз (в лице Еврокомиссии и Агентства по основным правам), ОЭСР, Всемирный Банк и ряд других международных организаций.

В совместном заявлении этих организаций было отмечено, что мир выходит на новый виток регулирования ИИ. В начале речь шла исключительно о «гонке регулирования» между отдельными государствами, а ещё вчера – о выработке позиции отдельными международными органами. Сейчас же регулирование ИИ принимает глобальный и всесторонний характер.

Участники поставили перед собой 3 задачи:

1) Обеспечить этичность ИИ и доверие к нему;

2) Обеспечить, что использование ИИ не будет ущемлять права человека и демократические ценности и

3) Обеспечить, что внедрение ИИ приведёт к устойчивому развитию общества.

Созданная платформа позволяет осуществлять маппинг (сравнивать и соотносить) между стандартами по ИИ, разработанными различными международными организациями, а, кроме того, агрегирует информацию о новостях, событиях и инициативах в области ИИ.

3.2. Проблема автоматизированного правоприменения.

В ходе конференции 2nd AI Policy Conference был поднят вопрос о том, уместно ли называть «adjudication» («судебным разрешением спора») деятельность автоматизированной системы, выносящей решение по спору без участия человека.

Среди точек зрения, высказанных по данному поводу, представляется заслуживающей поддержки позиция Специального советника Совета Европы Александра Тюльканова, который полагает, что «чем такую деятельность точно нельзя назвать, так это «administration of justice» («отправление правосудия»).

Дело в том, что правосудие не ограничивается задачей (1) поиска наиболее подходящих к делу норм закона или (2) наиболее подходящих судебных прецедентов. Эта задача без участия человека на современном уровне техники решается лишь отчасти.

Правосудие предполагает, помимо этого, (3) учёт всех обстоятельств дела (а в инквизитивном1так у автора; имеется ввиду «инквизиторный» процесс (inquisitorial procedure) – процедура, предполагающая активную роль суда в установлении истины по делу, принятая в странах континентальной (романо-германской) правовой семьи, в т.ч. в таких странах как Германия, Франция и Россия. Прим.: Д.В. Садовников. процессе — ещё и инициативное их выявление), (4) доктрины и применение с необходимостью абстрактных норм и принципов, включающих (5) ценностные суждения. Эта задача без участия человека на современном уровне техники не решается вовсе.

Ну и, разумеется, правосудие предполагает собственно некую (6) процедуру, предполагающую возможность стороны ответить на аргументы другой стороны, получить новые доказательства и предоставить суду дополнительные аргументы, которые суд должен быть способен понять. Эта задача без участия человека на современном уровне техники также не решается.

Это не значит, что автоматизация в судебном процессе невозможна или не полезна. Вряд ли какой-либо судья откажется от адекватной системы поддержки принятия решений, которая поможет ему исследовать законы и практику, вовремя поставить нужные вопросы. Но в этом случае мы говорим о дополнении (аугментации) когнитивных функций человека, а не о его замене.

Поэтому, когда вы при сегодняшнем уровне техники обращаетесь к боту за оспариванием какого-то действия и решения, а бот выносит решение без участия человека и оно имеет для вас правовое значение (потому что это следует из закона или договора) — вы наблюдаете — в лучшем случае — автоматизированное правоприменение (application of law), но не правосудие (administration of justice) и не разрешение спора (adjudication)».

3.3. Использование инструментов для управления предвзятостью алгоритмов (fairness frameworks).

В ходе конференции 2nd AI Policy Conference Александр Тюльканов затронул проблематику добросовестных практик в машинном обучении (Machine Learning, ML) и поставил вопрос: «Почему мало популярны инструменты для управления предвзятостью (fairness frameworks)?

Ранее я рассказывал про недобросовестные практики в машинном обучении. А именно, про «отмывание» ML-моделей (fairwashing), при котором для модели, выдающей несправедливые решения, строится убедительное объяснение, показывающее её в ложно хорошем свете.

Существуют решения с открытым исходным кодом, которые помогают строить модели методологически корректно и выявлять проблемы с данными (fairness frameworks).

Например, Aequitas, Fairlearn, Google What-if tool, IBM Fairness 360, PyMetrics Audit AI, Scikit-fairness[6].

Но, судя недавнему опросу кембриджских исследователей, только 54% специалистов по исследованию данных и ML когда-либо пробовали пользоваться этими инструментами.

Почему? Из-за несовершенства инструментов, их малой известности или неосознанности проблемы»?

3.4. Конференция высокого уровня по искусственному интеллекту: от амбиций к действию (High-Level Conference on AI: From Ambition to Action).

Главной темой конференции было обсуждение различных вопросов и аспектов, связанных с проектом Регламента, устанавливающего гармонизированные правила в отношении ИИ (Proposal for a Regulation laying down harmonised rules on AI, Artificial Intelligence Act), и обновленного Координационного плана по ИИ, опубликованного Европейской комиссией в апреле 2021 года.

В Конференции приняли участие официальные должностные лица, эксперты и политики из государств-членов ЕС, третьих стран, международных организаций, научных кругов, гражданского общества, а также представители бизнеса.

Конференция была, в большей степени, официальным мероприятием, сосредоточенным на внутренней повестке ЕС.

4. В Европейском Союзе опубликованы два документа, касающиеся регулирования ИИ.

4.1. 15 сентября Европейским Парламентом и Советом ЕС утверждена программа развития до 2030 года «Путь к Цифровому Десятилетию» (Path to a Digital Decade).

В целевых показателях программы предусмотрено, что к 2030 году не меньше 75% всего европейского бизнеса должно внедрить в своей работе технологии ИИ, больших данных и облачных вычислений.

Программа «Путь к Цифровому Десятилетию» полностью соответствует и совместима и является взаимодополняющей с другими программами развития и программными документами ЕС, такими как Коммюнике «Цифровой компас» (Digital Compass Communication), Стратегия по формированию европейского цифрового будущего (Strategy for Shaping Europe’s digital future), Промышленная Стратегия, Стратегия кибербезопасности (Cybersecurity Strategy), Программа «Цифровая Европа» (Digital Europe Programme), Программа «Европейский Горизонт» (Horizon Europe). Программа «Путь к Цифровому Десятилетию» основана на существующих и планируемых к принятию законодательных актах, таких как проект регламента по управлению данными (Data Governance Act), закон о цифровых услугах (Digital Services Act), закон о цифровых рынках (Digital Markets Act).

4.2. 16 сентября 2021 г. Европейский комитет по общественным и экономическим (EESC) опубликовал датированное еще 7 июля исследовательское заключение (Exploratory Opinion) по вопросам цифровизации экономики с фокусом на человеко-центричный ИИ и данные (Opinion of the European Economic and Social Committee on Exploiting the economic and social opportunities of digitalisation and improving the digital transformation of the economy, especially SMEs, focusing on human-centred artificial intelligence and data).

Основные положения:

– в ближайшее время EESC представит свою позицию по готовящемуся регламенту по регулированию ИИ (Artificial Intelligent Act);

– EESC обратил особое внимание на использование ИИ в трудовых отношениях. По-видимому, EESC будет настаивать, чтобы эти положения были максимально подробно регламентированы в будущем Artificial Intelligence Act:

Во-первых, всем работникам «надо гарантировать «достойные условия труда» («decent work must be guaranteed for all employees»);

Во-вторых, при внедрении ИИ, которое может затронуть интересы работников, необходимо обеспечить участие этих работников и их представителей на самых ранних стадиях внедрения ИИ. Голос работников должен учитываться, чтобы определиться, как именно использовать ИИ в рабочих процессах, кроме того, работники должны заблаговременно подготовиться к цифровизации и приобрести новые квалификации;

– EESC призывает к разработке «адекватного регулирования, которое бы позволило компаниям обеспечивать справедливость, надёжность и безопасность их систем ИИ с учётом максимально возможного уровня защиты интересов потребителей и работников» («The EESC calls for an adequate framework to be developed to allow companies to assert the fairness, reliability and security of their artificial intelligence systems, taking into account the highest possible level of consumer and worker protection»).

Exploratory Opinion также рассматривает отдельные аспекты проекта Data Governance Act, в отношении которых также сформулированы позиции и рекомендации. В частности, подчеркивается, что Data Governance Act установит новую коллективную модель управления данными, которая будет способствовать снижению зависимости граждан, общества и государств от технологических компаний, которые пытаются монополизировать гигантские объемы данных, а также отказу от современной бизнес-модели, при которой компании стремятся накапливать как можно больше данных и рассматривают их как свою собственность.

EESC ссылается также на мнения и позиции, которые должны быть высказаны в рамках конференции High-Level Conference on AI: From Ambition to Action.

5. 20 – 21 сентября 2021 г. в Страстбурге состоится предпоследнее заседание группы по правовым основам (Legal framework group) Специального Комитета по искусственному интеллекту Совета Европы (Ad Hoc Committee on AI, CAHAI).

Группе предстоит обсудить потенциальную структуру планируемой Конвенции Совета Европы по ИИ.

Группа включает представителей России, участницы целого ряда предыдущих Конвенций СЕ, включая Конвенцию 108+, которая является правовой основой для российского закона о персональных данных.

Ранее 21 мая 2021 года, на своей 131 сессии Комитет Министров СЕ призвал своих представителей сфокусироваться, прежде всего, на возможности выработки обязывающего правового акта общего характера по общим принципам регулирования (в практике СЕ это конвенции), который может сопровождаться обязывающими или рекомендательными отраслевыми правовыми актами.

Таким образом, как и предполагалось, СЕ полным ходом ведет работы по созданию имеющей обязательную силу международной конвенции по ИИ.

Выводы:

В настоящее время в мире наблюдается беспрецедентный рост интереса к регулированию общественных отношений, связанных с ИИ.

Данная тенденция обусловлена рядом факторов, среди которых следует отметить резкое усиление влияния информационных технологий на жизнь людей и зависимости человека от технологий, которое произошло и стало очевидным с начала пандемии COVID-19.

Вторым фактором, безусловно является, объективный выход информационных технологий, в частности, объединяемых под термином ИИ, на новый качественный уровень, а также быстрый рост их массового внедрения.

Данные факторы провоцируют тревожные ожидания и приводят многих к мысли, что, если не принять срочные меры для установления контроля над ИИ и теми, в чьих руках он находится, известные научно-фантастические сценарии могут стать реальностью.

Вместе с этим приходит понимание того, что информационные технологии по своей природе имеют внетерриториальный, трансграничный характер, и их регулирование только на национальном уровне вряд ли будет эффективным.

Именно данные факторы, как представляется, создали предпосылки для выхода соответствующего дискурса на уровень взаимодействия между крупнейшими международными организациями (ЮНЕСКО, ОЭСР, СЕ) и универсальной международной организации (ООН), а также для начала разработки юридически обязывающих международных документов (лидером здесь традиционно является Совет Европы).

Представляется, что одним из главных выводов, которые можно сделать исходя из последних событий, касающихся регулирования ИИ, является вывод об имманентной связи между ИИ и защитой прав субъектов персональных данных. В этом контексте принципиально важными представляются следующие тезисы:

1) Развитое и современное законодательство о защите прав субъектов персональных данных является необходимой основой правого регулирования и предпосылкой для ответа на вызовы, создаваемые ИИ;

2) Независимый надзорный орган по защите прав субъектов персональных данных, обладающий достаточными полномочиями и ресурсами, является ключевым элементом, обеспечивающим защиту прав граждан и публичный контроль над технологическими компаниями, обладающими ИИ. Наиболее целесообразно наделять контрольно-надзорными полномочиями в сфере ИИ именно органы по защите прав субъектов персональных данных;

3) Принципы обработки персональных данных и основные правовые конструкции, а также подходы соответствующего законодательства, должны быть применимы и являются оптимальной моделью для регулирования отношений, связанных с ИИ. Принципиально важным является имплементация в контексте ИИ таких правовых институтов как privacy by design, privacy by default, DPIA, PIA, LIA (на основе последних формируется институт HRIA);

4) Наибольшим потенциалом для регулирования ИИ обладают европейские документы о защите персональных данных: GDPR и Конвенция 108+. Главные преимущества этих документов состоят в технологической нейтральности, сбалансированном и риск-ориентированном подходах, использовании гибких инструментов, независимости и значительных полномочиях надзорных органов, а также в эффективных механизмах реализации и правоприменения. Новая конвенция СЕ, по-видимому, будет строиться на тех же принципах;

5) Регулирование ИИ требует гибких подходов и сочетания различных инструментов, включая саморегулирование, стандартизацию, морально-этическое регулирование, а также технические способы регулирования (маркировка, использование кода, метаданных);

6) Ни одна юрисдикция сама по себе не способна обеспечить регулирование и контроль над ИИ. Только сочетание национальных и международных правовых инструментов и широкое и тесное международное сотрудничество, наличие международных механизмов принудительного правоприменения способны заставить ИИ служить людям.

  • 1
    так у автора; имеется ввиду «инквизиторный» процесс (inquisitorial procedure) – процедура, предполагающая активную роль суда в установлении истины по делу, принятая в странах континентальной (романо-германской) правовой семьи, в т.ч. в таких странах как Германия, Франция и Россия. Прим.: Д.В. Садовников.
Поделиться