Институционально-политические и философские проблемы этики для систем ИИ

Время на прочтение: 3 мин

Вопросы этики в искусственном интеллекте находятся в приоритете среди государств и наднациональных институтов, при этом последние выступают в качестве движущей силы по применению этических принципов.

Это связано с возможностями использования понятия «надежности» ИИ, как источника силы в международном контексте и рычага влияния на международные экономические отношения, соблюдения интересов частного капитала.

Первые руководящие принципы этики ИИ были разработаны в ОЭСР и дополнили стандарты в области конфиденциальности, ответственного ведения бизнеса и управления рисками цифровой безопасности. G20 также приняла принципы ИИ, ориентированного на человека на основе принципов ОЭСР, Европарламент разработал кодекс добровольных этических норм для инженеров по ИИ и робототехнике, Группа экспертов высокого уровня ЕК по ИИ разработала предложения «Надежный ИИ». Однако стремление к лидерству в области разработки этих принципов открывает ряд фундаментальных проблем:

этика ИИ рассматривается в рамках либеральной политической мысли и сосредоточена на конфиденциальности, прозрачности и недискриминации. Это приводит к возникновению рисков при переходе к практическому применению этих принципов от «что» к «как». Так, в исследовании «Этика этичности ИИ: исследование руководящих принципов» автор доказывает отсутствие применимости на практике большинства из более чем 100 этических принципов ИИ, принятых за последнее десятилетие. То есть, основная задача при разработках в области этики ИИ состоит в обеспечении возможности перехода от абстрактных принципов к экономическому и этическому инструментарию, не ограниченному идеями либерализма. Это изменит видение этики ИИ как технологической проблемы с технологическими решениями в сторону интеграции принципов в проектирование, разработку и использование;

проблема предвзятости на разных уровнях. В частности, по мнению авторов статьи «Надежному ИИ необходимы беспристрастные диктаторы», решения ИИ подвержены искажениям в большей степени, чем любой другой тип решений. Например, взаимодействие дизайнеров, разработчиков и исполнителей не может учитывать все группы пользователей. Это порождает необъективность. Кроме этого, система оценки надежности ИИ в рамках Группы экспертов высокого уровня по ИИ при Еврокомиссии в рамках голосования поддается регулированию. Таким образом, политика некоторых наднациональных органов направлена на формирование рынка ИИ с привлечением одних компаний и исключением других и «покупке цифровой этики». Это означает возможность злоупотребления выбором (адаптации, взвешивания, сопоставления) этических принципов, руководств, кодексов, структур и других подобных стандартов (особенно, но не только в этике ИИ) из множества доступных предложений с целью модификации моделей поведения и их апостериорного оправдания. Такая позиция позволяет использовать правила как международно-правовой инструмент дискриминации по отношению к другим странам;

проблема инфляционизма ИИ заключается в придании ИИ технологической исключительности. Это провоцирует появление спекулятивных тенденций на разных уровнях и деградацию этических стандартов. Кроме этого, это способствует продвижению этических инициатив, которые поощряют предвзятость капитала и не имеют правоприменительной силы. В частности, Microsoft Fairlearn, AIFairness (IBM), Google Inclusive ML.

Кроме этого, существует ряд проблем второго уровня, среди которых отклонение от кодексов и стандартов и отсутствие правовых последствий; соответствие приложения ИИ этическим требованиям не гарантирует соблюдение этических принципов при использовании в неправильном контексте или при разработках с неэтичными намерениями; этика ИИ широко используется в целях торможения процесса создания обязательных норм.

Характер поставленных проблем обусловлен философскими и институционально-политическими факторами.

Философская составляющая, связанная с этикой ИИ основана на стремлении объединить теоретические подходы западноевропейской этики. То есть, сосредоточена на формировании правил и принципов – деонтологический подход, оценке рисков и возможностей – консеквенционалистский подход, введение идеалов – этика добродетели. Несмотря на то, что эти подходы не являются взаимоисключающими, они не учитывают другие моральные традиции и формируют упрощение сложных решений в ИИ с помощью логической операции «или/или». Как следствие, поднимается вопрос о формировании перечня проблем, которые могут и должны решаться с помощью автоматизации. Если в решении отсутствует альтернатива операции или/или, то под вопрос должно ставится решение этой проблемы с помощью ИИ. Кроме этого, происходит замещение субъектности человека на субъекты данных, то есть наборы данных без субъектов.

Институционально-политическая составляющая фундаментальных проблем заключается в смещении ответственности в сфере применения ИИ с государственных институтов на частный сектор. Здесь открывается проблема представительства общественных интересов коммерческими организациями. Саморегулирование в области этики ИИ позволяет технологическим компаниям выбирать способы внедрения технологий и формировать представления об этике ИИ для всего мира. Параллельно, для максимизации отдачи от инвестиций в этику ИИ, компании оказывают давление на акционеров. Таким образом, этика становится вторична по отношению к прибыли.

С отраслевой точки зрения ИИ в отличие от медицины, образования и пр. не имеет формальной профессиональной структуры управления. В частности, согласно положениям Группы экспертов высокого уровне ЕК по ИИ, этическая ответственность возлагается на отдельных сотрудников, а не на корпоративное управление, государствам предлагается поощрять технологические компании в следовании этическим принципам вместо контроля государственными учреждениями введения и соблюдения этических принципов. Это свидетельствует о снижении роли государства и подрывает основы демократического управления в Европе.

Выводы

В целях формирования национальных/региональных этических норм для систем ИИ необходимо учитывать и исследовать опыт и ошибки в подходах к созданию этичного ИИ. Для этого необходимо определить концепцию этики ИИ в рамках отечественной философской мысли и понятийного инструментария, который включает этику, мораль и нравственность. Также предлагается разработать:

критерии социального воздействия технологий и программы исследований; методы оценки этических аспектов ИИ; методы оценки развития систем ИИ; классификацию систем ИИ; методы отчетности по соблюдению этических норм в системах ИИ, произвести систематизацию этических рисков.