Генеративный ИИ: преимущества и риски

Время на прочтение: 3 мин

С начала 2023 года широкие дебаты ведутся вокруг потенциала генеративного ИИ, который создает огромное разнообразие контента на основе обучающих данных, включая изображения, видео, музыку, речь, текст, программный код и дизайн продуктов.

Читать дальше

Цифровая дипломатия 2023: вызовы и тенденции развития

Время на прочтение: 2 мин

Концептуальная основа цифровой дипломатии сформировалась в 2009 и 2010 гг. в рамках работ Дж. Макхейл о стратегии новой публичной дипломатии США «Публичная дипломатия: укрепление взаимодействия Соединённых Штатов с миром» и «Публичная дипломатия: национальный стратегический императив».

Читать дальше

Национальные силы кибербезопасности Великобритании. Обзор

Время на прочтение: 2 мин

В 2022 году в Концепции национальной стратегии кибербезопасности Великобритании в качестве ключевой задачи обозначена защита и продвижение интересов в киберпространстве для поддержки национальных целей.

Читать дальше

Новые угрозы кибербезопасности

Время на прочтение: 2 мин

Цифровизация корпораций, компаний, правительств и общества в целом предполагает управление деятельностью за счет компьютеризированных систем. Однако постоянное развитие технологий изменяет характер кибератак и, соответственно, тенденций в развитии кибербезопасности.

Читать дальше

Квантовые коммуникации. Обзор мировых тенденций и перспектив

Время на прочтение: 2 мин

Существующий мир – это мир, который можно наблюдать и осязать. Он представлен классической ньютоновской механикой. Квантовый мир – это мир атомов и электронов, который определяется вероятностными категориями в соответствии с законами квантовой механики.

Читать дальше

Открытые vs проприетарные модели

Время на прочтение: 2 мин

В мае 2023 года компания Meta (запрещена в России) приняла решение открыть исходный код LLaMA (большая языковая модель на 65 млн параметрах, разработанная Meta) для сообщества ученых и исследователей, которые могут копировать и модифицировать модель для создания собственного чат-бота.

Это решение вызвало резонанс в технологическом сообществе и широкие обсуждения последствий. Так, в статье Нью-Йорк Таймс «В битве за ИИ Meta отдает драгоценности» отмечается отличие такого подхода от подхода конкурентов Google и OpenAI, которые сохраняют в собственности ПО, лежащее в основе ИИ. Однако в Мeta (запрещена в России) полагают, что открытие кода станет двигателем дальнейшего прогресса и ускорит распространение влияния компании. По мнению главного научного сотрудника Meta в области ИИ, профессора Нью-Йоркского университета Яна Лекуна, усиление секретности в Google и OpenAI является большой ошибкой. ИИ будет вызывать больше подозрений у пользователей и правительств, если будет контролироваться несколькими крупными компаниями. Кроме этого, подход Meta соответствует принципам развития сети Интернет и опыту распространения операционной системы Linux, которые были построены на ПО с открытым исходным кодом.

Вместе с этим, контраргументы Google и OpenAI построены на угрозах, которые связаны с открытием кода для такой мощной технологии как ИИ. Однако необходимо учитывать, что открытый код может представлять конкурентную опасность для проприетарных моделей этих компаний. Об этом свидетельствует попавшая в сеть информация одного из сотрудников Google, который рассматривает возможность потери лидерства в области ИИ с открытием исходного кода. В этом документе автор отмечает сокращение разрыва в качестве между проприетарными моделями и моделями с открытым исходным кодом. Модели с открытым кодом более быстрые, персонализированные и функциональные. Это рабочие модели за 100 долл с 13 млрд параметров, в то время как модель Google работает за 10 млн долл. на 540 млрд параметров. Автор полагает, что гигантские модели тормозят развитие, и люди будут выбирать альтернативу, сопоставимую по качеству.

The Economist также отреагировал на просочившуюся информацию из Google с точки зрения необходимости баланса между открытым исходным кодом и проприетарными моделями. Авторы ссылаются на функционирование сети Интернет, где базовая инфраструктура поддерживает множество приложений, платформ и инструментов, созданных на основе проприетарного ПО, но некоторые технологии работают на ПО с открытым кодом. Это позволит демократизировать технологии ИИ и настраивать их на ноутбуке, что приближает человечество к персонализированному ИИ. Однако авторы также рассматривают положительные и отрицательные стороны демократизации ИИ. К первым относят снижение монополизации ИИ крупными компаниями, удешевление доступа к ИИ, ускорение внедрения инноваций, упрощение анализа поведения систем ИИ и повышение прозрачности и безопасности. Среди рисков отмечается упрощение возможностей для злоумышленников настраивания системы ИИ для производства дезинформации, легкий доступ к мощным технологиям враждебных режимов, усложнение регулирования.

Таким образом, в рамках американской экономической модели развития технологической отрасли представляется, что адепты безопасности закрытых (проприетарных) моделей проиграют сторонникам открытого исходного кода. В ближайшее время будет реализована стратегия производства высококачественного программного обеспечения посредством сочетания государственных, частных и академических партнерств, которая неоднократно воспроизводилась в США. Модели с открытым исходным кодом также будут способствовать усилению безопасности за счет тщательной проверки разработчиками и увеличения количества программистов, которые выявляют ошибки и разрабатывают исправления. Это в свою очередь способствует снижению возможностей для использования злоумышленниками.

Вместе с тем, возможны некоторые ограничения на распространение нового ПО с открытым кодом, например, наличие лицензионных соглашений. Это позволит открыто распространять новое ПО с открытым кодом и интегрировать опыт ученых и частного сектора.

1 2 3 4 5 11