ChatGPT. Обзор мнений

Время на прочтение: 3 мин

В конце ноября 2022 года OpenAI выпустила ChatGPT, который вызвал новые обсуждения систем ИИ среди пользователей, научного сообщества и представителей коммерческих структур.

ChatGPT – это версия GPT-3, которая взаимодействует с пользователем в формате диалога. Согласно Д. Кларку, сопредседателю руководящего комитета по Индексу ИИ, который публикуется Стэнфордским институтом искусственного интеллекта, ориентированного на человека, из новой технологии ИИ превратился в зрелую модель, закончились спекуляции с научными исследованиями в области ИИ и началась эра оценки положительного и отрицательного влияния ИИ. Такой вывод основан на появлении базовых моделей ИИ – GPT-3 от OpenAI и BERT от Google. Эти модели превзошли возможности человека при решении определенных задач. В частности, в распознавании речи и изображений. За последние десять лет в системах ИИ произошли серьезные изменения. Сначала они были основаны на методе обучения с учителем, который требовал тщательной разметки данных. Для этих систем необходимы значительные временные и инвестиционные ресурсы. Кроме этого, модель ориентирована на одну узкоспециализированную задачу и сложно перепрофилируется. Эти проблемы были решены с помощью базовых моделей благодаря трансферному обучению и масштабам использования. То есть, трансферное обучение позволяет адаптировать знания для конкретной задачи под смежные или похожие. Например, обучение распознаванию автомобилей на изображениях можно применять к распознаванию автобусов и грузовиков. Масштабность применения основана на улучшении производительности и стоимости оборудования, новые архитектуры и увеличение обучающих данных, включая книги, статьи, отчеты и пр.

ChatGPT вызвал неоднозначную реакцию в обществе. New York Times полагает, что он умнее и гибче, способен на забавные шутки, пишет сочинения на уровне колледжа, угадывает диагнозы и объясняет научные концепции. Вместе с этим, не исключает возможность массовой безработицы. В частности, по некоторым данным, это подтверждается массовым увольнением в новостном агентстве Buzzfeed и возможной заменой сотрудников на ChatGPT.

Скептицизм относительно ChatGPT связан с неизменными проблемами систем ИИ, несмотря на новый привлекательный интерфейс и мощную модель. По мнению автора статьи «Самый очаровательный трюк ChatGPT – он же его самый большой недостаток» У. Найта из Wired в основе ChatGPT лежит обновленная версия модели ИИ GPT-3, названная GPT-3.5. OpenAI продемонстрировала пример уточняющих вопросов, которые задает ChatGPT для настройки кода. То есть, в GPT-3.5 вводятся ответы человека в качестве обучающих данных, а потом используется обучение с подкреплением (модель вознаграждения/наказания) для формирования качественных ответов на примеры вопросов. Однако проблемы ChatGPT остаются прежними. Имитация созданных человеком изображений и текстов осуществляется статистическими способами, а не познаванием устройства мира. Таким образом, эти программы искажают факты и повторяют предубеждения.

Кроме этого, ChatGPT наряду с лингвистической компетенцией поражает грубыми арифметическими ошибками. В статье New York Times «Технология, которая вторгнется в нашу жизнь в 2023 году» прогнозируют появление новых улучшенных помощников на основе ИИ. Проблема заключается в улучшении сильных сторон чат-ботов с помощью инструментов, которые упрощают написание и понимание текста.

Проблема этики в ChatGPT отражена в совместном исследовании немецких и датских ученых «Моральный авторитет СhatGPT». Экспериментальным путем они доказывают, что отсутствие твердой моральной позиции у ChatGPT не является препятствием для раздачи советов пользователям. Перефразирование вопросов изменяет ответы у ChatGPT и выдает противоречия. Кроме этого, отмечается значительное влияние на принятие решения пользователем даже если он знает, что источник совета искусственный интеллект, а влияние рекомендаций ChatGPT на суждения недооценивается пользователями.

Параллельно, в исследовании «Язык и мысли в больших языковых моделях: когнитивная перспектива» поставлены вопросы данных и адаптации архитектур. В частности, для любых LLM требуется значительный объем данных, которые превышают набор данных ребенка, который учится говорить. То есть, извлечение лингвистической информации из статистических закономерностей не гарантирует человеческого уровня. Изучение языка требует наличия ранее сформированных представлений для обучения на редких и зашумленных данных. LLM, включая ChatGPT работают с языками, на которых доступны большие объемы данных. Это может привести к тому, что сами архитектуры смещаются в сторону английского и европейских языков и снижают возможности моделирования для других языков.

В январе 2023 года студент Российского государственного гуманитарного университета сгенерировал с помощью ChatGPT дипломную работу по теме «Анализ и совершенствование организации управления», и защитил её перед комиссией. По его словам, ChatGPT выдала по запросу несколько глав с оригинальным исследованием, аналитической частью и ссылками на научные работы, студент лишь отредактировал получившийся материал. Всего на работу с запросами, редактуру и оформление ушло менее суток.

Выводы

Реализация потенциала ChatGPT требует дальнейшего изучения. Кроме технических аспектов применимости к другим языкам, развития способности извлечения информации из статистических закономерностей необходимо разрабатывать механизмы ограничения влияния на пользователя и общественное мнение. Открытыми остаются вопросы применимости этических принципов к системам ИИ, каким образом и в каких отраслях они могут заменить человека, а в каких нет.