Машинное обучение и искусственный интеллект: проблемы восприятия

Время на прочтение: 2 мин

В статье Harvard Business Review «У машинного обучения есть проблема с ИИ» предпринимается попытка отделить практические проекты машинного обучения от захватывающих возможностей генеративного ИИ и растущей вокруг него шумихи.

По мнению автора статьи Э. Сигела, проблемы начинаются с правильного наименования проектов. Сегодня все инициативы машинного обучения (далее – МО) обобщаются искусственным интеллектом, что вводит в заблуждение и способствует отказу бизнес-развертываний машинного обучения. То есть, большинство проектов машинного обучения рассматриваются с точки зрения ИИ и формируют ожидания человеческого уровня.

Автор выражает обеспокоенность упущения компаниями непосредственных, конкретных и практических вариантов использования МО. Может сложится впечатление, что масштабное озвучивание и сосредоточение в СМИ на значительных прорывах ИИ способствует внедрению МО. Однако на самом деле даже без последних ярких освещений ChatGPT и других инструментов генеративного ИИ, нарастает проблема восприятия прикладного машинного обучения. То есть, раздуваются ожидания и меньше внимания уделяется реальным возможностям по улучшению бизнес-операций. По мнению автора, повышение эффективности бизнес-операций с помощью МО осуществляется простыми способами, основанными на способности прогнозирования. Именно поэтому, МО часто называют прогнозной аналитикой. Прогнозы МО определяют миллионы операционных решений, от которых зависят бизнес-операции. Например, какие транзакции являются мошенническими или прогнозы отказа клиентов от услуг. Автор полагает, что в рамках рекламной и маркетинговой риторики происходит путаница в терминологии относительно понятий сильного ИИ (Artificial General Intelligence), который должен решать любые интеллектуальные задачи, включая те, которые выполняет человек и узкоспециализированного ИИ, который подразумевает практическое, целенаправленное развертывание МО. Для реализации бизнес-проектов и стратегий на основе МО, необходимо четкое описание способа улучшения эффективности бизнес-процессов и наличие конкретной операционной цели.

По данным AIMyths, первое использование термина ИИ появилось в рамках предложений о проведении семинара в Дартмутском колледже в 1956 году. Исследования было основано на гипотезе о возможности и необходимости описания любого свойства интеллекта и/или аспекта обучения для моделирования с помощью машины. Задача состояла в попытке найти способы заставить машины использовать язык, формировать абстракции и концепции. Эти задачи остаются актуальными и сегодня. При этом, искусственный интеллект предлагалось назвать «сложной обработкой информации». Однако в конечном итоге для обозначения новой области был одобрен термин «ИИ».

В своей работе «Прогнозная аналитика» Э. Сигель писал, что проблема заключается в самом слове интеллект для обозначения описания работы машины, то есть в сложности определения четкой цели в случае ИИ. Если ее невозможно обозначить, то невозможно построить. Парадокс «эффекта ИИ» заключается в том, что как только ИИ решает сложную задачу, которая требовала участия человека, человек упрощает значимость ее решения. То есть, любое решение ИИ рассматривается как вычисление, а не настоящий интеллект. За счет этого происходит новое переосмысление ИИ для обозначения того, что ИИ еще не сделал.

В заключении Э. Сигель полагает, что необходимо рассматривать ИИ с точки зрения реализма и управления реальными бизнес-операциями.