Введение: основы подхода к построению универсального интеллекта. От универсального интеллекта к сильному ИИ

Перспективы создания сильного искусственного интеллекта.

Область искусственного интеллекта (ИИ) принесла массу замечательных практических результатов в части автоматизации человеческой деятельности в самых разных сферах, что постепенно меняет облик нашей цивилизации. Однако конечная цель – создание по-настоящему разумных машин (сильного ИИ) до сих пор не была достигнута. В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан. Если какие-то возражения и звучат, то они имеют религиозных характер, апеллирующий к наличию у человека нематериальной души. Но даже при столь радикальных воззрениях на нематериальный мир списывают лишь такие сложные концептуально феномены как свобода воли, творчество или чувства, не отрицая возможности наделения машины почти неотличимым от человека поведением. Гораздо менее однозначными являются ответы на вопросы, когда и как именно может быть создан сильный ИИ?

Искусственный интеллект как область переживал разные периоды. Начальный период, который часто характеризуют как романтический, обещал скорое, в течение пары десятилетий, создание мыслящих машин. Неоправданные ожидания привели к более прагматичному настрою, к ориентации многих исследователей на слабый ИИ – неуниверсальные интеллектуальные системы, способные решать узкие классы практических задач. Пик этой тенденции приходится на экспертные системы (ЭС), которые обещали уже не машинный разум, но эффективные коммерческие решения сложных прикладных задач. Однако и здесь ожидания не оправдались. ЭС, хотя и достаточно успешно применялись на практике, не стали прорывной технологией, которая перевернула бы мировой бизнес, из-за чего инвестиции, хлынувшие было в эту область, заметно уменьшились [McCarthy, 2005]. В США наступила «зима ИИ». Япония потерпела неудачу в проекте компьютеров пятого поколения.

Однако исследования в области ИИ вовсе не затухли. Большое количество подобластей, выделившихся из ИИ, таких как компьютерное зрение, анализ текстов, распознавание речи и т.д., продолжали приносить свои плоды, пусть и не сенсационные, но все более и более значимые. Возродился интерес бизнеса к системам слабого ИИ. Вновь стали повторяться слова о чрезвычайной значимости области ИИ в будущем для всего человечества [Nilsson, 2005a]. И вновь стала озвучиваться мысль, что области ИИ нужно «официально» вернуть ее конечную цель – создание по-настоящему разумных машин [Brachman, 2005].

При этом, однако, в сугубо академических кругах ученые перестали озвучивать сроки возможного создания сильного ИИ. Тем не менее, рядом видных специалистов в этой области снова называются сроки в несколько (а иногда даже и в одно) десятилетий [Hall, 2008]. Причем на этот раз такие экспертные ожидания подкреплены и независимыми свидетельствами. Одно из них связано с тем, что, по крайней мере, по некоторым оценкам вычислительные мощности компьютером, сопоставимые с вычислительными ресурсами человеческого мозга, достижимы к 2030-м годам (а по некоторым – достижимы уже сейчас [Hall, 2008]). С учетом того, что нехватка вычислительных мощностей была (как это понятно сейчас) одной из объективных причин, по которым ранние прогнозы о создании настоящего ИИ были несбыточными, вероятное устранение этой причины в ближайшем будущем внушает оптимизм.

Но вычислительные мощности – лишь необходимое условие для создания сильного ИИ. Помимо этого существует и масса содержательных проблем в теории ИИ, которые до настоящего времени не были решены. Удастся ли их решить за ближайшие десятилетия? Некоторую уверенность в этом дают прогнозы, связанные с технологической сингулярностью (см., напр., [Kurzweil, 2005]). Концепция сингулярности основывается на факте ускоряющегося возрастания сложности технических (а ранее – биологических) систем. Поскольку на каждом этапе глобальной эволюции сложность систем оказывается экспоненциальной (частным примером здесь является закон Мура), а при переходе между этапами показатель экспоненты каждый раз увеличивается, то есть время удвоения сложности уменьшается (так, время удвоения емкости ДНК составляет сотни миллионов лет, а емкости нервной системы – десятки миллионов лет), то следует ожидать выход этого процесса на бесконечность за конечное время. Экстраполяция кривой возрастания сложности не позволяет отнести момент наступления сингулярности позднее 2050 года (а обычно и ранее), и возникновение некоторого сверхчеловеческого разума, вероятно, должно стать одним из последующих этапов усложнения систем. Конечно, возможность достижения истинной сингулярности можно оспаривать: график возрастания сложности объективен, но его экстраполяция может быть различной, но интервалы времени до следующих этапов (метасистемные переходы) не должны начать слишком внезапно и слишком сильно удлиняться. А, значит, данная концепция также подтверждает возможность создания сильного ИИ в течение ближайших десятилетий, что делает данную проблему, хотя и оставляет вопрос о том, как именно к ее решению стоит подходить.

При этом ведущими специалистами отмечается невозможность достижения сильного ИИ в рамках краткосрочных проектов [McCarthy, 2005], путем создания узкоспециализированных интеллектуальных систем [Nilsson, 2005b] или даже путем постоянного совершенствования систем, решающих изолированные когнитивные задачи типа обучения или понимания естественного языка [Brachman, 2005]. Необходимо ставить и решать именно задачу создания сильного ИИ, даже если при этом не ожидается получение каких-либо коммерческих результатов за первые десять или более лет.

В академической среде все ограничивается вполне естественным призывом к объединению подобластей ИИ [Bobrow, 2005; Brachman, 2005; Cassimatis et al., 2006], каждая из которых уже успела приобрести свою глубокую специфику. Достигнутый прогресс в каждой из подобластей дает надежду на то, что объединение полученных результатов позволит построить интеллектуальные системы, существенно более мощные, чем те, что были построены на заре компьютерной эпохи в попытках создания первых мыслящих машин. С другой стороны, такое объединение должно дать многое и самим подобластям: ведь задачи, решаемые в их рамках, зачастую полагаются ИИ-полными. Так, вряд ли можно создать универсальные системы распознавания образов, понимания языка или автоматического доказательства теорем без создания сильного ИИ, поскольку между всеми этими задачами есть принципиальная взаимосвязь [Brachman, 2005].

Использование и исследование когнитивных архитектур как способов объединения в единой системе всех необходимых для полноценного интеллекта функций, таких как обучение, представление знаний, рассуждения и т.д. выделилось в новую господствующую парадигму в области ИИ в целом [Brachman, 2005]. И именно эта парадигма официально связывается с построением систем искусственного интеллекта уровня человека [Cassimatis et al., 2006; Cassimatis, 2006], или универсальных [Langley, 2006].

Подобные интеграционные исследования необходимы, но насколько они достаточны? Общие идеи о том, что сильный ИИ должен создаваться как единая система, которая должна включать некую базовую когнитивную функциональность, достаточно очевидны и высказывались очень давно. Однако до сих пор нет ни минимально необходимого перечня когнитивных функций, ни, тем более, обоснованных деталей их реализации.

Более того, существуют не только многие существенно разные когнитивные архитектуры [Jones and Wray, 2006], но также и архитектурные парадигмы, альтернативные когнитивной [Langley, 2006]. При этом когнитивные архитектуры в основном концентрируются на вопросах интегрирования, взаимодействия отдельных функций. Но можно ли из слабых когнитивных компонент получить сильный ИИ? На наш взгляд, ответ однозначный: нет. Вместо (или, по крайней мере, в дополнение) обсуждения методических вопросов объединения существующих слабых компонент, необходимо разрабатывать теорию сильного ИИ, из которой будет одновременно следовать как структура сильных компонент ИИ, так и необходимая архитектура их объединения.

Как справедливо отмечено в [Cohen 2005]: «Poor performance and universal scope are preferred to good performance and narrow scope». С учетом того, что, как указывалось, создание эффективных узкоспециализированных систем почти не приближает нас к сильному ИИ, естественно спросить, чего же не хватает современным когнитивным системам в плане универсальности?

Литература