Искусственные эмоции

Откуда у животных взялась способность испытывать боль и удовольствие? С одной стороны, эта способность выглядит крайне естественной и полезной для выживания. Однако при проектировании аниматов становится понятно, что сама собой она не появляется. Можно провести следующую аналогию: при игре в шахматы известны правила поражения, но из них явно не следуют способы оценки качества текущей позиции. Чтобы понять, что потеря фигуры в данной игре обычно является нежелательной, нужно сыграть много игр (чтобы проследить, что именно потери фигур вели к проигрышу) или использовать какие-то априорные знания. Также и в случае с животными: без использования достаточно глубоких знаний о природе сложно сказать, какие ситуации будут приближать или отдалять смерть живого организма. Боль и удовольствие следует рассматривать как общие эвристики оптимизации поведения, выработанные в ходе эволюции.

Однако в силу своего обобщенного и локального характера они далеки от универсальности, что можно сравнить с такой базовой эвристикой, как суммарная сила фигур в некоторой игре. Потеря фигуры — боль, съедание — удовольствие. Такая простая оценивающая функция несравненно лучше, чем полное отсутствие каких-либо эвристик, но ее все же недостаточно.

Вполне естественно, что в ходе эволюции были выработаны и более сложные эвристики. К таковым можно отнести эмоции и чувства, которые не столь локальны, как боль и удовольствие. Биологическая роль ощущений, эмоций и чувств вполне понятна: голод заставляет заранее искать пищу, страх позволяет избегать опасности, удивление — направлять внимание на новую информацию и так далее. Как в шахматах оценивающая функция состоит из слагаемых, включающих не только силу фигур, но и позиционное преимущество, и эта функция подбирается так, чтобы ее максимизация с наибольшей вероятностью приводила к выигрышу, также «взвешенную сумму» эмоций и чувств можно трактовать как оценивающую функцию, в которую эволюционно заложены эвристики выживания. С такой ролью эмоций (хотя и в менее «кибернетической» формулировке) вполне согласны современные психологи, в частности, в книге «Эмоции и чувства» профессора Е. П. Ильина можно прочитать:

«Оценочная роль эмоционального реагирования вместе с развитием нервной системы и психики живых существ видоизменялась и совершенствовалась. Если на первых этапах она ограничивалась сообщением организму о приятном или неприятном, то следующей ступенью развития явилась, очевидно, сигнализация о полезном и вредном, а затем — о неопасном и опасном и, наконец, более широко — о значимом и незначимом. Если первая и отчасти вторая ступень могли обеспечиваться только таким механизмом эмоционального реагирования, как эмоциональный тон ощущений, то третья ступень требовала другого механизма — эмоции, а четвертая — чувств (эмоциональных установок)».

Однако нужно ли все это искусственному интеллекту? Должен ли и может ли ИИ испытывать чувства, эмоции, быть способным любоваться природой или воспринимать прекрасное, понимать чувства людей, юмор, поэзию? Стереотипным является представление о гипотетическом искусственном разуме как о бездушной машине, действующей в соответствии с холодной логикой. Этому стереотипу предшествует традиционное противопоставление разума и чувств. Действительно, зачем в искусственном интеллекте пытаться воспроизводить то, что входит в противоречие даже с естественным интеллектом? Ведь в психологии долгое время за эмоциями признавалась лишь дезорганизующая функция, ослабляющая здравый смысл. Кроме того, эмоциональные интеллектуальные системы сейчас редко нужны на практике (сложно представить себе робота на производстве, плачущего из-за превышения нормативного показателя бракованных изделий). Лишь персонажей в компьютерных играх имеет смысл наделять «эмоциями» для «оживления» общения между ними и человеком. Не слишком-то широкая область приложения для столь туманной проблемы, как искусственные эмоции! Тем не менее эта проблема будет становиться все более актуальной при массовом распространении роботов. Уже сейчас в коммерческие роботы-животные и коммуникационные роботы закладываются механизмы демонстрации эмоций домашних питомцев или человека (с помощью движений и мимики). Должны ли эти роботы лишь имитировать проявления эмоций или в самом деле их переживать?

Естественно, поверхностная имитация эмоций не даст роботам их понимания. Как уже было показано, понимание существительных и глаголов требует их семантического обоснования в сенсорах и эффекторах. Также и понимание эмоций и чувств требует соответствующей семантической основы в собственных переживаниях. Как эмоции можно встроить в структуру ИИ?

В простейшем случае эмоции моделируют конечным автоматом, состояния которого соответствуют разным эмоциям. Этот автомат содержит набор правил перехода из одного состояния в другое, а также прямые и обратные связи с основным интеллектом (системой управления) и с интерорецепторами (боль, удовольствие). Упрощенная схема автомата представлена ниже. В более сложном случае из каждого состояния должны исходить связи, маркированные различными событиями. В тех же целях можно использовать не конечный автомат, а нейронную сеть.

formula_24

 

На подобных моделях несложно понять, зачем человеку и животным так много разных эмоций (что вызывает удивление у некоторых психологов). Если представить, что животным осуществляется оптимизация оценивающей функции, представленной как сумма некоторого количества признаков, то каждая эмоция будет отвечать своему признаку. Увлекательной и не слишком сложной является задача создания системы, переводящей компьютерный интеллект в разные эмоциональные состояния так, чтобы это соответствующим образом сказывалось на его поведении. Несложно (на примитивном, конечно, уровне) также промоделировать такие личностные характеристики, как храбрость, любознательность и т. д. Для этого достаточно просто в оценивающей функции выбирать разные коэффициенты перед соответствующими эмоциями.

Переход эмоциональной системы в новое состояние вполне может переводить в другой режим работы и мышление. Тогда эмоции служат эвристиками, или обобщенными признаками ситуаций, позволяющими распознавать, какая стратегия поведения в текущий момент наиболее приемлема.

Подобную точку зрения высказывал Марвин Минский в книге «The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind» («Эмоциональная машина: Логика здравого смысла, искусственный интеллект и будущее человеческого разума»), одной из немногих книг в области ИИ, посвященных этой проблеме. Минский утверждал, что каждое эмоциональное состояние — это просто отдельный стиль мышления, и эмоции, в отличие от распространенного мнения, не отличаются принципиально от рационального мышления. Ведь, как отмечалось выше, даже ученые дают своим теориям эмоциональную оценку. Конечно, механизмы переключения между эмоциями должны обладать собственной «логикой». И то, что лимбическая система, в том числе участвующая в формировании эмоций, имеет сложное строение и обширные связи со многими другими отделами мозга, говорит о том, что эта «логика» весьма нетривиальна.

Тогда противоречие между эмоциями и интеллектом имеет примерно ту же природу, что и противоречие между интеллектом и памятью (с которой, кстати, также связана лимбическая система, ведь проще всего запоминаются эмоционально окрашенные события). Эмоции, как и память, предшествуют сознательному мышлению и являются необходимой его основой. Однако развитый интеллект оказывается умнее базовых механизмов эмоций и памяти. Так же, как нам порой хочется получить контроль над своей памятью, иногда хочется управлять и своими эмоциями, когда они оказываются не слишком дальновидными.

И все же эмоции являются особенным компонентом разума. Они не сводятся полностью к индукции или дедукции. Даже из простейшей схемы анимата видно, что в дополнение к сенсорам и эффекторам существует также и «тело», которое задает оценивающую функцию. Именно эту функцию и пытается оптимизировать мышление путем выбора действий на основе поступающей информации, но сама оценивающая функция является внешней по отношению к мышлению и превалирующей над ним. «Мышление» шахматной программы подчинено оценивающей функции, определяемой правилами игры. Система управления промышленным роботом подчинена оценивающей функции, определяемой решаемой задачей. Также и мышление животного подчинено оценивающей функции, неявно заданной через эмоции. Хорошо известны опыты, когда крысам вживляли электрод в «центр удовольствия» и помещали в клетку педаль, активировавшую этот электрод. Уже через пару минут крысы приобретали зависимость: они начинали непрерывно нажимать на педаль, от которой их уже невозможно было отогнать.

Мы тоже слишком сильно зависим от ощущений и эмоций, даже если сами не признаемся себе в этом. Такая зависимость может быть не слишком заметна в норме, когда сознание находится в относительной гармонии с лимбической системой. Но поместите в определенный участок мозга электрод, вызвав у человека глубокую депрессию. Даже полностью осознавая причину этой депрессии, не связанную с какими-либо неприятными событиями, человеку будет крайне сложно сохранить рациональность суждений, он будет испытывать «беспричинную» злость, подавленность, страх, которые неизбежно будут проявляться в поведении. Не меньшее влияние на поведение оказывает и раздражение центра удовольствия. Достаточно прочитать яркие описания из книги Владимира Леви «Охота за мыслью (Заметки психиатра)», чтобы понять, насколько рациональный человеческий разум пасует перед «оценивающей функцией»:

«Первыми столкнулись нейрохирурги. Многие из них на операциях обращали внимание, что случайное раздражение некоторых глубоко расположенных частей мозга может вызывать у людей резкие изменения психического состояния… Необычайная веселость, приподнятость, говорливость… Когда больным раздражали эти точки электрическим током, они просили о повторении раздражения, просили настойчиво».

«Самораздражение люди производят так же охотно, как и животные, с той же сосредоточенностью, только с большим разнообразием внешних мотивировок, одна из которых — желание служить интересам науки».

«Мозг человека сдается очень легко, и, главное, незаметно для себя».

Можно принять, что интеллект предназначен для оптимизации оценивающей функции, сформированной в ходе эволюции. При этом его задачей является предсказание будущего значения этой функции в зависимости от текущих действий. Тогда противоречие между эмоциями и интеллектом возникают лишь в связи с тем, что досознательные механизмы организации поведения не «осведомлены» о возможности развития интеллекта в онтогенезе с существенным возрастанием его предсказательной силы; они просто «не верят обещаниям» интеллекта и стремятся получить сиюминутную выгоду. Содержание сознания слишком произвольно и непредсказуемо; ему так же нельзя доверять, как нельзя доверять произвольному приложению производить записи в системную область.

Данный взгляд на интеллект как на механизм оптимизации оценивающей функции не особо отличается от классического подхода в ИИ. Разница лишь в том, задается ли оценивающая функция в явном виде или неявно, через сигналы от «тела». Подход с априорным заданием оценивающей функции пока еще может быть достаточен для проектирования интеллектуальных систем, но все же он не универсален. Человеческий мозг устроен заметно гибче. Конечно, в значительной степени оценивающая функция у человека та же, что и у животных: даже такие символы социального «преуспевания», как богатство и власть, — это лишь многократно усиленные биологические установки обезьяны как члена стаи, стремящейся стать доминирующей особью. Но все же человеческий мозг как истинная универсальная машина обучается в течение жизни не только новым произвольным алгоритмам, но также и новым критериям. Ведь эмоции — это компоненты оценивающей функции, которая, по своей сути, является эвристичной: она помогает решать задачу выживания, но делает это далеко не оптимальным образом. Вполне естественно эволюционное возникновение адаптационных механизмов уточнения этой функции. Да, человек сильно зависит от врожденной компоненты оценивающей функции, но в то же время он может проявлять чудеса силы воли и героизма (или же, напротив, биологически немотивированной жестокости), действуя вопреки ей под руководством принятых им жизненных ценностей. Мораль и нравственность — высшие компоненты оценивающей функции, отличающиеся главным: они не заложены априорно, а приобретаются в течение жизни. Можно ли будет в ИИ воспитать высокие моральные качества?

Вопрос может показаться преждевременным, тем более ответы на него как будто давно даны в виде трех законов робототехники А. Азимова, в частности, запрещающих роботу наносить вред человеку. К сожалению, эти законы очень непросто воплотить в жизнь. Сам фантаст в своих произведениях тоже обсуждал проблемность этих законов, но в действительности все гораздо сложнее. Если создать ИИ как замкнутую, неспособную изменяться систему, то, возможно, законы Азимова удастся в нее вложить. Подумайте: ИИ должен будет «до рождения» уметь распознавать людей во всех возможных их видах, иметь представление о том, что для человека является вредным, а что — нет, и так далее. Иначе как он сможет оценить, нанесет ли он вред человеку своим действием? Как уже здесь отмечалось, подобный подход настолько непрактичен, что вряд ли в его рамках удастся создать сильный ИИ. Возможно, в ИИ можно будет заложить подобную экспертную систему. Но если ИИ создавать как развивающуюся систему, начинающую свою жизнь практически с чистого листа и постепенно в результате взаимодействия с миров выстраивающую систему семантически обоснованных понятий, то врожденные законы окажутся никак не связанными с осознаваемыми понятиями, сформированными в процессе обучения. Априорные законы окажутся сродни слепым инстинктам, которые будут входить в противоречие с сознательной деятельностью. Допустим, сознание робота захочет причинить вред человеку и построит хитроумную ловушку. Как заложенный в робота «азимовский инстинкт» догадается о том, что затеяло сознание? Для этого инстинкт должен быть умнее. Если же инстинкт и впрямь такой умный, то обучающееся сознание не нужно. Таким образом, чтобы законы Азимова могли надежно работать, ИИ должен создаваться как взрослый, законченный интеллект, что, как уже отмечалось, очень неэффективно. Если же законы Азимова воплощены в механизмах сродни человеческим инстинктам, то робот, возможно, не сможет им полностью препятствовать, но сможет их по своему желанию легко перехитрить, как это делает человек со своими инстинктами (к примеру, многим людям непросто сопротивляться инстинкту размножения, но легко использовать противозачаточные средства; также и роботу с «азимовским инстинктом» будет трудно причинить вред человеку напрямую, но легко — косвенно).

Иногда также считают проблему возможной враждебности ИИ несущественной, поскольку полагают, что высокоразвитый интеллект неизбежно будет и высокоморальным. В фантастике эту характеристику нередко приписывают инопланетному разуму (правда, гораздо чаще ему приписывают неуемную агрессивность, хотя и из художественных, а не научных соображений). В случае гипотетических инопланетян какую-то роль могут сыграть особенности их биологической и социальной эволюции, которые не относятся к ИИ. В какой-то момент разум строит достаточно подробный образ себя в мире, включающий понятие и об оценивающей функции. Вряд ли удастся построить полноценный ИИ, который будет ограничен только в этой возможности. Для человеческого разума момент такого осознания весьма трагичен (достаточно вспомнить монолог шекспировского Гамлета, хотя можно привести и огромное множество других примеров).

Разум понимает необоснованность навязанной ему оценивающей функции (и, хуже того, осознавая собственную смертность, понимает, что не может даже выполнить своей задачи — максимизировать эту функцию) и даже имеет средства для ее изменения, но не может ничего предложить взамен, поскольку при этом тут же возникает вопрос: а по какому критерию выбирать новую функцию? Ведь даже желание самосохранения (или более широко — максимального распространения разума во Вселенной) не может быть выведено «логически». Из-за этого разум превращает вопрос о цели своего существования в вопрос о смысле жизни — поиске внешнего обоснования (на основе чего строится значительная часть религии). Существует даже расстройство, возникающее, видимо, при полном отключении эмоций, при котором люди полагают себя мертвыми: без какой-либо целевой функции интеллект не просто не может найти смысла жизни, но и вообще не ощущает себя живым. Здесь было бы неуместным пытаться дать ответ на этот вопрос. Но необходимо отметить, что сильный ИИ, вполне вероятно, его для себя также откроет, и пока нельзя гарантировать, что тот ответ, который он себе даст, не вступит в противоречие с интересами людей.

Таким образом, вопрос об обеспечении лояльности ИИ к человеку далеко не решен и вряд ли будет скоро решен, ведь этой проблемой занимается еще меньше ученых, чем проблемой искусственных эмоций. Этические вопросы, связанные с созданием думающих машин, конечно же, не раз поднимались, причем не только в художественной литературе. Еще Норбертом Винером в его знаменитой книге «Кибернетика» (во втором издании 1961 года) не только затрагиваются общие проблемы научной этики применительно к кибернетике, но и ставятся более конкретные вопросы: могут ли самообучающиеся машины усиливать опасность третьей мировой войны? В то время Винер рассматривал машины, действующие по строго заданной оценивающей функции (как при игре в шахматы) и показывал опасность на примере неточно заданной функции. Грубо говоря, если какое-то государство построит сверхумную машину, перед которой поставит цель мирового господства, то эта машина, вероятно, организует глобальную войну на практически полное уничтожение человечества. Винер проводил аналогию со сказками, в которых некоторая могущественная волшебная сила исполняет желания буквально, что приводит к печальным последствиям. Более полувека назад Винер писал: «Ошибка в этом отношении может означать лишь немедленную, полную и окончательную гибель. Мы не можем рассчитывать на то, что машина будет подражать нам в тех предрассудках и эмоциональных компромиссах, благодаря которым мы позволяем себе называть разрушение победой».

В «Кибернетике» эта проблема лишь кратко поставлена. Видимо, Винер, будучи антимилитаристом, использовал ее для отстаивания своих убеждений. Однако простое неприменение интеллектуальных машин в военных целях не снимает проблему полностью, а лишь ослабляет ее (к сожалению, большинство обсуждений проблемы опасности ИИ вращается вокруг «административных» решений). Требование правильного задания оценивающей функции тоже не дает решения. Как мы сейчас понимаем, в явном виде невозможно самообучающейся машине «до рождения» задать нужную оценивающую функцию, поскольку эта функция не может быть привязана ко всем понятиям и ситуациям реального мира.

Примером попытки научно-технического решения данной проблемы является концепция «дружественного ИИ», развиваемая Э. Юдковским. Теория Юдковского также показывает несостоятельность жесткого закладывания правил поведения сродни азимовским, поскольку достаточно развитый ИИ найдет множество способов их обойти. Речь в ней идет о создании надлежащей мотивации быть моральным. Однако пока эту теорию нельзя назвать достаточно детальной для технического воплощения. Хотя в последние годы в этой области количество исследований начало возрастать, пока лишь можно надеяться, что ИИ удастся сделать более моральным, чем сам человек. Ведь при его создании есть возможность исключить весь тот эволюционный балласт, которым отягощен человек. Но что подумает такой ИИ о своих создателях?..

Здесь возникает еще один вопрос: об этическом отношении человека к самим роботам. Эта проблема также поднимается в основном в фантастике, но и в реальности ею пытаются заниматься некоторые организации. Проблема прав роботов и жестокого отношения к ним, как и в случае с животными, сталкивается с двумя вопросами: являются ли они разумными существами и способны ли они чувствовать? Проблема осложняется тем, что таких роботов пока еще нет. Сам вопрос: можно ли сделать машину счастливой, многим продолжает казаться странным. Как? Да и зачем? Машина воспринимается лишь как инструмент, и многие люди считают такие вопросы преждевременными и даже бессмысленными (в силу того, что машине традиционно не приписываются эти способности). Однако, как видно из обсуждения проблемы семантического обоснования эмоций и морали, потребность сделать машину счастливой не столь абсурдна, по крайней мере, не более абсурдна, чем потребность научить машину видеть, поскольку это наиболее обоснованный путь построения дружественного ИИ.

Но можно ли считать, что анимат, получающий от «тела» сигналы по каналам, интерпретируемым как эмоции, хоть что-то испытывает? Является ли представленная выше схема достаточной? Будет ли компьютерная программа, получающая сигналы боли и удовольствия, радости и печали действительно их испытывать? Остается также вопрос, зачем эмоции вообще переживаются. Казалось бы, оценивающую функцию можно оптимизировать без переживания. Ведь шахматная программа, максимизирующая свою оценивающую функцию, вряд ли что-то ощущает.

Вопрос о том, зачем испытывать боль и удовольствие вместо простой оптимизации оценивающей функции, можно задать и относительно животных. В чем особенность животных? Весьма часто можно встретить мнение (распространившееся и в художественной литературе), что мотивация у живых существ имеет гормональную природу, что чувства, в том числе и у человека, вызываются биохимически. С одной стороны, это снимает мистичность с эмоций и говорит о том, что они имеют физическую природу. С другой стороны, многие из этого делают вывод, что поскольку внутри компьютера никакой биохимии нет, то он не может испытывать эмоции.

Действительно, надежно установлено, что разные гормоны (многие из которых выступают также в роли нейромедиаторов) обуславливают различные эмоции. К примеру, повышение настроения и снятие тревоги вызываются избытком серотонина в мозгу, а низкая концентрация норадреналина вызывает чувство тоски (а при постоянной его нехватке — депрессию). Искусственное введение в кровь этих веществ (или веществ, которые, напротив, блокируют выработку или транспорт соответствующих гормонов) способно менять настроение человека. Существуют вещества, которые подменяют собой аналогичные нейромедиаторы, — это наркотики. Физиологическая зависимость от них связана с тем, что они нарушают естественное производство нужных веществ, которое не возобновляется при прекращении их приема, что к тому же сопровождается сильными отрицательными переживаниями — глубокой депрессией, тоской, тревогой, паникой и т. д. (в зависимости от замещаемого медиатора).

Как видно, по крайней мере, базовые эмоции вызываются гуморально, и зависимость поведения человека от соответствующих веществ очень сильная. Но значит ли это, что компьютер не может испытывать эмоции без участия соответствующей биохимии? Вряд ли! Ведь не переживаются же эмоции самими молекулами гормонов и нейромедиаторов!? Мы уже видели, что аналогичного эффекта можно добиться и электрической стимуляцией определенных участков мозга.

Но и нейроны сами по себе тоже не испытывают эмоций. Возможно, эта идея лучше понятна на ощущении боли: боль испытывает не само нервное окончание, до которого дотронулись иголкой, а мозг, получающий соответствующий сигнал. Аналогично, видят не палочки и колбочки в сетчатке глаза, а зрительная кора. Здесь интересно вспомнить про удивительный эффект слепозрения, возникающий при повреждении зрительной коры. При синдроме слепозрения у человека часть зрительного поля перестает визуально восприниматься, и если человека, например, попросить вытянуть руку по направлению к яркому объекту, то он скажет, что ничего такого не видит. Но при этом, выполняя просьбу наугад выбрать положение этого объекта, человек со слепозрением с высокой вероятностью (иногда близкой к 100%) укажет на него совершенно правильно. Также такой человек может «наугад» правильно определять наличие и направление движения перемещающихся объектов, а также некоторые другие характеристики изображений, несмотря на то, что субъективного ощущения видения у него не будет.

Никакой мистики в этом нет. Слепозрение наступает лишь тогда, когда повреждается часть мозга, отвечающая за высокоуровневую обработку зрительных образов и передачу их на уровень сознания. Однако обработка зрительной информации происходит не только в зрительной коре. Существует и более древний путь, включающий, в частности, бугорки четверохолмия среднего мозга. По этому пути идет менее детальное, но более быстрое извлечение информации, важной для выживания. Эта информация не достигает сознания, не переживается, а остается на уровне смутных впечатлений, интуитивных догадок, но вполне может использоваться мозгом для совершения адекватных действий.

Феномен слепозрения поучителен тем, что показывает, насколько содержание мышления не сводится к тому, что воспринимается сознанием. Здесь он нам особенно интересен тем, что показывает, что переживание сенсорных ощущений происходит за счет работы коры и что процесс зрения в принципе возможен и без этих переживаний. Также можно вспомнить и феномен фантомных ощущений, испытываемых человеком в ампутированных конечностях, в частности, при стимуляции определенных участков коры. Кора отличается от другой части мозга не столько физически, химически и биологически, сколько структурно и функционально. Также можно упомянуть два расстройства при повреждении мозга, при одном из которых человек перестает воспринимать сигналы боли, а при другом, ощущая эти сигналы, перестает их интерпретировать как боль. Иными словами, переживание ощущений — это результат достаточно высокоуровневой интерпретации соответствующих сигналов.

Аналогичный вывод можно сделать и относительно эмоций. Конечно, сложно однозначно утверждать, что эмоции переживаются именно корой, интерпретирующей сигналы лимбической системы. В частности, младенцы, родившиеся с неполноценной корой головного мозга, могут проявлять базовые эмоции, например, отвечать на испорченную пищу мимикой, выражающей отвращение. Сложно сказать, испытывают ли они при этом данную эмоцию или просто проявляют ее так же, как это умеют делать современные роботы. Ведь при взрослении у этих детей эмоциональные реакции остаются ограниченными. Да и в норме электрическая стимуляция подкорковых образований вызывает лишь несколько базовых эмоций. Примерно так же, как не удается найти «бабушкиных нейронов», не удается найти и конкретных нейронов, отвечающих за сложные эмоции и чувства, формирующиеся в ходе эмоционального развития и приобретения социального опыта.

Итак, само переживание эмоций имеет, видимо, функционально-системный, а не биохимический характер. Интересно, однако, то, что проявление эмоций является важным их компонентом. Так, человек, блокирующий проявление эмоции, будет переживать ее слабее. Напротив, человек, усиленно имитирующий проявление эмоции, будет испытывать какое-то ее подобие. Иногда мозг может даже неправильно «распознать» сигналы тела. В частности, аритмичное сердцебиение (даже если его причина полностью внутренняя) может приводить к переживанию страха. В этой связи можно было бы спросить: мы смеемся, потому что нам весело, или нам весело, потому что мы смеемся? В действительности, верно и то, и другое: наиболее ярко эмоции переживаются, когда действует как прямая, так и обратная связь между разумом и телом. Этот эффект аналогичен адаптивному резонансу в восприятии. Хотя видит все же мозг, а не глаза, без входящего сигнала на сетчатке воображение в норме будет создавать лишь блеклые образы. Но и без обратного сигнала, согласующего гипотезы разных уровней, видимое изображение будет неясным, зашумленным и размытым. Также и в случае переживания эмоций лучше одновременно быть и веселым, и смеяться.

Все это не дает ответа на вопрос, что значит чувствовать, и когда можно будет признать (и можно ли будет), что робот не просто имитирует моторику, характерную для эмоций человека или животных, на деле лишь «хладнокровно» оптимизируя соответствующие числовые значения, а действительно переживает их. Может, компьютерные персонажи, снабженные «электронными гормонами», уже радуются и страдают? Или, может, все переживания — лишь атавизм биологической эволюции, без воспроизведения которого вполне можно решить проблему понимания (семантического обоснования) моральных и нравственных понятий? Все эти вопросы только начинают серьезно рассматриваться в рамках ИИ, и на них пока еще ответов нет. Но, несмотря на некоторую загадочность факта переживания эмоций, их функциональное назначение, как отмечалось, вполне понятно из эволюционных соображений. Базовые эмоции направляют поведение интеллектуального агента, обеспечивая его выживание, в связи с чем не могут быть сформированы в онтогенезе (если, конечно, агент не помещен после рождения в «тепличные условия» на достаточный промежуток времени, чтобы успеть накопить нужную информацию). Это одна из многих причин, почему эволюция представляет отдельный интерес для области ИИ.