Загадка нервных клеток

Способность человека научиться почти чему угодно еще более поразительна, чем способность компьютера выполнить любой алгоритм. В конце концов, компьютеры преднамеренно создавались универсальными, а вот способность человека научиться играть в шахматы, раскладывать числа на простые сомножители или сочинять музыку может показаться в высшей степени неестественной. И вправду, для выживания в природной среде все эти навыки вряд ли могут пригодиться. Зачем же уметь им учиться? Конечно, у человека нет специфического умения учиться, скажем, играть в шахматы (хотя, возможно, есть такие генетически заложенные умения, как обучение языку). Просто мозг, как и универсальная машина Тьюринга, может выполнять любые алгоритмы (с ограничением, правда, на вычислительные ресурсы). Такое решение для природы также оказалось проще, чем путь постоянного усложнения мозга с добавлением в него все новых и новых частных алгоритмов. Конечно, в случае с человеком речь идет о способности не только выполнить любой алгоритм, но и самостоятельно его сформировать. Видимо, и здесь природе удалось найти какое-то сравнительно универсальное решение, которое пока не известно человеку (хотя оно и работает в его мозгу). Удивительные способности мозга все время обращают на себя внимание специалистов по ИИ. Такое внимание объяснимо, поскольку эти способности никак не удается в полной мере воспроизвести на компьютере.

Обучаемость человека связывают с пластичностью мозга, наиболее явно проявляющуюся (если не считать пластичности на макроуровне — регенерации мозга после повреждений) в изменении связей между нейронами при обучении. Конечно, нейроны у многих животных ничем принципиально не отличаются от нейронов мозга человека. Основное отличие состоит в структуре самого мозга, эволюционное развитие которой (при сравнительно малой изменчивости нейронов) и привело к возникновению человеческого интеллекта. Также и совершенствование интеллектуальных компьютерных систем происходит за счет развития их структуры, алгоритмов, в основе которых лежит небольшой набор базовых операций. Однако не только человек, но и животные обладают способностью к обучению, превосходящей даже современные компьютеры с новейшими программами. Может, нейроны обладают какими-то свойствами, делающими их гораздо более пригодными для задач обучения? Посмотрим, что же собой представляют биологические нейроны.

По своей внутренней структуре нейроны не сильно отличаются от прочих клеток организма. Они содержат ядро, в котором присутствуют хромосомы со стандартным для всего организма набором генов (правда, многие гены «работают» только в мозгу), развитый цитоскелет, а также прочие органеллы (например, митохондрии). Само тело нейрона шарообразной формы, но имеет множество отростков, соединяющихся с отростками других нейронов, что и составляет основное внешнее отличие нервных клеток от прочих клеток. Один из этих отростков называется аксоном. Он передает выходные сигналы от своего нейрона другим нейронам. Прочие отростки — дендриты. Они обычно соединяются с аксонами других нейронов и получают от них входные сигналы для своего нейрона. Схема связей нейрона показана на рисунке.

Дендриты относительно короткие — менее миллиметра, в то время как аксоны могут быть весьма длинными — более метра, что по меркам клеточного мира очень много. Правда, часто их длина тоже составляет доли миллиметра. Дендриты обычно бывают весьма разветвленными, и один дендрит может получать сигналы от многих аксонов. Сами аксоны ветвятся ближе к концу и могут соединяться не только с дендритами, но и с телами других нейронов. Весь нейрон — его тело, аксон и дендриты — окутан единой клеточной мембраной, которая и выполняет функции взаимодействия с другими клетками. В местах соединения нейронов их мембраны не соприкасаются. Соединение и взаимодействие клеток осуществляются через синапс — особое пространство между двумя мембранами. При этом клетка, от которой по аксону идет сигнал к синапсу, называется пресинаптической, а клетка, которая принимает этот сигнал (синапс примыкает к ее дендриту или телу), — постсинаптической.

formula_15

 

Число клеток в мозгу велико — порядка 10^12, — но не больше, чем во многих других внутренних органах, в которых разум почему-то не зародился. Кроме того, нейронов в мозгу лишь около 10^11, т. е. всего сто миллиардов, причем в коре головного мозга порядка 10^10 нейронов. Кроме нейронов в мозге присутствуют нейроглиальные (или просто глиальные) клетки, которых на порядок больше, чем нейронов (т. е. 10^12). Глиа заполняет пространство между нейронами, в связи с чем говорят, что она выполняет опорную функцию: даже само название глии связано со словом «клей» (англ. слово «glue» происходит от греч. «glia»). Кроме того, глиа через межклеточную жидкость осуществляет питание нейронов (так называемая трофическая функция).

Поскольку число клеток в мозге не больше, чем в других органах, сложность мозга лучше видна по числу связей в нем. Ведь каждый нейрон связан в среднем более чем с тысячей других нейронов, что дает 10^14–10^15 связей в мозгу. Насколько это много? Способов реализации этого числа связей очень много: даже каждый отдельный нейрон может установить связи с соседями примерно 10^300 способами. Число возможных связей между нейронами мозга (как и число комбинаций основ ДНК) часто сравнивают с числом атомов во Вселенной, так же, как и уже упоминавшееся число возможных партий в шахматы. Еще раз необходимо отметить некорректность этого сравнения. Применительно к нейронным сетям это вводит в крайнее заблуждение, будто мозг сложнее Вселенной, что, естественно, совершенно неверно. Ведь и оперативная память компьютера (не говоря уже о прочих накопителях) лишь в 4 гигабайта может находиться свыше чем в 10^1 000 000 числе разных состояний — невообразимо большое число, на многие порядки превосходящее физический объем Вселенной, даже выраженный в кубических нанометрах. В действительности, емкость мозга, подсчитанная лишь на основе числа связей, не принципиально превосходит емкость памяти компьютеров (и по разным оценкам составляет сотни или тысячи терабайт). Само по себе, однако, число ячеек памяти не добавляет интеллектуальности компьютеру, как и число клеток — некоторому органу.

Число связей в мозгу (и соответствующее быстродействие) в сравнении с современными компьютерами велико, но обозримо. Принципиальное значение имеет не столько число связей, сколько их структура. Также и более мощный компьютер без программного обеспечения будет полностью бесполезен по сравнению с менее мощным компьютером, но с нужным программным обеспечением. В связи с этим пластичность связей между нейронами (определяющая самостоятельное совершенствование «программного обеспечения» мозга) приобретает особый интерес, и можно ожидать, что где-то в них кроется ответ на загадку обучения и мышления. Тогда нужно обратиться к исследованию не конкретной структуры мозга, а функционирования отдельных нейронов.

Но как работает нейрон? Достаточно давно было замечено, что нейрон может находиться в одном из двух состояний — покоя и возбуждения. В состоянии возбуждения нейрон начинает посылать по аксону нервные импульсы, создающие определенную разность электрических потенциалов. Интересно, что «сила» импульсов не зависит от степени возбуждения клетки, но клетка начинает посылать импульсы только после достижения определенного уровня возбуждения. А уровень возбуждения клетки зависит от уровня возбуждения других клеток, от которых ей поступают импульсы на вход. Немаловажно и то, что есть тормозные синапсы: сигнал от пресинаптической клетки, проходящий через такой синапс, не увеличивает уровень возбуждения постсинаптической клетки, а уменьшает его.

Первая известная математическая модель нейрона была предложена МакКаллоком и Питтсом в статье 1943 года (в русском переводе статья появилась в 1956 году под заголовком «Логическое исчисление идей, относящихся к нервной деятельности»). Авторы полагали, что нейрон действует по принципу «все-или-ничего»: он активируется в том случае, если его одновременно возбуждают другие нейроны в количестве, большем заданного порога (взаимное расположение синапсов при этом роли не играет). Если сигнал приходит через хотя бы один тормозной синапс, то нейрон не активируется. Возбужденный нейрон начинает сам передавать сигналы по своему аксону на связанные с ним нейроны. Авторы не рассматривали такие временные характеристики работы нейронов, как, например, скорость распространения нервных импульсов (которая в действительности может варьироваться в диапазоне от 0,1 до 10 м в секунду). Вместо этого предполагалось, что нейроны работают синхронно, по тактам, и информация от каждого возбужденного нейрона передается на следующем такте.

Крайне важно понять, что подобные модельные нейроны способны делать. Как показали авторы, с помощью сети из таких нейронов можно реализовать любую формулу логики высказываний. Кроме того, как чуть позже показал Клини, любой конечный автомат (машину Тьюринга частного типа — без неограниченной памяти) можно воплотить в форме такой сети, но не более того. С одной стороны, этот результат показывает, что на нейронных структурах могут выполняться алгоритмы частного типа. Значит, связь машины Тьюринга и мышления проявляется не только на уровне доказательства математических теорем, но и на уровне нейронов. Важность этого факта трудно переоценить: ведь он дает ключ, без которого интерпретация нейрофизиологических данных крайне затруднительна. Попробуйте отбросить понятия информации и алгоритмов (которые в середине XX века в их математической формулировке только входили в научный обиход, причем их использование в нейрофизиологии и психологии нередко подвергалось жесткой критике) и представить, как без них будет выглядеть анализ структуры нервной ткани! Между физическим или химическим описанием работы нейрона и его ролью в реализации высших психических функций лежит пропасть, преодоление которой без помощи понятия алгоритма было бы вряд ли возможно. Но, с другой стороны, возникает вопрос, не упущено ли в данной модели что-то важное: ведь нельзя же так просто признать мозг всего лишь большим конечным автоматом?

Вскоре стало ясно, что возбуждающие синапсы должны иметь различную «проводимость», т. е. входы от разных нейронов должны суммироваться с разными весами. Соответствующие принципы открыли Алан Ходжкин и Эндрю Хаксли в 1952 году (за что им совместно с Джоном Эклсом в 1963 году была присуждена Нобелевская премия). Сейчас хорошо известно, что как снаружи, так и внутри нервной клетки, присутствует большое число солей, растворенных в воде и находящихся в диссоциированном состоянии, т. е. в виде ионов, среди которых основными являются ионы хлора, натрия, калия и кальция. Клеточная мембрана нейрона содержит миллионы (задумайтесь над этим числом с учетом общего количества клеток мозга!) «микропор», клапанов и насосов.

Все поры — это белковые трубки, пронизывающие мембрану (состоящую из жиров), через которые могут поступать и выделяться разные вещества. Это целые механизмы, которые могут либо просто открываться или закрываться, либо прокачивать через себя вещество, затрачивая на это энергию. Их работа не случайна, а управляется разными факторами. Например, закрытие некоторых пор может осуществляться при возникновении определенной разности потенциалов снаружи и внутри клетки или при поступлении некоторых веществ. При этом поры зачастую пропускают только определенные ионы. К примеру, есть калиевые насосы, натриевые клапаны и т. д.

Обычно насос не просто закачивает внутрь клетки ионы одного вида, но «обменивает» их на ионы другого вида. В частности, на мембране все время работают насосы, которые обменивают ионы калия (попадающие внутрь нейрона) на ионы натрия (выводящиеся наружу). Одновременно с этим открыты калиевые клапаны: через них ионы калия выходят обратно из клетки, стремясь уравновесить концентрацию калия снаружи и внутри. Но как только ионы начинают выходить через клапаны, возникает разность потенциалов: положительных ионов снаружи становится больше, и они препятствуют выходу новых положительно заряженных ионов. Наступает состояние равновесия, в котором снаружи клетки положительно заряженных ионов несколько больше, т. е. имеется разность потенциалов, составляющая примерно 0,07 вольта (говорят, что мембрана поляризована). Именно так обстоит дело, когда нейрон находится в состоянии покоя.

Если вдруг в каком-то месте мембраны откроются натриевые клапаны, ионы натрия, выкачанные насосами наружу, устремятся внутрь клетки, тем самым деполяризуя мембрану (выравнивая заряды снаружи и внутри клетки). Интересно, что достаточно сильная деполяризация мембраны приводит к дополнительному открытию натриевых клапанов, что приводит к дальнейшему усилению деполяризации мембраны. После открытия всех натриевых клапанов потенциал становится реверсивным (заряд внутри оказывается больше, чем снаружи, а разность потенциалов составляет примерно 0,04 вольта). Таким образом, если начальная деполяризация является достаточно сильной, процесс оказывается самоусиливающимся. Он начинает распространяться как волна от области начальной деполяризации (находящейся обычно на теле нейрона) по всей его мембране — вдаль от тела нейрона по аксону. Интересно, что натриевые клапаны быстро закрываются после своего открытия и некоторое время не способны открываться вновь. В результате в этом месте деполяризация мембраны восстанавливается (этому способствует еще и дополнительное открытие калиевых клапанов), а «волна» реверсивного потенциала может распространяться только в том направлении, где натриевые клапаны еще не открывались. Позади же волны остаются области с только что закрывшимися клапанами. Так формируется нервный импульс, представляющий собой перемещение области деполяризации с разностью потенциалов, не зависящей от величины начальной деполяриации мембраны на теле клетки.

Когда импульс доходит до синапсов, из окончаний аксона в синаптическую щель высвобождаются химические вещества, которые в результате диффузии перемещаются к мембране (дендриту или телу) постсинаптической клетки. Выделение этих веществ, называемых нейромедиаторами (существуют десятки разных нейромедиаторов), возникает как реакция на деполяризацию соответствующего окончания. В постсинаптической мембране есть специализированные белковые рецепторы, которые реагируют на соответствующие нейромедиаторы, приводя к открытию тех или иных клапанов. Например, в зависимости от того, будут ли при этом открываться калиевые или натриевые клапаны, соответствующий синапс будет возбуждающим или тормозящим. Кроме типа открываемых пор может меняться и их количество, т. е. синапсы действительно могут обладать разной «проводимостью», которая может меняться.

Открытие небольшого числа клапанов обычно не является достаточным для самоусиливающейся деполяриации мембраны, и возбуждение постсинаптического нейрона остается на подпороговом уровне (а открывшиеся каналы закрываются спустя несколько миллисекунд). Однако, если поступают сигналы сразу через несколько возбуждающих синапсов, открывается большее число клапанов и мембрана может деполяризоваться в достаточной степени, чтобы начались генерироваться нервные импульсы. Иными словами у нейрона есть некоторый «порог срабатывания».

Несмотря на сложность механизмов распространения нервных импульсов, все выглядит так, будто нейрон действительно просто суммирует с разными весами входящие сигналы и сам начинает посылать импульсы, если входной уровень сигнала больше некоторого порога. Даже в конце 1980-х годов Нобелевский лауреат Дэвид Хьюбел в своей книге «Глаз. Мозг. Зрение» писал о нейронах, как клетках, суммирующих или интегрирующих поступающую к ним от других нейронов информацию и передающих ее дальше по принципу «все или ничего».

Следует лишь отметить, что выход нейрона нельзя считать бинарным, поскольку возбужденный нейрон генерирует целую серию импульсов. И если «сила» импульсов не зависит от начального уровня возбуждения нейрона, то их частота тем больше, чем сильнее возбуждение. А чем больше частота выходных импульсов, тем больше их суммарное воздействие на постсинаптические нейроны. Правда, нейроны не могут посылать импульсы чаще, чем 1000 раз в секунду, так как в силу закрытия натриевых клапанов примерно на 1 мс наступает так называемый период рефрактерности. Заметим, что если число импульсов, проходящих через связи между нейронами мозга, считать за число выполняемых им операций, то производительность мозга составит сотни петафлопсов и будет сопоставимой с производительностью современных суперкомпьютеров (хоть мозг, потребляющий порядка 30 Вт, оказывается заметно более «высокотехнологичным»). При этом большинство ученых полагает несущественным ни распределение импульсов по времени (кроме их числа в среднем), ни распределение их в пространстве, задаваемое взаимным расположением синапсов. В связи с этим учесть частоту импульсов в модели нейрона достаточно просто — нужно лишь заменить активационную функцию, которая переводит суммарный сигнал на входе в сигнал на выходе. Вместо ступенчатой функции, равной нулю до некоторого порога и единице — после, активационную функцию можно сделать и более гладкой, но также ограниченной сверху максимальной частотой импульсации.

Так что же, нейрон — это «пороговый сумматор», несмотря на все свое сложное устройство? Конечно, если углубляться в детали работы нейрона, то возникнет впечатление, что математическая модель нейрона к реальности отношения не имеет. Но в моделях всегда выделяется лишь самое значимое. В конце концов, многие процессы в других клетках тела также сложны, но с мышлением не связаны, поэтому интересны модели нейрона, в которых описываются не все особенности его устройства и работы, а лишь те, которыми он отличается от прочих клеток. Поверим пока, что формальный нейрон воспроизводит, если уж не «внутреннюю жизнь» реального нейрона, то хотя бы его функцию по обработке информации.

Теперь у нас есть искусственные (формальные) нейроны. Осталось взять их побольше, соединить в сеть, которая начнет самообучаться, в результате чего зародится компьютерный разум. Несмотря на наивную абсурдность такой точки зрения, она достаточно распространена, причем не только в фантастике. А действительно, что полезного можно сделать с помощью искусственных нейронов?..