Технологическая сингулярность

Мало кто способен отрицать взрывное развитие техники. Если обычная продукция дорожает из-за инфляции, то многие виды высокотехнологичной продукции преодолевают эту тенденцию и дешевеют, при этом характеристики их улучшаются. Для классической экономики это парадоксально. Представьте себе фермера, который выращивает все более хорошую картошку и продает ее все дешевле!

Многие виды высокотехнологичной продукции для большинства людей появляются совершенно неожиданно, поначалу являясь предметом роскоши, но постепенно становясь общедоступными. Так было с электрическими лампочками, телевизорами, мобильными телефонами. Так происходит с бытовыми роботами. Технические новинки все быстрее появляются и все быстрее устаревают. Их полные возможности уже нередко игнорируются многими взрослыми как необязательные для жизни и осваиваются лишь детьми. Можно было бы привести много примеров, но они очень быстро устареют. Дальнейшее увеличение темпов развития техники приведет к тому, что люди просто не будут успевать ею овладевать и она просто не будет востребована.

Наиболее ярко развитие техники проявляется на примере компьютеров. Широко известен закон Мура об удвоении мощности компьютеров (числа транзисторов на кристалле) раз в 18–24 месяца, предложенный в 1965 году. О том, как долго этот закон будет выполняться (и выполняется ли сейчас), до сих пор идут споры. Нередко говорится о физических ограничениях на скорость распространения сигналов, размеры элементов, энерговыделение из-за необратимости вычислений и т. д. Производители идут на разные хитрости для того, чтобы поддержать выполнение этого закона, например на создание многопроцессорных систем. Производительность наиболее мощных суперкомпьютеров продолжает удваиваться примерно раз в 1,5 года. Ведь нарушение этого закона будет рассматриваться как прекращение прогресса в компьютерной технике, которое считается нежелательным, несмотря на то, что из накопленных вычислительных мощностей людьми используется сейчас ничтожная часть.

Сходная ситуация еще раньше проявилась в науке. Рост числа научных журналов, конференций и публикуемых статей экспоненциальный. Ученые давно не успевают прочитать не просто все научные статьи, но даже статьи в своей области. Как определить, какие из множества статей стоит изучить? Можно опираться лишь на мнение других ученых. Как результат, научное сообщество пытается как-то «самоорганизоваться». В частности, стал широко использоваться такой показатель, как индекс цитирования, определяющий так называемый импакт-фактор журналов. Казалось бы, журналы, статьи из которых много цитируются, должны содержать лучшие материалы. Но посмотрите: ученые будут цитировать лишь те статьи, которые прочитали, а читать они будут статьи в журналах с высоким импакт-фактором. Получается система с положительной обратной связью: чем больше у журнала импакт-фактор, тем больше его статьи цитируют, и наоборот. Кроме того, чем больше у журнала импакт-фактор, тем больше авторов там захочет опубликовать свои работы. Само качество статей здесь как будто ни при чем. Импакт-фактор журналов сродни высоте деревьев в лесу. Конечно, в журналы, в которые поступает большее количество статей, могут отбираться лучшие из них. Но как определить лучшие статьи до того, как с ними познакомится научное сообщество (которое как раз не успевает в равной мере познакомиться со всеми статьями)? Выше мы видели не один пример, когда статьям с фундаментальными открытиями было отказано в опубликовании в рецензируемых журналах. Выходит, в журналах с высоким импакт-фактором будет отдаваться предпочтение статьям, которые будут понятны максимально широкой аудитории ученых. Таким образом, проблема эффективного распространения действительно важных новых научных знаний остается нерешенной и все более усугубляется.

Складывается впечатление, что ограниченные возможности самого человека скоро станут (если уже не стали) основным ограничением научно-технического прогресса (хотя полезная занятость мозгов людей столь же низка, как и компьютеров). Окажется ли этот прогресс кратковременной вспышкой, быстро возникшей и также быстро потухшей? На этот вопрос можно было бы дать положительный ответ, если бы текущее развитие техники не было лишь одним из многих подобных событий в эволюции.

Так, иногда возникают сомнения, что человеческий разум произошел от обезьяньего. Ведь до этого эволюция шла миллиарды лет, и животные умнели как будто медленно. А потом за «ничтожное» время — в тысячи раз меньшее длительности предыдущей эволюции — произошел настоящий «взрыв» разума. Почему он вдруг произошел? Да и мог ли он вообще произойти? Но обратите внимание: «взрыв» технологий имеет сходные характеристики. Его продолжительность составляет тысячные доли от длительности существования человечества.

Экспоненциальный рост — достаточно заурядное событие как в научно-техническом, так и в эволюционном развитии. Возрастание сложности генотипов в процессе эволюции, видимо, можно считать экспоненциальным, но период удвоения их сложности составлял около сотни миллионов лет. После того как возникла нервная система, сложность ее также стала возрастать экспоненциально с периодом удвоения в десятки миллионов лет. На этом фоне возникновение человеческого разума — лишь один из этапов, характеризующийся более коротким периодом удвоения сложности, чем предыдущие этапы.

Также и отличие закона Мура лишь в том, что время удвоения производительности компьютеров является много меньше времени жизни человека, поэтому воспринимается им как весьма короткое. И до этого происходили события, сопровождающиеся экспоненциальным ростом сложности информационных систем. В качестве таких событий можно назвать изобретение письменности, а позднее — книгопечатания, за которыми следовал экспоненциальный рост количества сохраняющейся в данной форме информации с периодами удвоения в сотни и десятки лет соответственно. Да и после компьютерного «взрыва» уже появлялись системы с экспоненциальным ростом сложности. К таким системам относится Интернет, период удвоения сложности которого составил всего несколько месяцев.

Экспоненциальный рост числа элементов в этих системах похож на «разрастание предпоследнего уровня» перед метасистемным переходом, после которого появляется новый системный уровень. Кстати, экспоненциальное развитие науки отмечал и Турчин. Но в дополнение к самому факту метасистемных переходов здесь в глаза бросаются динамика и временные характеристики этих процессов. Помимо того, что на каждом уровне происходит экспоненциальное возрастание сложности, период удвоения после каждого метасистемного перехода сокращается, а также сокращается время между последующими переходами.

Эта ситуация очень похожа на сокращение периода между бифуркациями на диаграмме логистического отображения, рассмотренного выше. За конечное время количество бифуркаций у этого отображения оказывается бесконечным. Подобное поведение известно для систем с нелинейной (самоусиливающейся) положительной обратной связью и носит название режимов с обострением. Также и число метасистемных переходов может оказаться бесконечным за конечное время. Гипотетическая точка, в которой сложность информационных систем оказывается бесконечной, получила название технологической сингулярности.

Идею о достижении техническими системами бесконечной сложности за конечное время высказал Вернон Виндж в начале 90-х годов прошлого века. Исходно эта идея иллюстрировалась примерно следующим рассуждением. Пусть быстродействие компьютеров удваивается раз в 16 месяцев. Представим себе искусственный разум человеческого уровня. Через 16 месяцев этот разум будет перенесен на процессоры, в два раза более быстрые, в связи с чем сможет разработать процессоры нового поколения в два раза быстрее, т. е. за 8 месяцев. Через 8 месяцев он будет мыслить в два раза быстрее и разработает следующее поколение процессоров еще в два раза быстрее, т. е. за 4 месяца. И так далее. Менее чем через еще один год производительность процессоров устремится в бесконечность.

Это рассуждение уязвимо для критики: узким местом для увеличения темпов удвоения мощности процессоров станет не скорость их разработки, а скорость совершенствования технологической базы (построение фабрик для реализации новых технологий). Еще ярче эта проблема видна на другой самоускоряющейся технологии — генной инженерии. Гипотетически возможно такое усовершенствование генома человека, которое приведет к усилению его мыслительных процессов. Более умные люди смогут еще сильнее и быстрее улучшить геном следующего поколения. И так далее. Несмотря на это, бесконечного ускорения развития достигнуть не удастся из-за ограниченной скорости эмбрионального развития: следующее поколение не сможет появляться мгновенно. Однако сама идея нелинейной положительной обратной связи здесь проиллюстрирована весьма точно. Требуется лишь уточнить, что увеличение сложности информационных систем должно происходить не путем простого увеличения быстродействия компьютеров (или человеческого мозга), а путем цепочки метасистемных переходов со сменой типа прогрессирующих информационных систем.

Сейчас концепция технологической сингулярности рассматривается не просто как результат локального технического прогресса, но как результат всей предыдущей эволюции, для которой можно построить кривую возрастания сложности информационных систем. Разные авторы немного по-разному строят эту кривую в зависимости от выбора того параметра, который отражает сложность систем, а также от того, какие метасистемные переходы принимаются за основные. Легче всего оценивается информационная емкость систем, в связи с чем рассматривается смена носителей информации: гены, нервная система, книги, компьютеры, для которых мы уже отмечали характерные времена удвоения сложности. Конечно, для каждого из этих носителей имело место множество промежуточных метасистемных переходов разной значимости.

При появлении нового типа носителей информации уже не так важно, продолжается ли экспоненциальное усложнение предыдущего уровня. Ведь период удвоения следующего уровня существенно меньше, поэтому он за короткое время обгонит по сложности предыдущий уровень. Так произошло с генами: исходно нервная система была гораздо менее вместительной, чем геном, но относительно быстро емкость мозга превысила емкость генома. Сейчас уже не столь важно (в смысле возрастания сложности), идет ли биологическая эволюция (вернее, накапливается ли новая информация в генах), поскольку скорость развития новых информационных систем несоизмеримо выше. То же произошло и с человеческим мозгом: его емкость, возможно, и продолжает увеличиваться, но это происходит слишком медленно на фоне новых носителей информации. Аналогичное заключение можно сделать и относительно компьютеров: не так важно, продолжит ли выполняться закон Мура, если компьютеры перестанут быть «передним фронтом глобальной эволюции». В этой связи формулируется общий закон возрастания сложности, гласящий, что время удвоения сложности каждого нового типа информационных систем так же, как и время возникновения новых типов систем, сокращается в некоторое число раз.

Интересно, что во всех случаях: генотип, мозг, книги, компьютеры, — до возникновения нового вида информационных носителей наблюдается однотипный сценарий интеграции носителей предыдущего уровня. Когда наибольшей емкостью обладали генетические системы хранения информации, возникновение полового размножения привело к возможности обмена информацией между разными генотипами. Вместо генотипов единой информационной системой стали генофонды (включающие разные комбинации генов одного вида). При развитии мозга возник язык как способ обмена информацией между разными нервными системами, и единой информационной системой стал социум. Письменность, позволившая информацию, накапливаемую нервными системами, переводить в более долговечную форму, дополнилась книгопечатаньем (хотя, возможно, появление библиотек, содержащих в себе разные книги, является более корректной иллюстрацией к интеграции информации на данном уровне). Очевидно, роль Интернета для компьютеров такая же, как и роль скрещивания для генов или языка для отдельных нервных систем. Таким образом, исчерпание возможности экспоненциального роста производительности компьютеров вовсе не будет являться преградой на пути к следующему глобальному метасистемному переходу. Вероятнее, это будет индикатором скорого появления принципиально нового «переднего фронта эволюции».

Новый метасистемный переход — это еще не сингулярность. Сингулярность возникает в результате каскада переходов со все уменьшающимся периодом. Однако о ближайшем переходе можно высказать хоть какие-то предположения. Футурологи предлагают несколько основных сценариев возникновения сингулярности, связанных с так называемыми сингулярными технологиями, к которым относят самоприменимые технологии типа информационных технологий (особенно искусственного интеллекта), биотехнологий (особенно генной инженерии), а также нанотехнологий (особенно наноассемблеров). Эти технологии могут участвовать в подготовке метасистемного перехода как независимо (например, в форме возникновения автономного искусственного разума), так и совместно (например, в форме считывания структуры человеческого мозга с помощью нанороботов и загрузки его в компьютер с последующим возникновением коллективного сознания на основе сети Интернет). Во всех этих сценариях, правда, дальнейшая эволюция так или иначе связана с развитием интеллекта. В своих сценариях футурологи, конечно, выходят далеко за рамки науки — в область фантазии (высказываются даже мысли о непосредственном объединении сознаний людей, число которых приближается к числу клеток мозга, в связи с чем иногда вспоминается так называемый резонанс Шумана, связанный со стоячими электромагнитными волнами между поверхностью и ионосферой Земли, частота которых близка к альфа-ритму человеческого мозга). Однако реальность, вероятно, окажется иной и превзойдет самое смелое воображение, которому сейчас для предсказания не хватает знаний.

В частности, футурологами, как и фантастами, искусственный интеллект обычно изображается очень похожим на человеческий. Конечно, всегда вводятся какие-то отличия. ИИ обычно показывают менее творческим, эмоциональным и т. д., но более логичным, хорошо считающим, с лучшей памятью. Эти различия (которые могут оказаться неверными для настоящего ИИ) лишь подчеркивают то, что человеку ИИ удается представить как немного искаженный образ своего собственного мышления. В то же время, вероятно, развитие интеллекта будет сопровождаться далеко не только улучшением аппаратных характеристик.

Поскольку мы с трудом представляем себе следующий метасистемный переход, предсказать, какую форму примет каскад таких переходов, просто невозможно. Но можно ли, построив кривую возрастания сложности, предсказать хотя бы примерный момент наступления сингулярности? Эта оценка в зависимости от способа ее выполнения несколько отличается у разных исследователей. Наиболее «оптимистично» настроенные авторы приводят оценки, соответствующие примерно 2020 году. Более осторожные авторы относят момент наступления сингулярности вплоть до 2050 года. Мало кто из авторов, верящих в реальность сингулярности, относит ее на заметно более поздние годы. Сейчас наступление столь глобального события в столь короткие сроки звучит фантастично, но, вероятно, не более фантастично, чем современность представилась бы нашим предкам. Кроме того, человеческий разум просто не привык оперировать даже экспоненциальными зависимостями (при обсуждении NP-полных задач уже приводился пример о листе бумаги, сложенном пополам 50 раз подряд). Мы здесь не будем углубляться в эти оценки, которые порой бывают спорными. Важен сам факт того, что промежутки времени между метасистемными переходами сокращаются, и если эта тенденция сохранится, технологическая сингулярность наступит в обозримое время.

Однако именно вопрос о сохранении тенденций является наиболее спорным. С одной стороны, отрицание сингулярности в основном опирается на наличие чисто физических ограничений на максимальную производительность информационных систем. Но эти оценки говорят лишь о сомнительности возможности достижения истинно бесконечной сложности. С другой стороны, отсутствуют содержательные модели, обосновывающие неизбежность последующих метасистемных переходов. В этой связи можно полагаться лишь на эмпирический закон возрастания сложности. Из индуктивного вывода мы знаем, что продолжение любой последовательности нельзя предсказать однозначно: могут быть выдвинуты разные гипотезы. Сингулярность (как следствие сокращения периода между последующими переходами) — наиболее простая (по форме графика) и вероятная гипотеза, но это не значит, что она окажется истинной. Сложность модели, в которой промежутки времени между последующими метасистемными переходами начнут увеличиваться, и кривая сложности симметрично изогнется, лишь немного выше, т. е. ее вероятность незначительно меньше. Конечно, и в этом случае изгиб кривой возрастания сложности будет являться особой точкой, знаменующей изменение характера всего эволюционного развития, но такая особая точка для человечества будет не столь заметна.

С последующими метасистемными переходами (даже без наступления сингулярности) связана опасность того, что человек перестанет принимать участие в дальнейшем развитии. Так, раз возникнув, ИИ человеческого уровня очень быстро станет несопоставимо умнее человека. Другие сценарии также несут опасность потери человеком контроля над дальнейшим развитием, что вряд ли может считаться желательным. Однако официальный запрет на разработки в сфере всех сингулярных технологий (что имеет место в действительности по отношению к клонированию человека в некоторых странах) и тем более разгром отдельных лабораторий (как это иногда представляется в фантастике) вряд ли может остановить развитие и даже просто существенно повлиять на его динамику. Глобальность закона возрастания сложности, действие которого началось задолго до появления человека, заставляет поверить в объективность процессов повышения сложности систем и неизбежность последующих метасистемных переходов вне зависимости от воли человека. Конечно, сейчас именно люди реализуют эти переходы. Так, компьютеры были изобретены вполне конкретными учеными. Упрощенно говоря, практическая неизбежность переходов связана с тем, что если изобретение не будет сделано одними исследователями, то будет сделано другими. На что могут повлиять люди, так это на то, во что воплотятся последующие переходы. Ведь любые самоусиливающиеся процессы, особенно режимы с обострением, характеризуются крайней нестабильностью, возможностью разрушения системы. В этой связи к исследованиям в области ИИ необходимо отнестись со всей серьезностью. Не удивительно, что упоминавшаяся концепция дружественного ИИ разрабатывается именно в Институте сингулярности искусственного интеллекта (Singularity Institute for Artificial Intelligence), созданном на рубеже тысячелетий с целью снижения соответствующих рисков.

Даже если истинная сингулярность не наступит, а связанные с нею риски преувеличены, закон возрастания сложности представляет несомненный интерес. Если сам факт существования человеческого разума можно было списать на естественный отбор, антропный принцип или акт творения, то для объяснения конкретной закономерности возрастания сложности этих концепций уже недостаточно. Этот закон однозначно свидетельствует о том, что наш разум возник как промежуточная стадия неких глобальных процессов, которые можно интерпретировать как самооптимизирующийся поиск. Само человеческое мышление является не только продуктом, но и средством осуществления этого поиска, точнее, одним из его уровней. Интересна обратная связь между уровнями: возможность сознательного улучшения генома аналогична обсуждавшемуся эффекту адаптивного резонанса в восприятии и мышлении. Человека можно было бы считать очередным изобретением эволюции, позволяющим эффективнее вести поиск в пространстве геномов. Однако сама биологическая эволюция является лишь одной, хотя и большой, эпохой в глобальной эволюции, которая включает самоорганизацию на физическом и химическом уровнях, а также технический прогресс. В этой связи не исключена возможность распространения «эволюционного адаптивного резонанса» и на более глубокие уровни (вплоть до оптимизации самих физических законов), но здесь мы опять входим в область чистых догадок.

Кривую возрастания сложности можно пытаться продолжить не только в будущее, но и в прошлое. Вселенной потребовалось свыше 10 миллиардов лет, чтобы появилась Земля с зародившейся на ней жизнью (мы, правда, не знаем, не возникала ли она где-то раньше). Сложность начальных репликаторов оценивается в сотни бит. Десяти периодов удвоения сложности продолжительностью в миллиард лет каждый хватило бы для возникновения этих репликаторов. Такой период удвоения сложности молекул в несколько раз больше периода удвоения сложности генотипов, что вполне соответствует характеристикам предыдущего уровня. Мы упоминали и о возможных промежуточных метасистемных переходах, отделяющих обычные молекулы от современных ДНК-репликаторов. Однако образование атомов и простейших молекул, информационная емкость которых может быть определена по числу состояний, в которых они могут находиться, возросла очень быстро после Большого взрыва, в связи с чем некоторые исследователи полагают, что наша Вселенная образовалась с некоторой «априорной информацией» об этих системах, и привлекают идею множественности вселенных (мультиверса) для объяснения источника этой информации. В такой модели начальный слепой перебор вариантов выполняется на уровне вселенных с разными физическими законами, выступающих своего рода генами вселенных.

Эта гипотеза совместима с некоторыми физическими теориями, в частности, с М-теорией, являющейся обобщением разных версий теории суперструн. Также гипотеза мультиверса связана с многомировой интерпретацией квантовой механики Эверетта, на основе которой Д. Дойч развивает идею квантовых компьютеров (что описано в его книге «Структура реальности»). Интуитивно эта гипотеза кажется привлекательной, поскольку «объясняет» происхождение значений физических констант, да и типов взаимодействия в нашей Вселенной. Как еще можно ответить на вопрос, почему в нашей Вселенной именно такие, а не другие, физические законы? И почему эти законы так точно подобраны для обеспечения возможности возникновения жизни? Ведь, как предполагается, незначительное изменение некоторых констант привело бы, например, к невозможности термоядерного горения гелия в звездах, в результате чего не образовывались бы более тяжелые химические элементы и жизнь стала бы вряд ли возможна. Идея мультиверса хоть и не имеет на данный момент проверяемых следствий (т. е. остается вне научных рамок), дает непротиворечивый ответ на поставленные вопросы.

Концепция мультиверса также дает свой ответ на следующую проблему. Слишком многие данные наблюдений свидетельствуют о том, что наша Вселенная имела некоторое начало. Сюда относится, в первую очередь, множество астрономических данных, подтверждающих теорию Большого взрыва. Такие феномены, как реликтовое излучение или увеличение красного смещения галактик с расстоянием, указывают на расширение Вселенной. Более того, в звездах преимущественно «выгорают» легкие химические элементы  и не наблюдается процессов, в которых бы эти элементы восстанавливались, что свидетельствует о необратимом изменении химического состава Вселенной. С учетом конечной скорости этого изменения Вселенная в известном нам виде не могла существовать бесконечно долго, т. е. она должна иметь начало. Однако очень сложно себе представить, что до возникновения Вселенной ничего не было. Ведь если не было ничего, то не было и времени. Человек же может представить себе возникновение чего-либо только как событие во времени, в связи с чем возникновение самого времени выглядит парадоксальным (хотя может просто свидетельствовать об ограниченности человеческого мышления). Гипотеза мультиверса устраняет этот парадокс, постулируя существование некоторого вечного пространства, в котором в произвольные моменты времени возникают вселенные наподобие той, в которой мы живем. Есть и другое решение этого парадокса в рамках модели единственной Вселенной, которая периодически (бесконечно длительное время) претерпевает стадии разлета после Больших взрывов и последующего сжатия.

Закон возрастания сложности усугубляет эту проблему. Продолжение этого закона в прошлое и будущее упирается в две крайние точки — Большой взрыв (точнее, состояние с минимальной сложностью информационных систем) и технологическую сингулярность. В отличие от гипотетического гравитационного коллапса Вселенной, технологическая сингулярность не подразумевает бесконечной смены циклов рождения и гибели Вселенной. Возможное бесконечное существование мультиверса плохо укладывается и в конечные временные рамки наступления сингулярности.

Концепция развития вообще плохо уживается с идеей отсутствия парадоксального «начала времени». Ведь и у Гегеля (введшего эту концепцию в философию) развитие «мирового разума» имеет начало и конец. Последний связывается философом с осознанием «мировым разумом» себя через учение самого Гегеля (хотя, если уж и трактовать глобальную эволюцию как процесс познания «мировым разумом» себя, то окончание этого процесса нужно связать с технологической сингулярностью). Конечно, кривую возрастания сложности можно продолжить и на любое время назад: если считать, что сложность систем может быть любым дробным числом меньше одного бита, то эта кривая будет просто асимптотически приближаться к нулю при времени, стремящемся к минус бесконечности (что, правда, выглядит немного надуманно). В противном случае, нужно признать либо то, что вся реальность действительно существует конечное время, либо то, что возрастание сложности является локальным по времени, и никакого глобального развития на большем интервале времени в действительности нет (к примеру, вся информация, накопленная Вселенной в текущем цикле, уничтожается при переходе на следующий цикл).

Не исключено также, что все это не более чем метафора. Создание искусственного интеллекта, являющегося одной из наиболее вероятных следующих ступеней на пути глобального эволюционного процесса, возможно, позволит хоть немного приблизиться к ответу на эти вечные вопросы.