2062: время машин - страница 24



Точно так же безразличие сверхинтеллекта к людям исключает возможность того, что он будет покровительствовать нам. Вообще говоря, «покровительствовать» – не самое удачное слово. С одной стороны, с позиции превосходящего интеллекта он может относиться к нам как к детям, которых необходимо опекать. С другой стороны, мы ведь будем его «родителями», которых также нужно опекать в качестве благодарности за то, что мы подарили ему жизнь. Обе стороны этой медали – причины, по которым ИИ вряд ли будет к нам безразличен.

Стоит ли нам волноваться?

Все эти экзистенциальные риски основываются отчасти на том, что сверхинтеллект будет очень быстро развиваться. В этом случае у нас останется мало шансов распознать угрозу заранее и предотвратить ее. Однако, как мы убедились, есть множество причин верить, что технологическая сингулярность никогда не случится. Если всё действительно так, то ИИ будет развиваться медленно. Мы начнем постепенно создавать все более продвинутые системы. Большинство моих коллег уверены, что до появления сверхинтеллекта у нас еще есть десятки лет, если не века; если они правы, то нам хватит времени подготовиться.

Кроме того, вас может успокоить тот факт, что за последнее десятилетие был создан исследовательский комитет, посвященный проблеме безопасности в сфере ИИ. Частично основанные благодаря гранту Илона Маска размером в десять миллионов долларов, в США, Великобритании и других странах работают группы специалистов, которые ищут технические способы избежать тех рисков, о которых я рассказал выше. В свете этих исследований я убежден, в ближайшее время нам не грозит уничтожение от рук ИИ.

Тем не менее мы не можем полностью исключать экзистенциальной угрозы, которую несет появление сверхинтеллекта. Однако разумнее было бы, вероятно, сосредоточиться на тех угрозах нашему виду, которые имеют более реальный характер, а также на более насущных (но менее опасных) проблемах, связанных с искусственным интеллектом. Вам необязательно верить мне на слово, когда я утверждаю, что ИИ – не самая страшная экзистенциальная угроза человечеству. Опрос пятидесяти нобелевских лауреатов, проведенный журналом Times Higher Education в 2017 году, показал, что искусственный интеллект проигрывает в этой борьбе климату, росту населения, атомной войне, болезням, эгоизму, невежеству, терроризму, фундаментализму и Дональду Трампу.

«Пари Паскаля»

Представим ненадолго, что сверхинтеллект все же появится. Даже если это произойдет спустя столетие или больше, люди вроде Илона Маска и Ника Бострома утверждают, что нам стоит об этом беспокоиться. Они боятся, что ИИ станет еще большей угрозой для человечества, чем ядерная война, глобальное потепление и другие актуальные проблемы планеты. Их страх – потерять контроль над машинами, что приведет к намеренному или ненамеренному уничтожению нашего вида.

Мне кажется, что их мнение в некотором смысле подчинено философскому аргументу, придуманному Блезом Паскалем. Паскаль, который родился в 1623 году, а умер в 1662-м, был французским философом, математиком и физиком. В своих посмертно опубликованных «Мыслях»[39] он выдвинул аргумент о необходимости веры в Бога, получивший известность как «пари Паскаля».

Условия выглядят следующим образом. Бог либо существует, либо нет, а вам нужно решить, что из этого верно. Так или иначе вам приходится выбирать, ведь от этого зависит ваша судьба. Даже если вы не будете делать ничего, вы окажетесь на одной из двух сторон.