Почему роботы никогда не захватят мир?

Несмотря на кровавые заголовки, объективные данные показывают, что люди во всем мире в среднем живут дольше, болеют меньше, потребляют больше пищи, тратят больше времени в школе, имеют больше доступа к культурным источникам, а также менее вероятными становятся возможности смерти на войне, убийства или смерти из-за несчастного случая.

Но отчаяние вечно. Когда пессимистам приходится признать, что жизнь становится все лучше и лучше для все большего числа людей, у них наготове уже припасено возражение. Мы с улыбкой движемся в сторону катастрофы, говорят они, как человек, который перед тем как сброситься с крыши, поднимался этаж за этажом и говорил: «Пока все хорошо». Или мы играем в русскую рулетку, и когда-нибудь проиграем. Или мы будем ослеплены черным лебедем, событием с четырьмя сигма далеко в хвосте статистического распределения опасностей, с низкими шансами, но с катастрофическим ущербом.

В течение полувека четырьмя всадниками современного апокалипсиса были перенаселение, нехватка ресурсов, загрязнение природы и ядерная война. К ним недавно присоединилась кавалерия более экзотических рыцарей: нано боты, которые нас поглотят, роботы, которые поработят нас, искусственный интеллект, который превратит нас в сырьевые материалы.

Защитниками от знакомых всадников, как правило, были романтики и луддиты. Но те, кто предупреждает о высокотехнологичных опасностях, часто являются учеными и технологами, которые используют свою изобретательность, чтобы идентифицировать все больше способов, которыми может закончится существование мира. В 2003 году астрофизик Мартин Рис опубликовал книгу под названием «Наш последний час», в которой он предупредил, что «человечество потенциально является создателем собственной кончины» и изложил несколько десятков способов, которыми мы «угрожаем будущему всей вселенной». Например, эксперименты с коллайдерами могут создать черную дыру, которая уничтожила бы Землю, или «странность» сжатых кварков, которая заставила бы все материю в космосе связываться с ней и исчезнуть. Рис вскрыл богатую жилу катастрофизма. На странице книги в Amazon отмечается: «Клиенты, которые просматривали этот товар, также просматривали «Риски глобальных катастроф»; «Наше последнее изобретение: искусственный интеллект и конец человеческой эры»; «Конец: что наука и религия говорят нам об Апокалипсисе» и «Вторая мировая война Z: устная история войны с зомби». Техно-филантропы финансировали научно-исследовательские институты, занимающиеся открытием новых экзистенциальных угроз и выясняя, как спасти мир от них. В их числе такие организации, как «Будущее человечества», Институт «Будущее жизни», Центр изучения экзистенциального риска и Институт глобальных катастроф.

Что мы должны думать об экзистенциальных угрозах, которые скрываются за нашим неторопливым прогрессом? Никто не может пророчествовать, что катаклизма никогда не произойдет, и в этом письме нет такой уверенности. Изменение климата и ядерная война, в частности, являются серьезными глобальными проблемами. Хотя они не решены, они разрешимы, и были разработаны дорожные карты для долгосрочной декарбонизации и денуклеаризации. Эти процессы идут полным ходом. Мир выделяет меньше углекислого газа за доллар валового внутреннего продукта, а мировой ядерный арсенал сократился на 85 процентов. Конечно, хотя для предотвращения возможных катастроф они должны быть доведены до нуля.

Сценарии гибели человечества вследствие новых «Всадников Апокалипсиса», однако, не выдерживают никакой критики. Несколько экспертов по технологиям предположили об опасности того, что мы будем подчиняться, преднамеренно или случайно, искусственным интеллектом (AI), бедствием, которое иногда называют Робопокалипсис и обычно иллюстрируются кадрами из фильмов Терминатора. Некоторые ученые воспринимают это всерьез. Илон Маск, чья компания делает автомобили с искусственным интеллектом, назвал технологии «более опасными, чем ядерное оружие». Стивен Хокинг, выступая через свой синтезатор речи, предупредил, что он может «предсказать конец человеческой расы». Те умные люди, которые все же не теряют сна, — это в большинстве своем эксперты в области искусственного и человеческого интеллекта.

Робопокалипсис основан на нечеткой концепции интеллекта, которая во многом обязана Великой Цепи Бытия и ницшеанской воле к власти, чем современному научному пониманию. В этой концепции интеллект — это всесильное, мощное средство, которым все обладают в разных количествах.

У людей он больше, чем у животных, а компьютеры или искусственный интеллект (ИИ) будущего будут иметь еще больше интеллекта, чем люди. Поскольку мы, люди, использовали наш ум, чтобы одомашнить или уничтожить менее одаренных животных (и поскольку технологически развитые общества порабощены или уничтожены технологически примитивными), из этого следует, что супер-умный ИИ сделает то же самое с нами. Поскольку ИИ будет думать в миллионы раз быстрее, чем мы, и использовать свой супер-интеллект, чтобы рекурсивно улучшить свою суперинтеллекцию с момента его включения, мы будем бессильны остановить его.

Но в этом сценарии есть несколько ошибок, которые легко проиллюстрировать примером: поскольку реактивные самолеты превзошли способности орлов к полету, это не значит, что когда-нибудь они спустятся с небес и захватят наш крупный рогатый скот. Первая ошибка — это путаница интеллекта с мотивацией, а убеждений с желаниями, выводов с целями, мышления с желанием. Даже если бы мы изобрели роботов со сверхчеловеческим интеллектом, почему они должны захотеть поработить своих хозяев или захватить мир? Интеллект — это способность развертывать новые способы достижения цели. Но цели посторонние для интеллекта, такие как умения — это не то же самое, что и желание чего-то. Так получилось, что интеллект в одной системе, Homo sapiens, является продуктом дарвиновского естественного отбора, неотъемлемого конкурентного процесса. В мозгу этого вида рассуждение приходит в комплекте (в разной степени в разных экземплярах) с такими целями, как доминирование соперников и накопление ресурсов. Но ошибочно путать цепь в лимбической системе определенного вида приматов с самой природой интеллекта. Искусственная интеллектуальная система, которая была спроектирована, а не эволюционировала, могла так же легко мыслить, как Шму – альтруист в комиксе Лила Абнера , который использует свою изобретательность, чтобы приготовить барбекю на благо людей-едоков. Не существует закона сложных систем, согласно которому интеллектуальные агенты должны превращаться в безжалостных конкистадоров.

Вторая ошибка — думать о интеллекте как о безграничном континууме потенции, о чудесном эликсире, обладающем способностью решать любую проблему, достигать любой цели. Ошибочность приводит к бессмысленным вопросам, например, «когда ИИ превысит уровень человеческого интеллекта?», и к образу «искусственного глобального интеллекта» (AGI) с богоподобным всеведением и всемогуществом. Интеллект — это приспособление гаджетов: программные модули, которые получают или запрограммированы с помощью знаний о том, как преследовать различные цели в разных областях. Люди умеют находить пищу, завоевывать друзей и влиять на людей, очаровывать предполагаемых товарищей, воспитывать детей, путешествовать по миру и преследовать другие человеческие навязчивые идеи. Компьютеры могут быть запрограммированы для решения некоторых из этих проблем (например, распознавания лиц), а не для того, чтобы беспокоиться о других (как это делают няньки), также компьютеры могут решать и другие проблемы, которые люди не могут решить (например, имитировать климат или сортировать миллионы учетных записей).

Проблемы разные, и знания, необходимые для их решения, также различны. В отличие от демона Лапласа, мифического существа, которое знает местоположение и импульс каждой частицы во Вселенной и подставляет их в уравнения для физических законов, чтобы вычислить состояние всего в любое время в будущем, реальный знаток должен получить информацию о грязном мире вещей и людей. Понимание не подчиняется закону Мура: знание приобретается путем формулирования объяснений и тестирования их против реальности, а не путем выполнения алгоритма быстрее и быстрее. Поедание информации в Интернете не даст никакой ясности: большие данные по-прежнему являются конечными данными, а вселенная знания бесконечна.

По этим причинам многие исследователи AI раздражены последним кругом шумихи, который ввел в заблуждение наблюдателей, считающих, что общий искусственный интеллект не за горами. Насколько я знаю, нет проектов по созданию AGI, и не только потому, что это будет коммерчески сомнительным, но также и потому, что концепция едва согласована. В 2010-ом году мы, конечно же, привнесли в науку системы, которые могут управлять автомобилями, делать подписи к фотографиям, распознавать речь и выигрывать людей в играх «Danger!», «Gо» и «Аtari».

Но прогресс объясняется не более глубоким пониманием работы мышления, а скорее мощью чипов и большими данными, что позволяет программам обучаться на миллионах примеров и обобщать их в аналогичные новые. Программа фото-субтитров подписывает фото надвигающейся авиакатастрофы: «самолет припаркован на асфальте»; компьютер начинает ошибаться, когда изменяются правила подсчёта очков. Хотя программы, безусловно, улучшаются, никаких признаков конца света нет. Также ни одна из этих программ не сделала шаг к тому, чтобы завладеть лабораторией или поработить своих программистов.

Даже если AGI пыталась использовать волю к власти, без сотрудничества с людьми, она оставалась бы импотентным мозгом в ограниченном пространстве. Программист Рамез Наам сдувает пузырьки, окружающие робопокалипсис, технологическую сингулярность и экспоненциальное самосовершенствование:

«Представьте, что вы супер-интеллектуальный ИИ, работающий на каком-то микропроцессоре (или, возможно, на миллионах таких микропроцессоров). В одно мгновение вы придумали дизайн для еще более быстрого и мощного микропроцессора, на котором вы можете работать. Теперь … валяйте, действуйте! Фактически вы должны изготовить эти микропроцессоры. Фабрики изготовления затрачивают огромную энергию, они также используют материалы, импортируемые со всего мира. Им требуются воздушные шлюзы, фильтры, все виды специализированного оборудования для обслуживания и т. д. Все это требует времени и энергии для приобретения, транспортировки, интеграции, строительства жилья, испытания и производства электростанций. Реальный мир встал на пути вашей спирали самопревосхождения».

Реальный мир мешает многим цифровым апокалипсисам. Когда HAL-9000 становится взволнован, Дэйв отключает его с помощью отвертки, оставляя его поющим «Bicycle Built for Two» («2001: Космическая Одиссея»). Конечно, всегда можно представить Компьютер Судного дня, который злонамерен, универсален, всегда включен и защищен от несанкционированного доступа. Способ справиться с этой угрозой прост: не строить её.
Поскольку перспектива злых роботов стала казаться слишком комичной, чтобы воспринимать её всерьез, новый цифровой апокалипсис был замечен экзистенциальными опекунами.

Опасность, иногда называемая проблемой выравнивания ценности, заключается в том, что мы могли бы дать ИИ цель, а затем беспомощно стоять в стороне, поскольку она неуклонно и буквально исполняла бы эту цель по-своему, а наши интересы были проигнорированы. Если бы мы дали ИИ цель поддержания уровня воды за плотиной, то он мог бы наводнить город, не заботясь о людях, которые утонули. Если бы мы дали ему цель сделать скрепки для бумаг, он мог бы превратить всю доступную вселенную в скрепки для бумаг, включая наши владения и тела. Если бы мы попросили его максимизировать человеческое счастье, он мог бы контролировать нас всех с помощью внутривенных дофаминовых капель или переделать наши мозги, чтобы мы были счастливы сидеть в баночках или, если бы он был обучен концепции связи счастья с фотографиями улыбающихся лиц, покрыл бы галактику триллионами наноскопических изображений смайликов.
Не я придумал это. Это сценарии, которые якобы иллюстрируют экзистенциальную угрозу для человеческого рода со стороны передового искусственного интеллекта. К счастью, они не работают. Они могут быть возможны, если:

1) Люди будут настолько продвинутыми, что смогут проектировать всезнающий и всемогущий ИИ, но настолько тупыми, что дадут ему контроль над Вселенной без проверки того, как это работает.

2) Люди так запрограммируют ИИ, что он не сможет правильно их понять.

Интеллект — это способность интерпретировать намерения пользователя языка в контексте. Только в комедийных фильмах робот может в ответ на команду «убери свет», достать пистолет и перестрелять все лампочки в помещении. Так что, нам с вами нечего бояться даже через 300 лет, когда технологии в этой области, вероятно, уже достигнут технологической сингулярности.

Одним из отличий интеллекта человеческого от интеллекта компьютерного является гибкое мышление, о котором мы рассказывали в одном из наших прошлых материалов.