Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
Более прямолинейные суждения можно услышать от икон высокотехнологического бизнеса. Например, в июне 2014 г. Илон Маск заявил, что создание продвинутых систем ИИ может привести к воплощению в жизнь сюжета фильма «Терминатор», и предупредил, что, если человечество не предпримет необходимых мер, чтобы обезопасить разработку, уже через пять лет планету может ожидать появление реальной SkyNet [3067].
Не останавливаясь на отсылке к кинобоевику, в октябре того же года на симпозиуме MIT Маск задействовал религиозные аналогии: «Разрабатывая ИИ, мы призываем демона. Знаете, все эти истории, где есть парень с пентаграммой и святой водой? Он уверен, что сможет управлять демоном, но это не так» [3068].
В целом Маск характеризует ИИ как «самую большую угрозу существованию человечества» [biggest existential threat] [3069]. Правда, вполне возможно, что Маск со своей вульгарной риторикой не столько выражает своё мнение, сколько стремится привлечь внимание аудитории, что для него обычное дело.
Однако помимо упомянутых нами учёных, некоторые высказывания которых могут быть интерпретированы в технопессимистическом ключе, существуют и публичные персоны, поддерживающие идею ограничения развития технологий путём отказа от «нашего стремления к определённым родам знаний». К их числу относятся, например, американский писатель, автор книги «Хватит: оставаясь человеком в спроектированный век» (Enough: Staying Human in an Engineered Age) и сторонник антитехнологического «движения за отказ» [relinquishment movement] [3070] Билл Маккиббен, а также американский учёный в области теории вычислительных систем Билл Джой.
Хотя в своих работах ни Джой, ни Маккиббен не требуют запрета всех исследований в области ИИ, другими исследователями их позиция нередко трактуется именно в таком ключе. Например, именно так трактует эти идеи Билл Хиббард, исследователь из Висконсинского университета в Мадисоне и автор множества исследований, посвящённых рискам, связанным с развитием ИИ [3071], [3072].
Ещё дальше пошёл американский математик и социальный критик, бывший старший преподаватель Калифорнийского университета в Беркли Теодор Качинский, печально известный ныне как Унабомбер (Unabomber, сокращение от University and airline bomber — подрывник университетов и авиалиний). Не ограничившись одной лишь пропагандой неолуддитских идей, в период с 1978 по 1995 г. Качинский разослал по почте 16 посылок с бомбами, целью которых были университеты, авиалинии и магазины компьютерной техники. Итогом стала гибель трёх (владелец компьютерного магазина, руководитель отдела рекламы и лоббист лесной промышленности) и ранение 23 человек. Среди получивших тяжёлые ранения были профессор Калифорнийского университета в Беркли Диогенес Ангелакос, профессор Мичиганского университета Джеймс Макконнелл, профессор Йельского университета Дэвид Джелернтер, ряд других сотрудников университетов.
В 1995 г. Качинский отправил в газету The New York Times письмо, в котором обещал отказаться от рассылки бомб, если в The New York Times или The Washington Post будет опубликован его манифест. Чтобы избежать жертв, ФБР рекомендовало опубликовать текст, что и было исполнено. Манифест Унабомбера, озаглавленный «Индустриальное общество и его будущее» (Industrial Society and Its Future), помимо позаимствованных позже Брейвиком рассуждений об опасности левых идей, содержит пространные рассуждения о том, как развитие технологий приводит ко всё большему порабощению людей. Террорист также анализирует различные сценарии развития человечества, один из которых, по его мнению, завершится порабощением человечества разумными машинами [3073]. Билл Джой писал: «Качинский действовал кровожадно и, по моему мнению, невменяемо. Он несомненно является луддитом, но простое указание этого факта не отклоняет его аргументацию; как ни тяжело мне было это осознавать, но в рассуждениях, изложенных в этом единственном отрывке, я видел некоторую логику. Я чувствовал необходимость противостоять ей» [3074].
К сожалению, подобная риторика, отчасти легализующая нарративы Унабомбера, содержит в себе потенциальную опасность, поскольку расширяет границы допустимого противодействия ИИ-рискам. Хотя современные настроения в обществе трудно назвать технофобскими, никто не может поручиться за то, что ситуация не изменится в одночасье, как это произошло в случае антипрививочного движения, которое получило в последние десятилетия широкое распространение в развитых странах. Кто знает, на какие крайности окажутся способны люди, чьи страхи подпитываются заявлениями в духе отсылок к «Терминатору» или парню с пентаграммой?
Ситуация особенно обострилась вслед за запуском ChatGPT — впечатляющая демонстрация возможностей современных генеративных моделей привлекла к себе огромное внимание общественности и послужила «спусковым крючком» для ряда публичных заявлений. Под влиянием «момента ChatGPT» некоторые учёные пересмотрели свои прогнозы в отношении ожидаемых темпов развития технологий ИИ. И у некоторых из них это, похоже, привело к экзистенциальному кризису. Вот что, например, говорит известный американский физик и информатик Дуглас Хофштадтер:
Для меня это [быстрый прогресс в области ИИ] довольно страшно, потому что это говорит о том, что всё, во что я раньше верил, отменяется. <…> Я думал, что пройдут сотни лет, прежде чем появится что-то весьма отдалённо похожее на человеческий разум, что асимптотически приблизится к уровню человеческого интеллекта, причём снизу. Я никогда не представлял, что компьютеры будут соперничать с человеческим интеллектом или даже превосходить его. Это была настолько далёкая цель, что я не беспокоился об этом. А потом это начало происходить всё быстрее, недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали сдаваться… <…> Я думаю, что [прогресс ИИ] ужасает. Я ненавижу его. Я думаю об этом практически всё время, каждый божий день. <…> Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей — возникает некий ужас перед надвигающимся цунами, которое застанет врасплох всё человечество. Неясно, будет ли это означать конец человечества в том смысле, что системы, которые мы создадим, уничтожат нас, неясно, так ли это, но вполне возможно. Если нет, то это просто превращает человечество в очень маленькое явление по сравнению с тем, что гораздо более разумно, чем мы, и что станет для нас непостижимым в той же мере, как мы непостижимы для тараканов [3075], [3076].
22 марта 2023 г. на сайте некоммерческой организации «Институт будущего жизни» [Future of Life Institute] было опубликовано открытое письмо с призывом ко всем ИИ-лабораториям приостановить как минимум на шесть месяцев обучение более мощных моделей, чем GPT-4. По мнению авторов письма: «Системы искусственного интеллекта, способного конкурировать с человеческим, могут представлять серьёзную опасность для общества и человечества в целом…»
Авторы письма ссылаются на «Принципы работы с ИИ», разработанные в ходе конференции в Асиломаре (Калифорния, США) 2017 г., в которых, в частности, говорится: «продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности». Авторы письма констатируют, что к их глубокому сожалению «такого уровня планирования и управления в настоящее время не существует, в то время как в последние месяцы ИИ-лаборатории застряли в неконтролируемой гонке по разработке и развёртыванию всё более мощных цифровых умов, которые никто — даже их создатели — не могут понять, предсказывать или надёжно контролировать».
Похожие книги на "Охота на электроовец. Большая книга искусственного интеллекта", Марков Сергей Николаевич
Марков Сергей Николаевич читать все книги автора по порядку
Марков Сергей Николаевич - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mir-knigi.info.