Злой рок. Политика катастроф - Фергюсон Ниал
Ознакомительная версия. Доступно 34 страниц из 166
Могут быть и другие, даже более крупные сюрпризы. Вторжение пришельцев, столь любимое сторонниками теорий заговоров и писателями-фантастами, – это самый маловероятный сценарий[1568]. Космические расстояния кажутся слишком большими. Из внеземных угроз куда более вероятны те, что вызваны флуктуациями солнечной или звездной активности, скажем корональные выбросы массы или вспышка гамма-излучения от сверхновой или «гиперновой»[1569]. Можно представить новый удар астероида, меняющий климат планеты[1570]. Или ее поглощение крошечной черной дырой. Страпельки, или «странглеты» (strangelets) – гипотетические частицы, состоящие из субатомных кварков, – могли бы запустить превращение всей обычной материи на Земле в «странную материю». А фазовый переход вакуума способен привести к экспоненциальному расширению Вселенной[1571].
Помимо этих экзогенных угроз есть и разнообразные технологии, созданные или создаваемые нами как видом – и способные уничтожить нас как вид. Мир всегда был уязвим, а мы только усилили его уязвимость[1572]. С конца 1950-х годов человеческая раса получила возможность совершить самоубийство – или по меньшей мере причинить себе катастрофический вред – с помощью ядерного оружия. Ядерная война между двумя крупными державами или масштабный теракт с применением ядерной бомбы могли бы за несколько часов унести больше жизней, чем COVID-19 за восемь месяцев, причем без какой-либо скидки на молодость. Вслед за ядерной войной наступит ядерная зима, из-за которой большая часть планеты станет непригодной для жизни[1573]. Биологическое оружие, подобное тому, которое намеревался создать СССР, вызвало бы такие же катастрофические последствия, если бы его намеренно или случайно применили[1574]. Генная инженерия – более современная инновация, но и ее, как и ядерную энергию, можно обратить во зло. Человек совершил революционное открытие, поняв, что гены можно редактировать при помощи белка Cas9 и «коротких палиндромных повторов, регулярно расположенных группами» (CRISPR), которые определяют ДНК[1575]. Но у редактирования генома есть огромный недостаток: в отличие от расщепления атома, он очень дешево обходится. «Домашняя лаборатория генного инженера» в 2020 году стоила всего 1845 долларов[1576]. Нет, не стоит бояться, что кто-то создаст «высшую расу», – просто по ошибке можно произвести нежеланную модификацию, которая будет тут же готова к воспроизводству[1577].
В сфере компьютерных технологий новые опасности тоже или уже возникли, или могут возникнуть в самом ближайшем времени. «Интернет вещей» создал множество уязвимостей, и если вдруг разразится тотальная кибервойна, то важнейшая инфраструктура, объединяющая энергетику, командование, руководство и коммуникации страны, может выйти из строя – полностью или отчасти[1578]. Системы искусственного интеллекта уже свободно учатся обыгрывать чемпионов-людей в шахматы или го. Впрочем, появления общего искусственного интеллекта – компьютера, не уступающего человеку в разумности, – вероятно, не стоит ждать еще лет пятьдесят. Элиезер Юдковский, глава Исследовательского института машинного интеллекта (MIRI) в Беркли, утверждает, что мы можем непреднамеренно создать недружественный или аморальный ИИ, который восстанет против нас: например, мы велим ему остановить изменение климата, а он придет к выводу, что оптимальное решение – это уничтожить Homo sapiens. Юдковский предупреждает о видоизмененном законе Мура: каждые полтора года минимальный IQ, необходимый для уничтожения человечества, снижается на один пункт[1579]. А самый свежий из кошмарных сценариев такой: нанотехнология (производство на молекулярном уровне) приводит к какому-нибудь самовозобновляющемуся и неостановимому процессу, из-за которого мы все тонем в море вязкой жижи[1580]. Одна смелая попытка установить вероятность всех этих катастроф, потенциально гибельных для человечества, расценивает возможность последнего исхода как 1 к 6[1581]. Вся наша жизнь оказывается «русской рулеткой», причем на курок случайным образом жмут самые разные пальцы.
Многие предлагали способы, как уберечь человечество от гибели и саморазрушения, признавали, что в своем нынешнем виде лишь считаные национальные правительства готовы выделять значимые ресурсы на то, чтобы обезопасить людей от катастроф с неопределенной вероятностью и сроком, – а может, делать это не готов и вовсе никто[1582]. Одно из предложений заключалось в том, чтобы внедрять «официальных Кассандр» в правительства, международные организации, университеты и корпорации, а также учредить «Национальную службу предупреждений», которая определяла бы наихудшие сценарии, оценивала риски и разрабатывала стратегии их снижения, предотвращения или смягчения последствий катастроф[1583]. Было и другое предложение: «…замедлить темпы развития опасных технологий относительно темпов развития защитных технологий» – при этом еще и следовало убедиться, что люди, задействованные в разработке новой технологии, обязуются использовать ее во благо, а не во зло, – и «улучшать возможности внутригосударственного управления, необходимые для того, чтобы с чрезвычайно высокой надежностью предотвращать любые попытки отдельных личностей или небольших групп… совершить серьезное противоправное деяние»[1584].
Но если задуматься, какой ценой удастся этого достичь, она сама по себе окажется экзистенциальной угрозой: придется создать «высокотехнологичную тюрьму» в комплекте с беспрерывной «охраной порядка, осуществляемой путем вездесущего надзора… эффективное глобальное управление [и] некий механизм наблюдения и принуждения, который позволит пресекать попытки совершения каких-либо деструктивных действий»[1585]. Это дорога в тоталитарный мир – причем технологии, позволяющие создать глобальное полицейское государство, существуют уже сейчас. Экономист Брайан Каплан сказал об этом так: «У будущего есть один особенно страшный сценарий, в котором чрезмерный страх Судного дня, став основополагающим принципом мирового правительства, мостит дорогу к непредвиденной мировой катастрофе: тоталитаризму. Те, кто призывает страны всего мира объединиться против опасностей, грозящих человечеству, должны рассмотреть возможность того, что само это объединение представляет собой еще более опасную угрозу»[1586]. А вот что говорит израильский историк Юваль Ной Харари: «…как только мы начнем полагаться на искусственный интеллект в выборе образования, места работы и супруга, человеческая жизнь перестанет быть драмой принятия решений… Теперь мы создаем прирученных людей, которые производят огромное количество данных и функционируют как высокопроизводительные чипы в машине обработки информации»[1587]. По его словам, развитие искусственного интеллекта обрекает человечество на новый тоталитаризм, делая «устаревшими» и либеральную демократию, и экономику свободного рынка. Скоро мы станем дойными коровами для данных[1588]. Но даже эта безрадостная перспектива, возможно, слишком оптимистична. Послужной список тоталитарных режимов свидетельствует, что те не только доят своих илотов, но и убивают их.
Миры-антиутопии
Всем этим потенциальным катастрофам мы можем приписать лишь нами же придуманную степень вероятности. Но как тогда их предвидеть? Лучший ответ, видимо, такой: их нужно вообразить. В течение последних двухсот лет, со времен Мэри Шелли, этим занимались писатели-фантасты. И смертоносная эпидемия – лишь одна из многих форм, которую обретал в их фантазиях конец человечества.
Антиутопии читаются как история будущего. И в этом есть явное противоречие. На самом деле независимо от того, к чему стремились авторы – высмеять, бросить вызов, высказать предостережение или просто развлечь, – воображаемые антиутопии отражали страхи своего времени, а если точнее, опасения литературной элиты. И мы, изучая научную фантастику, можем понять тревоги прошлого, которые порой сами сыграли немалую роль в истории. Рэй Брэдбери как-то сказал: «Я не предсказываю будущее. Я его предотвращаю»[1589]. Но на многие ли политические решения повлияли антиутопические фантазии? И часто ли эти решения оказывались мудрыми? Скажем, в основе политики умиротворения отчасти таился преувеличенный страх: англичане боялись, что люфтваффе может учинить в Лондоне такие же разрушения, как марсиане в романе Уэллса. Конечно, в большинстве случаев никакие кошмарные видения не склоняли политиков к принятию превентивных мер. Однако научная фантастика иногда становилась источником вдохновения. Когда пионеры Кремниевой долины пытались представить, для чего может пригодиться интернет, они часто обращались за идеями к таким писателям, как Уильям Гибсон и Нил Стивенсон. Ни одна современная дискуссия о последствиях использования искусственного интеллекта не обходится без хотя бы одной отсылки к фильмам «Космическая одиссея 2001 года» и «Терминатор». И почти в любой беседе о робототехнике упоминают рассказ Филипа Дика «Мечтают ли андроиды об электроовцах?» – или снятый по мотивам этого рассказа фильм «Бегущий по лезвию».
Ознакомительная версия. Доступно 34 страниц из 166
Похожие книги на "Злой рок. Политика катастроф", Фергюсон Ниал
Фергюсон Ниал читать все книги автора по порядку
Фергюсон Ниал - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mir-knigi.info.