Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
— Инженер: Я изобрёл новую вещь. Я называю её шариковой ручкой

— Народ в твиттере: О боже, люди могут писать с её помощью ужасные вещи, такие как дезинформация, пропаганда, разжигание ненависти. Запретить немедленно!
— Пишущие думеры [3088]: представьте, что каждый может получить шариковую ручку. Это может разрушить общество. Должен быть принят закон, запрещающий использование шариковой ручки для написания разжигающих ненависть высказываний. Введите регулирование применения шариковых ручек немедленно!
— Магнат карандашной индустрии: да, шариковые ручки очень опасны. В отличие от текста, написанного карандашом, который можно стереть, написанное шариковой ручкой остаётся навсегда. Правительство должно ввести лицензирование для производителей ручек [3089].
В начале апреля 2023 г. Лекун и Бенджио опубликовали получасовое видео с обсуждением идеи шестимесячного моратория (сойдясь на том, что такой мораторий является явно неудачной идеей), современной медийной шумихи вокруг ИИ и моды на ИИ‑думерство [3090].
С иронией воспринимают угрозу скорого захвата мира сверхинтеллектом Йошуа Бенджио [3091] (что не мешает ему серьёзно относиться к ИИ-рискам и подписывать открытые письма на эту тему), руководитель Алленовского института искусственного интеллекта (Allen Institute for AI, AI2) Орен Этциони [3092] и руководитель исследовательского отдела Microsoft Эрик Хорвитц [3093].
Известный американский предприниматель, инженер и изобретатель Марк Андриссен, сооснователь венчурного фонда «Андриссен Хоровиц» [Andreessen Horowitz], также яростно критикует ИИ-думеров. Он считает, что руководители технологических компаний заинтересованы в продвижении думерских взглядов, потому что они «могут заработать больше денег, если будут возведены нормативные барьеры, которые приведут к формированию картеля одобренных правительством поставщиков ИИ, защищённых от конкуренции с новыми стартапами и с [проектами с] открытым исходным кодом». Также Андриссен пишет, что экспертам по безопасности ИИ, специалистам по этике ИИ и исследователям рисков ИИ «платят за то, чтобы они были думерами, и их заявления должны восприниматься должным образом». Ссылаясь на статью [3094] в The Atlantic, в которой собрана большая коллекция высказываний инженеров и учёных, Андриссен подчёркивает, что многие лидеры в области исследований ИИ, этики, доверия и безопасности выразили явное несогласие с думерской повесткой дня и вместо этого сосредоточились на снижении сегодняшних задокументированных рисков ИИ-технологий. Андриссен с оптимизмом смотрит в будущее и утверждает, что ИИ может стать «способом сделать лучше всё, о чём мы заботимся» [3095]. Андриссен опубликовал небольшое эссе, в котором приводит краткий анализ нарративов, сформировавшихся в отношении проблематики ИИ-рисков, рассуждает о стоящих за их формированием социальных группах, а также об элементах правильной, по его мнению, политики в отношении развития ИИ [3096], [3097].
Основатель Facebook Марк Цукерберг также не разделяет пессимизма в отношении прогресса ИИ: «Я настроен оптимистически, — говорит он в одном из своих стримов, сопровождая рассуждения приготовлением барбекю. — Что до тех людей, которые испытывают скепсис [в отношении ИИ] и пытаются раздуть все эти сценарии судного дня, — я их просто не понимаю. Это совершенно неконструктивно, и в некотором смысле я считаю это довольно безответственным <…> Всякий раз, когда я слышу, как люди говорят, что искусственный интеллект причинит людям боль в будущем, я думаю, что да, вы знаете, технологии, как правило, всегда можно использовать как во благо, так и во вред, и вы должны быть осторожны при их разработке, должны внимательно относиться к тому, что именно вы создаёте, и как это будет использоваться, — развивает свою мысль Цукерберг, — Но я не понимаю людей, которые выступают за замедление прогресса в области ИИ, эта идея кажется мне весьма сомнительной» [3098].
Американский предприниматель Крис Николсон, сооснователь компании Skymind и один из авторов фреймворка Deeplearning4j, высказался на этот счёт более афористично: «Для людей из мира технологий рассуждения об искусственном интеллекте — это кокаин: они возбуждают и вызывают ничем не обоснованную паранойю» [Thinking about AI is the cocaine of technologists: it makes us excited, and needlessly paranoid] [3099].
Кто же прав? И что же следует делать человечеству в данной ситуации?
7.1.3 Варианты преодоления рисков развития ИИ
В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний» [3100].
Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.
Лично мне такой путь представляется не слишком реалистичным.
Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.
Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.
Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:
Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.
Похожие книги на "Охота на электроовец. Большая книга искусственного интеллекта", Марков Сергей Николаевич
Марков Сергей Николаевич читать все книги автора по порядку
Марков Сергей Николаевич - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mir-knigi.info.