Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
Ещё больше осложняет проблему то, что исследователи, двигающие вперёд разработку универсального ИИ, часто работают над чем-то ещё. Как я уже замечал, изучение инструментального ИИ — специализированных безобидных приложений наподобие игровых программ, медицинской диагностики и планирования путешествий — часто ведёт к развитию методов универсального характера, применимых к широкому спектру других задач, и приближает нас к ИИ человеческого уровня.
Рассуждая о возможности свёртывания исследований в области ИИ, Рассел пишет: «Как большинство исследователей ИИ, я содрогаюсь при мысли об этом. Кто смеет указывать мне, о чём можно думать и о чём нельзя? Любой, кто предлагает покончить с изучением ИИ, должен быть очень убедительным. Прекратить исследования ИИ означало бы отказаться не просто от одного из главных путей к пониманию того, как устроен человеческий разум, но и от уникальной возможности улучшить положение человека — создать намного более совершенную цивилизацию. Экономическая ценность ИИ человеческого уровня измеряется в тысячах триллионов долларов, и следует ожидать колоссального импульса на продолжение этих исследований со стороны корпораций и властей. Он пересилит туманные возражения философа, как бы тот ни почитался в качестве «обладателя особого знания», по выражению Батлера» [3101], [3102].
Какой же тогда путь снижения рисков следует избрать?
Надо заметить, что большая часть обеспокоенных экзистенциальными ИИ-рисками учёных не являются сторонниками таких радикальных мер, как введение ограничений на исследования в области ИИ. Тот же Бостром, например, предлагает организовать мониторинг развития в этой области, расширить международное сотрудничество между командами, занимающимися исследованиями в области ИИ (чтобы избежать «гонки вооружений» в этой области). Бостром рекомендует ограничение области принятия решений ИИ-агентами, предлагает различные способы влияния на обучение моделей (например, создание этически выверенных датасетов) и так далее [3103]. Его анализ этой области, безусловно, заслуживает внимания, хотя некоторые его выводы и идеи, на мой взгляд, являются небесспорными.
Ещё с начала 1970-х гг. учёные исследуют так называемую «проблему ограничения свободы» компьютерных программ. В рамках этой парадигмы современные исследователи рассматривают и различные механизмы контроля систем ИИ, близких к сверхинтеллекту. Так, например, Роман Ямпольский, основатель и директор Лаборатории кибербезопасности в Луисвиллском университете (University of Louisville, UofL), в своей работе «Герметизация сингулярности. Проблема ограничения свободы искусственного интеллекта» (Leakproofing the Singularity. Artificial Intelligence Confinement Problem), отталкиваясь от идеи «герметично замкнутой» сингулярности, предложенной австралийским философом Дэвидом Чалмерсом, предлагает конкретный протокол, цель которого — создать безопасную замкнутую среду, способную «ограничить свободу» сверхинтеллекта при его использовании человечеством [3104], [3105].
Если говорить об Илоне Маске, то и он, несмотря на использование вульгарных метафор, не является противником научно-технического прогресса. Маск хоть и высказывается (или даже действует в духе максимы «Не можешь победить — возглавь»), но активно способствует развитию технологий машинного обучения, стремясь скорректировать вектор технологического развития. В 2015 г. он пожертвовал 10 млн долларов волонтёрской организации «Институт будущего жизни» (Future of Life Institute), работа которой направлена на «смягчение рисков, грозящих человечеству в будущем». Эта некоммерческая организация, в частности, занимается исследованием угроз, которые несёт в себе искусственный интеллект [3106]. Осенью того же года Маск вместе с другими предпринимателями и специалистами из Кремниевой долины основал неоднократно упомянутую в книге компанию OpenAI. В число основателей, помимо самого Маска, вошли Сэм Альтман, Грэг Брокман, Джон Шульман, а также уже знакомые нам Илья Суцкевер и Войцех Заремба. Создание компании поддержали Рейд Хоффман — сооснователь компании LinkedIn, Питер Тиль — сооснователь PayPal и Джессика Ливингстон — партнёр-основатель венчурного фонда Y Combinator.
Суммарные стартовые инвестиции в компанию составили миллиард долларов. Цель OpenAI — способствовать повышению открытости разработки в области ИИ. Организация заявляет, что будет «свободно сотрудничать» [freely collaborate] с другими учреждениями и исследователями, сделав свои патенты и исследования открытыми для общественности [3107], [3108], [3109], [3110], [3111], [3112].
Маск и Альтман заявили, что одним из мотивов создания OpenAI стали опасения по поводу экзистенциальных рисков со стороны универсального ИИ [artificial general intelligence] [3113], [3114]. OpenAI заявляет: «Трудно представить себе, в какой мере система ИИ человеческого уровня может принести пользу обществу, и столь же трудно понять, насколько она может навредить обществу в случае ошибок, допущенных при её создании, неправильного применения <…> Из-за удивительной истории развития ИИ трудно предсказать, когда ИИ человеческого уровня окажется в пределах досягаемости» [3115]. OpenAI заявляет, что ИИ «должен воплощать желания людей и в соответствии с духом свободы должен быть как можно более широко и равномерно распределённым…» [3116]
В связи с этим возникает риторический вопрос: «Действительно ли мы готовы позволить проникнуть в наше общество автономным программным и аппаратным агентам, детали работы которых известны лишь немногим избранным? Конечно, нет» [3117].
Альтман ожидает, что рассчитанный на десятилетия проект позволит создать системы ИИ, превосходящие людей в интеллектуальном плане [3118].
Однако возможность реализации контринтуитивной стратегии Маска и Альтмана, направленной на снижение рисков развития ИИ путём предоставления возможностей ИИ как можно большему числу людей, вызывает сомнения у более радикально настроенных «алармистов». Например, Бостром полагает, что в ситуации «плохой кнопки» основатели OpenAI изменят своей стратегии и не будут её раздавать всем («Если у вас будет кнопка, которая может причинить вред миру, вы не захотите дать её всем») [3119]. Масло в огонь подлил факт выдачи лицензии компании Microsoft на использование GPT-3 в её собственных продуктах и сервисах. И хотя OpenAI и заявила, что «сделка не повлияет на дальнейший доступ [пользователей] к модели GPT-3 через API OpenAI» [3120], у многих людей возник вполне резонный вопрос: значит ли это, что OpenAI будет руководствоваться в предоставлении доступа к передовым разработкам в области ИИ чисто коммерческой логикой, усиливая тем самым доминирование крупных корпораций в обществе? И насколько такая логика сочетается с декларированными OpenAI лозунгами о демократизации ИИ и снижении ИИ-рисков за счёт расширения доступа к технологиям?
Похожие книги на "Охота на электроовец. Большая книга искусственного интеллекта", Марков Сергей Николаевич
Марков Сергей Николаевич читать все книги автора по порядку
Марков Сергей Николаевич - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mir-knigi.info.