Охота на электроовец. Большая книга искусственного интеллекта - Марков Сергей Николаевич
2. Уведомление властей о строительстве вычислительных кластеров, если их вычислительная мощность превышает 1020 флопс.
3. Маркировка контента, генерируемого с помощью ИИ (например, водяными знаками). Разработка правил и методов маркировки возложена на Министерство торговли США.
4. Разработка расширенной программы кибербезопасности для создания инструментов искусственного интеллекта для устранения уязвимостей в критически важном программном обеспечении (на основе существующей программы «Кибервызов ИИ» [AI Cyber Challenge]).
5. Защита конфиденциальных данных и нацеленность на то, чтобы обучение систем ИИ на подобных наборах данных не приводило к нарушениям. При этом для возможности полноценно обеспечить защиту конфиденциальности Белый дом призывает Конгресс принять федеральный закон.
6. Борьба с алгоритмической предвзятостью: будут созданы и распространены инструкции по недопущению дискриминации в результате применения систем ИИ. Также правительство будет внедрять лучшие практики по устранению такой дискриминации, а администрация президента рассмотрит вопрос об использовании ИИ при вынесении приговоров в системе уголовного правосудия.
7. Программа по привлечению лучших мировых талантов, включающая в себя совершенствование визовых критериев для иммигрантов, обладающих опытом в области ИИ.
8. Поддержка работников, уязвимых в связи с развитием технологий ИИ.
Интересно, что указ содержит для первого пункта критерии для моделей, подпадающих под его действие. Информирование государства необходимо лишь в тех случаях, если для обучения модели планируется затратить более 1026 целочисленных операций или операций с плавающей запятой. Если же при обучении модели в качестве обучающих данных планируется использовать биологические последовательности, то порог обязательного информирования снижается до 1023 операций. Много это или мало? Вычислительный бюджет обучения модели LLama 2 с 70 млрд параметров составил порядка 1,1 × 1024 операций с плавающей запятой [3216], то есть примерно в 100 раз меньше установленного порога. Производительность самого быстрого в мире суперкомпьютера Frontier составляет около 1,68 × 1018 флопс. Таким образом, в мире пока что нет вычислительных кластеров, которые подпадали бы под действие вышедшего указа.
США не единственная страна, где регулирование ИИ присутствует даже на региональном уровне. Региональные законы, посвящённые ИИ, есть, например, в Китае, к их числу относятся «Положение о продвижении индустрии ИИ в Шэньчжэне» и «Шанхайские правила содействия развитию индустрии ИИ».
Китайская модель регулирования ИИ в целом похожа на американскую. Согласно «Плану по развитию ИИ нового поколения» «зонтичные» нормы в сфере ИИ должны быть приняты к 2025 г. В 2021 г. Министерство науки и технологий Китая выпустило «Руководящие этические принципы по регулированию ИИ». Под влиянием прогресса в области генеративных моделей появились на свет «Положение об управлении информационными интернет-сервисами, использующими технологии глубокого синтеза [3217]» [3218] и «Временные меры по управлению сервисами генеративного искусственного интеллекта» [3219], разработанные Администрацией киберпространства Китая соответственно в 2022 и 2023 гг.
Последний документ вызвал самое бурное обсуждение, западная пресса взорвалась заголовками: «Китай обязывает ИИ следовать „основным ценностям социализма“» [China mandates that AI must follow “core values of socialism”] [3220], «Китай анонсирует правила, в соответствии с которыми ИИ должен быть связан „основными ценностями социализма“» [China announces rules to keep AI bound by ‘core socialist values’] [3221], «Китай заявляет, что чат-боты должны придерживаться линии партии» [China Says Chatbots Must Toe the Party Line] [3222] и так далее. Действительно, статья 4 говорит буквально следующее:
Предоставление и использование услуг генеративного искусственного интеллекта должно осуществляться в соответствии с законами и административными регламентами, уважением к общественной морали и этике, а также при соблюдении следующих правил:
Соответствовать основным ценностям социализма и не подстрекать к подрыву государственной власти и свержению социалистической системы, не должно ставить под угрозу национальную безопасность и интересы, наносить ущерб национальному имиджу, подстрекать к сепаратизму, подрывать национальное единство и социальную стабильность, не должно способствовать терроризму, экстремизму, продвижению контента, запрещённого законами и административными правилами, в частности разжигающего этническую ненависть и дискриминацию, пропагандирующего насилие, содержащего непристойность, а также вредоносную дезинформацию.
В процессе разработки алгоритмов, отбора обучающих данных, создания и оптимизации моделей, а также предоставления услуг должны быть приняты эффективные меры по предотвращению дискриминации по признаку этнической принадлежности, убеждений, страны, региона, пола, возраста, профессии, здоровья и так далее.
Уважать права интеллектуальной собственности, деловую этику, не нарушать коммерческую тайну и не использовать алгоритмы, данные, платформы и другие преимущества для достижения монополии и осуществления недобросовестной конкуренции.
Уважать законные права и интересы граждан, не подвергать опасности физическое и психическое здоровье людей, а также не посягать на честь и репутацию, не нарушать права на воспроизведение личных изображений, на неприкосновенность частной жизни и личной информации.
Основываясь на особенностях типов услуг, должны предприниматься эффективные меры для повышения прозрачности сервисов генеративного искусственного интеллекта, а также повышения уровня точности и надёжности генерируемой информации.
Однако при всей внушительности списка требований нужно отметить, что меры, предусмотренные этим документом для их обеспечения, являются весьма щадящими. В проекте документа, опубликованном в начале апреля 2023 г., было указано, что в случае выявления несоответствия сервиса указанным критериям у его создателей будет три месяца на устранение выявленного несоответствия, а в случае нерешения проблемы в течение этого срока предполагалось назначение штрафа (от 10 000 до 100 000 юаней, т. е. примерно от 130 000 до 1 300 000 рублей). Однако в финальной версии документа, опубликованной 10 июля и вступившей в силу 15 августа 2023 г., даже эта санкция отсутствует [3223].
В окончательной редакции документ стал ещё более лояльным к разработчикам генеративных сервисов. Среди прочего в нём исчезли требование при оказании услуг следовать «добрым традициям», жёсткое требование «правдивости и точности» генерируемого контента, требование перед запуском сервиса предоставить в Отдел информации национальной сети установленную законом оценку безопасности информационных услуг, а требование «гарантировать подлинность, точность, объективность и разнообразие» обучающих данных было заменено на требование «принимать эффективные меры» в этом направлении. Кроме того, в документе появились призывы поощрять инновационное применение технологий генеративного искусственного интеллекта в различных отраслях и областях, исследовать и оптимизировать сценарии применения, создавать экосистему приложений, поддерживать независимые инновации в области генеративного ИИ, программных и аппаратных платформ, развивать международное сотрудничество, содействовать созданию инфраструктуры генеративного ИИ и так далее и тому подобное. В документе также содержится призыв к создателям сервисов разъяснять и раскрывать способы их полезного применения, направлять пользователей к научному и рациональному пониманию и использованию технологий генеративного ИИ, принимать эффективные меры для предотвращения чрезмерного использования генеративного ИИ несовершеннолетними пользователями.
Похожие книги на "Охота на электроовец. Большая книга искусственного интеллекта", Марков Сергей Николаевич
Марков Сергей Николаевич читать все книги автора по порядку
Марков Сергей Николаевич - все книги автора в одном месте читать по порядку полные версии на сайте онлайн библиотеки mir-knigi.info.