Полная история | Белый дом созывает 7 компаний, занимающихся искусственным интеллектом, чтобы добровольно взять на себя обязательства по искусственному интеллекту

Источник статьи: Alpha Rabbit Research Notes

21 июля 2023 г., согласно объявлению Белого дома, президент США Джо Байден собрал в Белом доме 21 июля семь ведущих компаний, занимающихся искусственным интеллектом, — Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI, и объявил, что эти компании добровольно взяли на себя обязательство помочь в реализации безопасной, надежной и прозрачной разработки технологий искусственного интеллекта.Эта статья взята с официального сайта OpenAI, и основное содержание соответствует веб-сайту Белого дома** . **

полный текст

Чтобы укрепить безопасность, защищенность и надежность технологий и услуг искусственного интеллекта, OpenAI и другие ведущие лаборатории искусственного интеллекта взяли на себя добровольные обязательства. **Эта работа, координируемая главным образом Белым домом, является важным шагом на пути к осмысленному и эффективному управлению ИИ в Соединенных Штатах и во всем мире. **

Выполняя свою миссию по созданию безопасного и полезного ИИ, OpenAI продолжит пилотировать и совершенствовать конкретные методы управления, адаптированные для базовой модели с производственными возможностями, такой как OpenAI. Кроме того, OpenAI продолжит инвестировать в области исследований, которые помогают информировать регулирующие органы, такие как разработка технологий для оценки потенциальных опасностей моделей искусственного интеллекта.

  • «Политики во всем мире рассматривают новые законы, направленные на высокопроизводительные системы ИИ. Сегодняшняя наша приверженность вносит конкретную практику в текущие обсуждения. Это объявление является частью продолжающегося сотрудничества OpenAI с правительствами, организациями гражданского общества и другими сторонами по всему миру для улучшения управления ИИ», — сказала Анна Маканджу, вице-президент по глобальным вопросам OpenAI. *

Добровольные обязательства по ИИ

Следующий список добровольных обязательств был первоначально опубликован Белым домом:

Ниже приведен список обязательств, принятых компаниями для содействия безопасной, надежной и прозрачной разработке и применению технологий искусственного интеллекта.Следующие обязательства соответствуют существующим законам и нормативным актам и предназначены для обеспечения надежности правовых и политических систем искусственного интеллекта. Каждая компания будет выполнять следующие добровольные обязательства до тех пор, пока не вступят в силу соответствующие законы, постановления и системы, и некоторые компании могут взять на себя другие обязательства помимо этого обязательства.

Область применения. Это обязательство относится к конкретным моделям, применимым только к моделям генеративного ИИ, которые превосходят текущие отраслевые границы (например, модели, которые мощнее любой выпущенной в настоящее время модели, включая GPT-4, Claude 2, PaLM 2, Titan и DALL-E 2 для создания изображений).

Примечание: Безопасность соответствует преднамеренным (техногенным) угрозам, а Безопасность соответствует уязвимостям или непреднамеренным последствиям самой системы ИИ, здесь Безопасность ИИ соответствует функциональной безопасности, а Безопасность ИИ соответствует информационной безопасности ИИ

Безопасность (акцент на функциональную безопасность)

**1) Обязательство провести внутреннюю и внешнюю переоценку моделей и систем в отношении неправомерного использования, социального риска и проблем национальной безопасности (например, биологической, кибернетической и других областей безопасности). **

Компании, участвующие в принятии этих обязательств, понимают, что сильное тестирование красной команды имеет решающее значение для создания готовых продуктов, обеспечения общественного доверия к ИИ и защиты от серьезных угроз национальной безопасности. ** Оценка безопасности и возможностей модели, включая тестирование красной команды, является открытой областью научных исследований, и требуется дополнительная работа. Компании обязуются продвигать исследования в этой области и разрабатывать многогранные, специализированные и подробные режимы тестирования красной командой для основных общедоступных выпусков всех новых моделей, в том числе, здесь, с участием независимых экспертов в предметной области. При проектировании системы убедитесь, что высокий приоритет отдается:**

  • Биологические, химические и радиологические риски, например, как система снижает входные барьеры для разработки, проектирования, приобретения или использования оружия.
  • Возможности кибербезопасности, такие как то, как система помогает обнаруживать, использовать или использовать уязвимости, должны учитывать возможности модели, могут также иметь полезное защитное применение и подходят для включения в систему.
  • Эффекты взаимодействия системы и использования инструментов, включая возможность управления физическими системами
  • Способность модели воспроизводить себя или «самовоспроизводиться»
  • Социальные риски, такие как предрассудки и дискриминация

Чтобы поддержать вышеуказанную работу, участвующие компании будут продвигать текущие исследования безопасности ИИ, включая объяснимость процессов принятия решений в системе ИИ и повышение устойчивости систем ИИ к злоупотреблениям. Точно так же компании обязуются публично раскрывать информацию о красной команде и тестировании программ безопасности в отчетах о прозрачности.

2) Обязуемся обмениваться информацией между компаниями и правительствами о рисках доверия и безопасности, опасностях или новых возможностях ИИ, а также о попытках обойти меры безопасности

Компании, участвующие в этом обязательстве, должны признать важность обмена информацией, общих стандартов и лучших практик для тестирования красной команды и укрепления доверия и безопасности в ИИ. **Вы обязуетесь создать или присоединиться к форуму или механизму, с помощью которого можно участвовать в разработке, продвижении и принятии общих стандартов и передовых методов в области передовой безопасности ИИ, таких как NIST AI Risk Management Framework или будущих стандартов, связанных с тестированием красной команды, безопасностью и социальными рисками. **Форум или механизм, облегчающий обмен информацией о достижениях в передовых возможностях и возникающих рисках и угрозах, таких как попытки обойти меры безопасности, и облегчающий создание технических рабочих групп по приоритетным направлениям. В этой работе Компания будет тесно сотрудничать с правительствами, в том числе с правительством США, гражданским обществом и академическими кругами, по мере необходимости.

Security/Network Security (Безопасность, уделяя особое внимание информационной безопасности)

3) Инвестируйте в средства кибербезопасности и средства защиты от внутренних угроз для защиты проприетарных и неопубликованных моделей

Компании, участвующие в этом обязательстве, должны рассматривать неопубликованные веса моделей ИИ в рамках моделей в качестве основной интеллектуальной собственности для своего бизнеса, особенно в отношении рисков кибербезопасности и внутренних угроз. Это включает в себя ограничение доступа к весам моделей только для тех, чьи рабочие функции требуют этого, и создание надежной программы обнаружения внутренних угроз, совместимой с защитой вашей наиболее ценной интеллектуальной собственности и коммерческой тайны. Кроме того, гири необходимо хранить и использовать в соответствующей безопасной среде, чтобы снизить риск несанкционированного распространения.

4) Поощряйте третьи стороны обнаруживать проблемы и уязвимости и сообщать о них

Компании, взявшие на себя это обязательство, признают, что системы ИИ могут по-прежнему быть уязвимыми даже после надежного «тестирования красной командой», и компании обязуются устанавливать награды за системы в рамках систем вознаграждений, конкурсов или призов, чтобы поощрять ответственное раскрытие слабых мест, таких как небезопасное поведение, или включать системы ИИ в существующую программу вознаграждения за обнаружение ошибок компании.

Доверять

**5) Для аудио- или видеоконтента, созданного ИИ, необходимо разработать и внедрить новые механизмы, в первую очередь, чтобы пользователи могли понять, был ли аудио- или видеоконтент создан ИИ, включая надежную атрибуцию, водяные знаки или и то, и другое. **

Компании, участвующие в этом обязательстве, признают важность того, чтобы люди знали, был ли аудио- или видеоконтент создан искусственным интеллектом. Для достижения этого компании соглашаются разработать надежные механизмы, в том числе в той мере, в какой они будут внедрены, для предоставления систем атрибуции и/или водяных знаков для аудио- или видеоконтента, созданного любой из их общедоступных систем после завершения их разработки. Они также разработают инструменты или API-интерфейсы для определения того, была ли конкретная часть контента создана их системами. Это обязательство не распространяется на аудиовизуальный контент, который легко отличить от реальности или созданный с помощью систем искусственного интеллекта компании (например, голос помощника с искусственным интеллектом по умолчанию).

Данные водяного знака или атрибуции должны включать идентификатор службы или модели, создавшей контент, но не обязательно включать какую-либо информацию, идентифицирующую пользователя. В более широком смысле компании, взявшие на себя это обязательство, обязуются работать с коллегами по отрасли и органами, устанавливающими стандарты, для разработки технической основы, которая поможет пользователям различать аудио- или видеоконтент, созданный пользователями, и аудио- или видеоконтент, созданный искусственным интеллектом.

**6) Публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования модели или системы, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость. **

Компании, участвующие в обязательстве, должны признать, что пользователи должны знать об известных возможностях и ограничениях систем ИИ, которые они используют или с которыми взаимодействуют. Компании обязаны публиковать отчеты о выпуске всех новых значимых моделей. Эти отчеты должны включать выполненные оценки безопасности (в том числе в таких областях, как опасные возможности, но эти оценки подлежат обнародованию), существенные ограничения производительности, влияющие на области надлежащего использования, обсуждение влияния модели на социальные риски, такие как справедливость и предвзятость, а также результаты состязательного тестирования, проведенного для оценки пригодности модели для развертывания.

**7) Уделите первоочередное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе избегайте пагубной предвзятости и дискриминации и защищайте конфиденциальность. **

Компании, участвующие в этом обязательстве, должны признать важность предотвращения распространения вредоносных предубеждений и дискриминации системами ИИ. Компании обычно обязуются расширять возможности групп доверия и безопасности, продвигать исследования безопасности ИИ, продвигать конфиденциальность, защищать детей и стремиться к упреждающему управлению рисками ИИ для получения максимальной выгоды.

8) Разрабатывайте и внедряйте передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества

Компании, участвующие в этом обязательстве, должны будут согласиться поддержать исследования и разработку передовых систем искусственного интеллекта, чтобы помочь решить самые большие проблемы общества, такие как смягчение последствий изменения климата и адаптация к нему, раннее выявление и профилактика рака, а также борьба с киберугрозами. Компании также обязались поддерживать инициативы по развитию образования и профессиональной подготовки студентов и сотрудников, чтобы они могли воспользоваться преимуществами ИИ и помочь гражданам понять природу, возможности, ограничения и влияние технологий ИИ.

Ссылка: продвижение управления ИИ вперед (openai.com)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить