21 липня 2023 року, згідно з повідомленням Білого дому, президент США Джо Байден зібрав у Білому домі 21 липня сім провідних компаній зі штучного інтелекту — Amazon, Anthropic, Google, Inflection, Meta, Microsoft і OpenAI, і оголосив, що ці компанії добровільно взяли на себе зобов’язання допомогти реалізувати безпечну, надійну та прозору розробку технології штучного інтелекту. Ця стаття взято з офіційного веб-сайту OpenAI, а основний вміст узгоджується з веб-сайтом Білого дому**. **
повний текст
Щоб посилити безпеку, захист і довіру до технологій і послуг штучного інтелекту, OpenAI та інші провідні лабораторії штучного інтелекту взяли на себе добровільні зобов’язання. **Ці зусилля, координовані головним чином Білим домом, є важливим кроком у просуванні змістовного та ефективного управління ШІ в Сполучених Штатах і в усьому світі. **
Виконуючи свою місію зі створення безпечного та корисного штучного інтелекту, OpenAI продовжуватиме пілотувати та вдосконалювати конкретні методи управління, адаптовані для виробничої базової моделі, такої як OpenAI. Крім того, OpenAI продовжить інвестувати в галузі досліджень, які допомагають інформувати регулювання, такі як розробка технологій для оцінки потенційної небезпеки моделей штучного інтелекту.
«Політики в усьому світі розглядають нові закони, націлені на високопродуктивні системи штучного інтелекту. Наше сьогоднішнє зобов’язання вносить конкретну практику в поточні дискусії. Це оголошення є частиною постійної співпраці OpenAI з урядами, організаціями громадянського суспільства та іншими в усьому світі для вдосконалення управління штучним інтелектом», – сказала Анна Маканджу, віце-президент із глобальних питань OpenAI. *
Добровільні зобов’язання щодо ШІ
Наступний список добровільних зобов'язань був спочатку оприлюднений Білим домом:
Нижче наведено перелік зобов’язань, взятих компаніями щодо сприяння безпечній, надійній і прозорій розробці та застосуванню технологій штучного інтелекту. Наступні зобов’язання узгоджуються з існуючими законами та нормативними актами та спрямовані на сприяння надійності правових і політичних систем штучного інтелекту. Кожна компанія виконуватиме наведені нижче добровільні зобов’язання, доки відповідні закони, правила та системи не набудуть чинності, а деякі компанії можуть брати інші зобов’язання, окрім цього зобов’язання.
Сфера дії: це зобов’язання стосується конкретних моделей, які застосовуються лише до генеративних моделей AI, потужніших за поточні межі галузі (наприклад, моделі, потужніші за будь-яку випущену на даний момент модель, зокрема GPT-4, Claude 2, PaLM 2, Titan і DALL-E 2 для створення зображень).
Примітка: Безпека відповідає навмисним (створеним людиною) загрозам, а Безпека відповідає вразливостям або неочікуваним наслідкам самої системи ШІ; тут Безпека ШІ відповідає функціональній безпеці, а Безпека ШІ відповідає інформаційній безпеці ШІ
Безпека (фокус на функціональній безпеці)
**1) Зобов’язання переоцінити моделі та системи всередині та зовні з огляду на неправильне використання, суспільні ризики та проблеми національної безпеки (наприклад, біологічна, кібернетична та інші сфери безпеки). **
Компанії, які беруть участь у виконанні цих зобов’язань, розуміють, що тестування сильної червоної команди має вирішальне значення для створення готових продуктів, забезпечення довіри громадськості до ШІ та захисту від серйозних загроз національній безпеці. Оцінка безпеки та можливостей моделі, включаючи тестування червоною командою, є відкритою областю для наукових досліджень, і тут потрібна додаткова робота. Компанії зобов’язуються просувати дослідження в цій галузі та розробляти багатогранні, спеціалізовані та детальні режими тестування червоною командою для основних публічних випусків усіх нових моделей, у тому числі, тут, за допомогою внеску незалежних експертів у галузі. При проектуванні системи переконайтеся, що високий пріоритет надається:
Біологічні, хімічні та радіологічні ризики, як-от те, як система зменшує бар’єри на шляху розробки, проектування, придбання чи використання зброї
Можливості кібербезпеки, такі як спосіб, у який система допомагає виявляти, використовувати або працювати за допомогою вразливостей, повинні враховувати можливості моделі, також можуть мати корисне захисне використання та підходять для включення в систему
Вплив системної взаємодії та використання інструментів, включаючи здатність контролювати фізичні системи
Здатність моделі відтворювати себе або «самовідтворюватися»
Соціальні ризики, такі як упередження та дискримінація
Щоб підтримати вищезазначену роботу, компанії-учасниці просуватимуть поточні дослідження безпеки штучного інтелекту, включаючи пояснення процесів прийняття рішень у системі штучного інтелекту та покращення надійності систем штучного інтелекту проти зловживань. Так само компанії зобов’язуються публічно оприлюднювати тестування червоної команди та програми безпеки у звітах про прозорість.
2) Зобов’язатися обмінюватися інформацією між компаніями та урядами про ризики довіри та безпеки, небезпеки або нові можливості ШІ та спроби обійти гарантії
Компанії, які беруть участь у цьому зобов’язанні, мають усвідомлювати важливість обміну інформацією, загальних стандартів і найкращих практик для тестування червоною командою та сприяння довірі та безпеці до ШІ. **Ви зобов’язуєтеся створити або приєднатися до форуму або механізму, за допомогою якого брати участь у розробці, просуванні та прийнятті спільних стандартів і найкращих практик щодо передової безпеки штучного інтелекту, таких як NIST AI Risk Management Framework або майбутні стандарти, пов’язані з тестуванням червоної команди, безпекою та суспільними ризиками. **Форум або механізм, який сприяє обміну інформацією щодо прогресу в прикордонних можливостях і нових ризиках і загрозах, таких як спроби обійти гарантії, а також сприяє розвитку технічних робочих груп у пріоритетних сферах. У цій роботі Компанія тісно співпрацюватиме з урядами, включаючи уряд США, громадянське суспільство та наукові кола, якщо це доречно.
Безпека/безпека мережі (безпека, зосереджена на інформаційній безпеці)
3) Інвестуйте в засоби захисту кібербезпеки та засоби захисту від внутрішніх загроз для захисту пропрієтарних і неопублікованих моделей
Компанії, які беруть участь у зобов’язанні, повинні розглядати неопубліковані ваги моделей штучного інтелекту для моделей, які розглядаються, як основну інтелектуальну власність для свого бізнесу, особливо щодо ризиків кібербезпеки та внутрішніх загроз. Це включає обмеження доступу до вагових коефіцієнтів моделі лише для тих, чиї робочі функції вимагають цього, і створення надійної програми виявлення внутрішніх загроз, яка відповідає захисту вашої найціннішої інтелектуальної власності та комерційних таємниць. Крім того, ваги потрібно зберігати та використовувати у відповідному безпечному середовищі, щоб зменшити ризик несанкціонованого розповсюдження.
4) Заохочуйте третіх сторін виявляти проблеми та вразливості та повідомляти про них
Компанії, які беруть на себе це зобов’язання, визнають, що системи штучного інтелекту все ще можуть бути вразливими навіть після надійного «тестування червоною командою», і компанії зобов’язуються встановлювати винагороди за системи в рамках систем винагород, конкурсів або призів, щоб заохотити відповідальне розкриття недоліків, таких як небезпечна поведінка, або включити системи штучного інтелекту в існуючу програму винагород за помилки компанії.
Довіра
**5) Для аудіо- та відеовмісту, створеного штучним інтелектом, необхідно розробити та застосувати нові механізми, насамперед для того, щоб дати користувачам змогу зрозуміти, чи створено аудіо- чи відеоконтент штучним інтелектом, включаючи надійне присвоєння авторства, водяні знаки або те й інше. **
Компанії, які беруть участь у цьому зобов’язанні, визнають важливість надання людям можливості знати, чи створено штучним інтелектом аудіо- чи відеоконтент. Щоб досягти цього, компанії погоджуються розробити надійні механізми, у тому числі в тій мірі, в якій вони запроваджені, для надання систем авторства та/або водяних знаків для аудіо- чи відеовмісту, створеного будь-якою з їхніх загальнодоступних систем після завершення їх розробки. Вони також розроблять інструменти або API, щоб визначити, чи був певний вміст створений їхніми системами. Це зобов’язання не поширюється на аудіовізуальний контент, який легко відрізнити від реальності або створений системами штучного інтелекту компанії (наприклад, стандартний голос помічника зі штучним інтелектом).
Дані водяного знака або авторства мають включати ідентифікатор служби чи моделі, які створили вміст, але не обов’язково містять будь-яку ідентифікаційну інформацію користувача. У більш широкому плані компанії, які беруть цю обіцянку, зобов’язуються співпрацювати з колегами в галузі та органами, що встановлюють стандарти, щоб розробити технічну структуру, яка допоможе користувачам розрізняти аудіо- та відеовміст, створений користувачами, від аудіо- чи відеовмісту, створеного ШІ.
**6) Публічний звіт про можливості, обмеження та сфери належного та неналежного використання моделі чи системи, включаючи обговорення суспільних ризиків, таких як вплив на справедливість і упередженість. **
Компанії, які беруть участь у зобов’язанні, повинні визнати, що користувачі повинні знати про відомі можливості та обмеження систем ШІ, які вони використовують або з якими взаємодіють. Компанії зобов’язані публічно публікувати звіти про випуск усіх нових значущих моделей. Ці звіти повинні включати проведені оцінки безпеки (зокрема в таких сферах, як небезпечні можливості, але ці оцінки підлягають публічному розголошенню), значні обмеження в продуктивності, які впливають на сфери належного використання, обговорення впливу моделі на суспільні ризики, такі як справедливість і упередженість, а також результати конкурентного тестування, проведеного для оцінки придатності моделі для розгортання.
**7) Пріоритет дослідження соціальних ризиків, пов’язаних із системами штучного інтелекту, зокрема уникнення шкідливих упереджень і дискримінації та захист конфіденційності. **
Компанії, які беруть участь у зобов’язанні, повинні усвідомлювати важливість запобігання поширенню шкідливих упереджень і дискримінації систем ШІ. Компанії, як правило, зобов’язуються розширювати можливості команд з питань довіри та безпеки, просувати дослідження безпеки штучного інтелекту, заохочувати конфіденційність, захищати дітей і прагнути проактивно керувати ризиками штучного інтелекту для досягнення кінцевої вигоди.
8) Розробляйте та розгортайте передові системи штучного інтелекту, щоб допомогти вирішити найбільші виклики суспільства
Компанії, які беруть участь у зобов’язанні, повинні будуть погодитися підтримувати дослідження та розробку передових систем штучного інтелекту, щоб допомогти вирішити найбільші виклики суспільства, такі як пом’якшення наслідків зміни клімату та адаптація до них, раннє виявлення та профілактика раку та боротьба з кіберзагрозами. Компанії також пообіцяли підтримувати ініціативи з просування освіти та навчання студентів і персоналу, щоб скористатися перевагами ШІ, а також допомогти громадянам зрозуміти природу, можливості, обмеження та наслідки технологій ШІ.
Довідка: Просування управління ШІ (openai.com)
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Повна історія | Білий дім збирає 7 компаній зі штучного інтелекту, щоб добровільно взяти на себе зобов’язання щодо штучного інтелекту
Джерело статті: Alpha Rabbit Research Notes
повний текст
Щоб посилити безпеку, захист і довіру до технологій і послуг штучного інтелекту, OpenAI та інші провідні лабораторії штучного інтелекту взяли на себе добровільні зобов’язання. **Ці зусилля, координовані головним чином Білим домом, є важливим кроком у просуванні змістовного та ефективного управління ШІ в Сполучених Штатах і в усьому світі. **
Виконуючи свою місію зі створення безпечного та корисного штучного інтелекту, OpenAI продовжуватиме пілотувати та вдосконалювати конкретні методи управління, адаптовані для виробничої базової моделі, такої як OpenAI. Крім того, OpenAI продовжить інвестувати в галузі досліджень, які допомагають інформувати регулювання, такі як розробка технологій для оцінки потенційної небезпеки моделей штучного інтелекту.
Добровільні зобов’язання щодо ШІ
Наступний список добровільних зобов'язань був спочатку оприлюднений Білим домом:
Нижче наведено перелік зобов’язань, взятих компаніями щодо сприяння безпечній, надійній і прозорій розробці та застосуванню технологій штучного інтелекту. Наступні зобов’язання узгоджуються з існуючими законами та нормативними актами та спрямовані на сприяння надійності правових і політичних систем штучного інтелекту. Кожна компанія виконуватиме наведені нижче добровільні зобов’язання, доки відповідні закони, правила та системи не набудуть чинності, а деякі компанії можуть брати інші зобов’язання, окрім цього зобов’язання.
Сфера дії: це зобов’язання стосується конкретних моделей, які застосовуються лише до генеративних моделей AI, потужніших за поточні межі галузі (наприклад, моделі, потужніші за будь-яку випущену на даний момент модель, зокрема GPT-4, Claude 2, PaLM 2, Titan і DALL-E 2 для створення зображень).
Примітка: Безпека відповідає навмисним (створеним людиною) загрозам, а Безпека відповідає вразливостям або неочікуваним наслідкам самої системи ШІ; тут Безпека ШІ відповідає функціональній безпеці, а Безпека ШІ відповідає інформаційній безпеці ШІ
Безпека (фокус на функціональній безпеці)
**1) Зобов’язання переоцінити моделі та системи всередині та зовні з огляду на неправильне використання, суспільні ризики та проблеми національної безпеки (наприклад, біологічна, кібернетична та інші сфери безпеки). **
Компанії, які беруть участь у виконанні цих зобов’язань, розуміють, що тестування сильної червоної команди має вирішальне значення для створення готових продуктів, забезпечення довіри громадськості до ШІ та захисту від серйозних загроз національній безпеці. Оцінка безпеки та можливостей моделі, включаючи тестування червоною командою, є відкритою областю для наукових досліджень, і тут потрібна додаткова робота. Компанії зобов’язуються просувати дослідження в цій галузі та розробляти багатогранні, спеціалізовані та детальні режими тестування червоною командою для основних публічних випусків усіх нових моделей, у тому числі, тут, за допомогою внеску незалежних експертів у галузі. При проектуванні системи переконайтеся, що високий пріоритет надається:
Щоб підтримати вищезазначену роботу, компанії-учасниці просуватимуть поточні дослідження безпеки штучного інтелекту, включаючи пояснення процесів прийняття рішень у системі штучного інтелекту та покращення надійності систем штучного інтелекту проти зловживань. Так само компанії зобов’язуються публічно оприлюднювати тестування червоної команди та програми безпеки у звітах про прозорість.
2) Зобов’язатися обмінюватися інформацією між компаніями та урядами про ризики довіри та безпеки, небезпеки або нові можливості ШІ та спроби обійти гарантії
Компанії, які беруть участь у цьому зобов’язанні, мають усвідомлювати важливість обміну інформацією, загальних стандартів і найкращих практик для тестування червоною командою та сприяння довірі та безпеці до ШІ. **Ви зобов’язуєтеся створити або приєднатися до форуму або механізму, за допомогою якого брати участь у розробці, просуванні та прийнятті спільних стандартів і найкращих практик щодо передової безпеки штучного інтелекту, таких як NIST AI Risk Management Framework або майбутні стандарти, пов’язані з тестуванням червоної команди, безпекою та суспільними ризиками. **Форум або механізм, який сприяє обміну інформацією щодо прогресу в прикордонних можливостях і нових ризиках і загрозах, таких як спроби обійти гарантії, а також сприяє розвитку технічних робочих груп у пріоритетних сферах. У цій роботі Компанія тісно співпрацюватиме з урядами, включаючи уряд США, громадянське суспільство та наукові кола, якщо це доречно.
Безпека/безпека мережі (безпека, зосереджена на інформаційній безпеці)
3) Інвестуйте в засоби захисту кібербезпеки та засоби захисту від внутрішніх загроз для захисту пропрієтарних і неопублікованих моделей
Компанії, які беруть участь у зобов’язанні, повинні розглядати неопубліковані ваги моделей штучного інтелекту для моделей, які розглядаються, як основну інтелектуальну власність для свого бізнесу, особливо щодо ризиків кібербезпеки та внутрішніх загроз. Це включає обмеження доступу до вагових коефіцієнтів моделі лише для тих, чиї робочі функції вимагають цього, і створення надійної програми виявлення внутрішніх загроз, яка відповідає захисту вашої найціннішої інтелектуальної власності та комерційних таємниць. Крім того, ваги потрібно зберігати та використовувати у відповідному безпечному середовищі, щоб зменшити ризик несанкціонованого розповсюдження.
4) Заохочуйте третіх сторін виявляти проблеми та вразливості та повідомляти про них
Компанії, які беруть на себе це зобов’язання, визнають, що системи штучного інтелекту все ще можуть бути вразливими навіть після надійного «тестування червоною командою», і компанії зобов’язуються встановлювати винагороди за системи в рамках систем винагород, конкурсів або призів, щоб заохотити відповідальне розкриття недоліків, таких як небезпечна поведінка, або включити системи штучного інтелекту в існуючу програму винагород за помилки компанії.
Довіра
**5) Для аудіо- та відеовмісту, створеного штучним інтелектом, необхідно розробити та застосувати нові механізми, насамперед для того, щоб дати користувачам змогу зрозуміти, чи створено аудіо- чи відеоконтент штучним інтелектом, включаючи надійне присвоєння авторства, водяні знаки або те й інше. **
Компанії, які беруть участь у цьому зобов’язанні, визнають важливість надання людям можливості знати, чи створено штучним інтелектом аудіо- чи відеоконтент. Щоб досягти цього, компанії погоджуються розробити надійні механізми, у тому числі в тій мірі, в якій вони запроваджені, для надання систем авторства та/або водяних знаків для аудіо- чи відеовмісту, створеного будь-якою з їхніх загальнодоступних систем після завершення їх розробки. Вони також розроблять інструменти або API, щоб визначити, чи був певний вміст створений їхніми системами. Це зобов’язання не поширюється на аудіовізуальний контент, який легко відрізнити від реальності або створений системами штучного інтелекту компанії (наприклад, стандартний голос помічника зі штучним інтелектом).
Дані водяного знака або авторства мають включати ідентифікатор служби чи моделі, які створили вміст, але не обов’язково містять будь-яку ідентифікаційну інформацію користувача. У більш широкому плані компанії, які беруть цю обіцянку, зобов’язуються співпрацювати з колегами в галузі та органами, що встановлюють стандарти, щоб розробити технічну структуру, яка допоможе користувачам розрізняти аудіо- та відеовміст, створений користувачами, від аудіо- чи відеовмісту, створеного ШІ.
**6) Публічний звіт про можливості, обмеження та сфери належного та неналежного використання моделі чи системи, включаючи обговорення суспільних ризиків, таких як вплив на справедливість і упередженість. **
Компанії, які беруть участь у зобов’язанні, повинні визнати, що користувачі повинні знати про відомі можливості та обмеження систем ШІ, які вони використовують або з якими взаємодіють. Компанії зобов’язані публічно публікувати звіти про випуск усіх нових значущих моделей. Ці звіти повинні включати проведені оцінки безпеки (зокрема в таких сферах, як небезпечні можливості, але ці оцінки підлягають публічному розголошенню), значні обмеження в продуктивності, які впливають на сфери належного використання, обговорення впливу моделі на суспільні ризики, такі як справедливість і упередженість, а також результати конкурентного тестування, проведеного для оцінки придатності моделі для розгортання.
**7) Пріоритет дослідження соціальних ризиків, пов’язаних із системами штучного інтелекту, зокрема уникнення шкідливих упереджень і дискримінації та захист конфіденційності. **
Компанії, які беруть участь у зобов’язанні, повинні усвідомлювати важливість запобігання поширенню шкідливих упереджень і дискримінації систем ШІ. Компанії, як правило, зобов’язуються розширювати можливості команд з питань довіри та безпеки, просувати дослідження безпеки штучного інтелекту, заохочувати конфіденційність, захищати дітей і прагнути проактивно керувати ризиками штучного інтелекту для досягнення кінцевої вигоди.
8) Розробляйте та розгортайте передові системи штучного інтелекту, щоб допомогти вирішити найбільші виклики суспільства
Компанії, які беруть участь у зобов’язанні, повинні будуть погодитися підтримувати дослідження та розробку передових систем штучного інтелекту, щоб допомогти вирішити найбільші виклики суспільства, такі як пом’якшення наслідків зміни клімату та адаптація до них, раннє виявлення та профілактика раку та боротьба з кіберзагрозами. Компанії також пообіцяли підтримувати ініціативи з просування освіти та навчання студентів і персоналу, щоб скористатися перевагами ШІ, а також допомогти громадянам зрозуміти природу, можливості, обмеження та наслідки технологій ШІ.
Довідка: Просування управління ШІ (openai.com)