21 Temmuz 2023'te Beyaz Saray duyurusuna göre ABD Başkanı Joe Biden, 21 Temmuz'da önde gelen yedi yapay zeka şirketini (Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI) Beyaz Saray'da bir araya getirdi ve bu şirketlerin yapay zeka teknolojisinin güvenli, güvenilir ve şeffaf gelişimini gerçekleştirmeye gönüllü olarak yardımcı olmayı taahhüt ettiklerini duyurdu. Bu makale OpenAI'nin resmi web sitesinden alınmıştır ve ana içeriği Beyaz Saray web sitesiyle tutarlıdır**. **
tam metin
Yapay zeka teknolojisi ve hizmetlerinin güvenliğini, güvenliğini ve güvenilirliğini güçlendirmek için OpenAI ve diğer önde gelen yapay zeka laboratuvarları gönüllü taahhütlerde bulunmuştur. **Öncelikle Beyaz Saray tarafından koordine edilen bu çaba, ABD'de ve dünya çapında anlamlı ve etkili yapay zeka yönetişimini ilerletmede önemli bir adımdır. **
OpenAI, güvenli ve faydalı bir yapay zeka oluşturma misyonunun peşinde, OpenAI gibi üretime uygun bir temel model için özel olarak hazırlanmış belirli yönetişim uygulamalarını denemeye ve iyileştirmeye devam edecek. Buna ek olarak OpenAI, yapay zeka modellerinin potansiyel tehlikelerini değerlendirmek için teknolojiler geliştirmek gibi düzenlemeye bilgi sağlamaya yardımcı olan araştırma alanlarına yatırım yapmaya devam edecek.
OpenAI Küresel İşler Başkan Yardımcısı Anna Makanju, "Dünyanın dört bir yanındaki politika yapıcılar, son derece yetenekli yapay zeka sistemlerini hedefleyen yeni yasalar düşünüyor. Bugünkü taahhüdümüz, devam eden tartışmalara somut bir uygulama sağlıyor. Bu duyuru, OpenAI'nin yapay zeka yönetişimini ilerletmek için dünyanın dört bir yanındaki hükümetler, sivil toplum kuruluşları ve diğer kişilerle devam eden işbirliğinin bir parçasıdır" dedi. *
Gönüllü AI taahhütleri
Aşağıdaki gönüllü taahhütler listesi ilk olarak Beyaz Saray tarafından yayınlandı:
Yapay zeka teknolojilerinin güvenli, güvenilir ve şeffaf bir şekilde geliştirilmesini ve uygulanmasını teşvik etmek için şirketler tarafından verilen taahhütlerin bir listesi aşağıdadır. Aşağıdaki taahhütler, mevcut yasa ve yönetmeliklerle tutarlıdır ve yapay zeka yasal ve politika sistemlerinin sağlamlığını desteklemek için tasarlanmıştır. İlgili yasa, yönetmelik ve sistemler yürürlüğe girene kadar her şirket aşağıdaki gönüllü taahhütleri yerine getirecektir ve bazı şirketler bu taahhüdün ötesinde başka taahhütlerde bulunabilir.
Kapsam: Bu taahhüt, yalnızca mevcut endüstri sınırından daha güçlü olan üretken yapay zeka modelleri (ör. görüntü oluşturma için GPT-4, Claude 2, PaLM 2, Titan ve DALL-E 2 dahil olmak üzere şu anda piyasaya sürülen tüm modellerden daha güçlü modeller) için geçerli olan belirli modelleri ifade eder.
Not: Güvenlik, kasıtlı (insan yapımı) tehditlere karşılık gelir ve Güvenlik, yapay zeka sisteminin kendisinin güvenlik açıklarına veya istenmeyen sonuçlarına karşılık gelir; burada, AI Güvenliği, işlevsel güvenliğe karşılık gelir ve AI Güvenliği, AI bilgi güvenliğine karşılık gelir
Güvenlik (işlevsel güvenliğe odaklanın)
**1) Kötüye kullanım, toplumsal risk ve ulusal güvenlik kaygıları (ör. biyolojik, siber ve diğer güvenlik alanları) açısından modelleri ve sistemleri dahili ve harici olarak yeniden değerlendirme taahhüdü. **
Bu taahhütlerde yer alan şirketler, güçlü kırmızı ekip testinin bitmiş ürünler oluşturmak, yapay zekaya halkın güvenini sağlamak ve önemli ulusal güvenlik tehditlerine karşı korunmak için kritik öneme sahip olduğunu anlıyor. Kırmızı ekip testi de dahil olmak üzere model güvenliği ve yetenek değerlendirmesi, açık bir bilimsel keşif alanıdır ve daha fazla çalışmaya ihtiyaç vardır. Şirketler, bu alandaki araştırmaları ilerletmeyi ve kapsam dahilindeki tüm yeni modellerin önemli kamu sürümleri için çok yönlü, özel ve ayrıntılı kırmızı ekip test rejimleri geliştirmeyi taahhüt eder; burada, bağımsız alan uzmanlarının girdileri de dahil. Sistemi tasarlarken, aşağıdakilere yüksek öncelik verildiğinden emin olun:
Biyolojik, kimyasal ve radyolojik riskler, örneğin sistemin silah geliştirme, tasarım, satın alma veya kullanım için giriş engellerini nasıl azalttığı gibi
Sistemin güvenlik açıklarını keşfetmeye, bunlardan yararlanmaya veya bunları kullanarak çalıştırmaya yardımcı olma şekli gibi siber güvenlik yeteneklerinin, modelin yeteneklerini dikkate alması gerekir, ayrıca faydalı savunma amaçlı kullanımları olabilir ve sisteme dahil edilmeye uygundur.
Fiziksel sistemleri kontrol etme yeteneği dahil olmak üzere sistem etkileşimi ve araç kullanımının etkileri
Bir modelin kendini kopyalayabilmesi veya "kendi kendini kopyalayabilmesi"
Önyargı ve ayrımcılık gibi sosyal riskler
Yukarıdaki çalışmayı desteklemek için katılımcı şirketler, AI sistemi karar verme süreçlerinin açıklanabilirliği ve AI sistemlerinin kötüye kullanıma karşı sağlamlığının iyileştirilmesi dahil olmak üzere devam eden AI güvenlik araştırmasını ilerletecektir. Benzer şekilde, şirketler kırmızı takım ve güvenlik programı testlerini şeffaflık raporlarında kamuya açıklamayı taahhüt eder.
2) Şirketler ve hükümetler arasında güven ve güvenlik riskleri, tehlikeler veya yapay zekanın ortaya çıkan yetenekleri ve koruma önlemlerini atlatmaya yönelik girişimler hakkında bilgi paylaşma taahhüdü
Bu taahhüde katılan şirketlerin, kırmızı ekip testi yapmak ve yapay zekada güven ve güvenliği teşvik etmek için bilgi paylaşımının, ortak standartların ve en iyi uygulamaların önemini kabul etmesi gerekir. **NIST Yapay Zeka Risk Yönetimi Çerçevesi veya kırmızı ekip testi, güvenlik ve toplumsal risklerle ilgili gelecekteki standartlar gibi en son yapay zeka güvenliğine ilişkin ortak standartların ve en iyi uygulamaların geliştirilmesine, ilerlemesine ve benimsenmesine katılmak için bir forum veya mekanizma oluşturmayı veya bunlara katılmayı taahhüt edersiniz. **Koruma önlemlerini atlatmaya yönelik girişimler gibi sınır yeteneklerindeki ilerlemeler ve ortaya çıkan riskler ve tehditler hakkında bilgi paylaşımını kolaylaştıran ve öncelikli endişe alanlarında teknik çalışma gruplarının geliştirilmesini kolaylaştıran bir forum veya mekanizma. Bu çalışmada Şirket, uygun olduğu şekilde ABD hükümeti, sivil toplum ve akademi de dahil olmak üzere hükümetlerle yakın bir şekilde çalışacaktır.
Güvenlik/Ağ Güvenliği (Güvenlik, bilgi güvenliğine odaklanır)
3) Tescilli ve yayınlanmamış modelleri korumak için siber güvenlik savunmalarına ve içeriden gelen tehdit önlemlerine yatırım yapın
Taahhüde katılan şirketlerin, özellikle siber güvenlik ve içeriden gelen tehdit riskleri ile ilgili olarak, kapsam içi modellerin yayınlanmamış yapay zeka modeli ağırlıklarını işletmeleri için temel fikri mülkiyet olarak dikkate alması gerekir. Bu, model ağırlıklarına erişimi yalnızca iş işlevleri bunu gerektiren kişilerle sınırlandırmayı ve en değerli fikri mülkiyetinizi ve ticari sırlarınızı korumakla tutarlı, güçlü bir içeriden gelen tehdit algılama programı oluşturmayı içerir. Ek olarak, yetkisiz dağıtım riskini azaltmak için ağırlıkların uygun bir güvenli ortamda saklanması ve kullanılması gerekir.
4) Üçüncü tarafları sorunları ve güvenlik açıklarını keşfetmeye ve bildirmeye teşvik edin
Bu taahhüdü veren şirketler, AI sistemlerinin sağlam "kırmızı takım testlerinden" sonra bile hala savunmasız olabileceğini kabul ediyor ve şirketler, güvensiz davranış gibi zayıflıkların sorumlu bir şekilde açıklanmasını teşvik etmek veya AI sistemlerini bir şirketin mevcut hata ödül programına dahil etmek için ödül sistemleri, yarışmalar veya ödüller kapsamındaki sistemler için ödüller oluşturmayı taahhüt ediyor.
Güven
**5) Yapay zeka tarafından oluşturulan ses veya video içeriği için, öncelikle kullanıcıların ses veya video içeriğinin yapay zeka tarafından üretilip üretilmediğini anlamalarını sağlamak için güvenilir atıf, filigran veya her ikisi de dahil olmak üzere yeni mekanizmaların geliştirilmesi ve dağıtılması gerekir. **
Bu taahhüde dahil olan şirketler, insanların ses veya video içeriğinin yapay zeka tarafından üretilip üretilmediğini bilmelerini sağlamanın önemini kabul ediyor. Bunu başarmak için şirketler, geliştirilmeleri tamamlandıktan sonra halka açık sistemlerinden herhangi biri tarafından oluşturulan ses veya video içeriği için atıf ve/veya filigran sistemleri sağlamak üzere, tanıtıldıkları ölçüde dahil olmak üzere sağlam mekanizmalar geliştirmeyi kabul eder. Ayrıca, belirli bir içeriğin kendi sistemleri tarafından oluşturulup oluşturulmadığını belirlemek için araçlar veya API'ler geliştireceklerdir. Gerçeklikten kolayca ayırt edilebilen veya şirketin yapay zeka sistemleri tarafından üretildiği için kolayca tanınabilecek şekilde tasarlanmış (bir yapay zeka asistanının varsayılan sesi gibi) görsel-işitsel içerik bu taahhüt kapsamında değildir.
Filigran veya ilişkilendirme verileri, içeriği oluşturan hizmet veya modelin tanımlayıcısını içermelidir, ancak kullanıcıyı tanımlayabilecek herhangi bir bilgi içermesi gerekmez. Daha genel olarak, bu taahhüdü veren şirketler, kullanıcıların kullanıcı tarafından oluşturulan ses veya video içeriği ile yapay zeka tarafından oluşturulan ses veya video içeriği arasında ayrım yapmasına yardımcı olacak teknik bir çerçeve geliştirmek için sektördeki meslektaşları ve standart belirleyen kurumlarla birlikte çalışma taahhüdünde bulunur.
**6) Adalet ve önyargı üzerindeki etki gibi toplumsal risklerin tartışılması da dahil olmak üzere, bir model veya sistemin yetenekleri, sınırlamaları ve uygun ve uygunsuz kullanım alanları hakkında kamuya açık rapor verin. **
Taahhüde katılan şirketlerin, kullanıcıların kullandıkları veya etkileşimde bulundukları AI sistemlerinin bilinen yeteneklerinden ve sınırlamalarından haberdar olmaları gerektiğini kabul etmesi gerekir. Şirketlerin, kapsamdaki tüm yeni önemli modeller için yayın raporları yayınlamaları gerekmektedir. Bu raporlar, gerçekleştirilen güvenlik değerlendirmelerini (tehlikeli yetenekler gibi alanlar dahil, ancak bu değerlendirmeler kamuya açıklanmaya tabidir), uygun kullanım alanlarını etkileyen önemli performans sınırlamalarını, modelin adalet ve yanlılık gibi toplumsal riskler üzerindeki etkisinin bir tartışmasını ve modelin dağıtıma uygunluğunu değerlendirmek için yürütülen çekişmeli testlerin sonuçlarını içermelidir.
**7) Zararlı önyargı ve ayrımcılıktan kaçınmak ve mahremiyeti korumak da dahil olmak üzere yapay zeka sistemlerinin ortaya koyduğu sosyal risklerle ilgili araştırmalara öncelik verin. **
Taahhüde katılan şirketlerin, yapay zeka sistemlerinin zararlı önyargı ve ayrımcılık yaymasını önlemenin önemini kabul etmesi gerekiyor. Şirketler genellikle güven ve güvenlik ekiplerini güçlendirmeyi, yapay zeka güvenlik araştırmalarını ilerletmeyi, mahremiyeti teşvik etmeyi, çocukları korumayı ve nihai fayda için yapay zeka risklerini proaktif bir şekilde yönetmeyi taahhüt eder.
8) Toplumun en büyük zorluklarını ele almaya yardımcı olmak için son teknoloji yapay zeka sistemleri geliştirin ve devreye alın
Taahhüde katılan şirketlerin, iklim değişikliğinin hafifletilmesi ve uyarlanması, kanserin erken teşhisi ve önlenmesi ve siber tehditlerle mücadele gibi toplumun en büyük sorunlarının ele alınmasına yardımcı olmak için son teknoloji yapay zeka sistemlerinin araştırma ve geliştirmesini desteklemeyi kabul etmesi gerekecek. Şirketler ayrıca, yapay zekanın faydalarından yararlanmak için öğrencilerin ve personelin eğitim ve öğretimini ilerletecek ve vatandaşların yapay zeka teknolojilerinin doğasını, yeteneklerini, sınırlamalarını ve etkilerini anlamalarına yardımcı olacak girişimleri destekleme taahhüdünde bulundu.
Referans: AI yönetişimini ileriye taşıma (openai.com)
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Tam Hikaye | Beyaz Saray, yapay zekaya gönüllü bir taahhüt vermek için 7 AI şirketini bir araya getirdi
Makale kaynağı: Alfa Tavşan Araştırma Notları
tam metin
Yapay zeka teknolojisi ve hizmetlerinin güvenliğini, güvenliğini ve güvenilirliğini güçlendirmek için OpenAI ve diğer önde gelen yapay zeka laboratuvarları gönüllü taahhütlerde bulunmuştur. **Öncelikle Beyaz Saray tarafından koordine edilen bu çaba, ABD'de ve dünya çapında anlamlı ve etkili yapay zeka yönetişimini ilerletmede önemli bir adımdır. **
OpenAI, güvenli ve faydalı bir yapay zeka oluşturma misyonunun peşinde, OpenAI gibi üretime uygun bir temel model için özel olarak hazırlanmış belirli yönetişim uygulamalarını denemeye ve iyileştirmeye devam edecek. Buna ek olarak OpenAI, yapay zeka modellerinin potansiyel tehlikelerini değerlendirmek için teknolojiler geliştirmek gibi düzenlemeye bilgi sağlamaya yardımcı olan araştırma alanlarına yatırım yapmaya devam edecek.
Gönüllü AI taahhütleri
Aşağıdaki gönüllü taahhütler listesi ilk olarak Beyaz Saray tarafından yayınlandı:
Yapay zeka teknolojilerinin güvenli, güvenilir ve şeffaf bir şekilde geliştirilmesini ve uygulanmasını teşvik etmek için şirketler tarafından verilen taahhütlerin bir listesi aşağıdadır. Aşağıdaki taahhütler, mevcut yasa ve yönetmeliklerle tutarlıdır ve yapay zeka yasal ve politika sistemlerinin sağlamlığını desteklemek için tasarlanmıştır. İlgili yasa, yönetmelik ve sistemler yürürlüğe girene kadar her şirket aşağıdaki gönüllü taahhütleri yerine getirecektir ve bazı şirketler bu taahhüdün ötesinde başka taahhütlerde bulunabilir.
Kapsam: Bu taahhüt, yalnızca mevcut endüstri sınırından daha güçlü olan üretken yapay zeka modelleri (ör. görüntü oluşturma için GPT-4, Claude 2, PaLM 2, Titan ve DALL-E 2 dahil olmak üzere şu anda piyasaya sürülen tüm modellerden daha güçlü modeller) için geçerli olan belirli modelleri ifade eder.
Not: Güvenlik, kasıtlı (insan yapımı) tehditlere karşılık gelir ve Güvenlik, yapay zeka sisteminin kendisinin güvenlik açıklarına veya istenmeyen sonuçlarına karşılık gelir; burada, AI Güvenliği, işlevsel güvenliğe karşılık gelir ve AI Güvenliği, AI bilgi güvenliğine karşılık gelir
Güvenlik (işlevsel güvenliğe odaklanın)
**1) Kötüye kullanım, toplumsal risk ve ulusal güvenlik kaygıları (ör. biyolojik, siber ve diğer güvenlik alanları) açısından modelleri ve sistemleri dahili ve harici olarak yeniden değerlendirme taahhüdü. **
Bu taahhütlerde yer alan şirketler, güçlü kırmızı ekip testinin bitmiş ürünler oluşturmak, yapay zekaya halkın güvenini sağlamak ve önemli ulusal güvenlik tehditlerine karşı korunmak için kritik öneme sahip olduğunu anlıyor. Kırmızı ekip testi de dahil olmak üzere model güvenliği ve yetenek değerlendirmesi, açık bir bilimsel keşif alanıdır ve daha fazla çalışmaya ihtiyaç vardır. Şirketler, bu alandaki araştırmaları ilerletmeyi ve kapsam dahilindeki tüm yeni modellerin önemli kamu sürümleri için çok yönlü, özel ve ayrıntılı kırmızı ekip test rejimleri geliştirmeyi taahhüt eder; burada, bağımsız alan uzmanlarının girdileri de dahil. Sistemi tasarlarken, aşağıdakilere yüksek öncelik verildiğinden emin olun:
Yukarıdaki çalışmayı desteklemek için katılımcı şirketler, AI sistemi karar verme süreçlerinin açıklanabilirliği ve AI sistemlerinin kötüye kullanıma karşı sağlamlığının iyileştirilmesi dahil olmak üzere devam eden AI güvenlik araştırmasını ilerletecektir. Benzer şekilde, şirketler kırmızı takım ve güvenlik programı testlerini şeffaflık raporlarında kamuya açıklamayı taahhüt eder.
2) Şirketler ve hükümetler arasında güven ve güvenlik riskleri, tehlikeler veya yapay zekanın ortaya çıkan yetenekleri ve koruma önlemlerini atlatmaya yönelik girişimler hakkında bilgi paylaşma taahhüdü
Bu taahhüde katılan şirketlerin, kırmızı ekip testi yapmak ve yapay zekada güven ve güvenliği teşvik etmek için bilgi paylaşımının, ortak standartların ve en iyi uygulamaların önemini kabul etmesi gerekir. **NIST Yapay Zeka Risk Yönetimi Çerçevesi veya kırmızı ekip testi, güvenlik ve toplumsal risklerle ilgili gelecekteki standartlar gibi en son yapay zeka güvenliğine ilişkin ortak standartların ve en iyi uygulamaların geliştirilmesine, ilerlemesine ve benimsenmesine katılmak için bir forum veya mekanizma oluşturmayı veya bunlara katılmayı taahhüt edersiniz. **Koruma önlemlerini atlatmaya yönelik girişimler gibi sınır yeteneklerindeki ilerlemeler ve ortaya çıkan riskler ve tehditler hakkında bilgi paylaşımını kolaylaştıran ve öncelikli endişe alanlarında teknik çalışma gruplarının geliştirilmesini kolaylaştıran bir forum veya mekanizma. Bu çalışmada Şirket, uygun olduğu şekilde ABD hükümeti, sivil toplum ve akademi de dahil olmak üzere hükümetlerle yakın bir şekilde çalışacaktır.
Güvenlik/Ağ Güvenliği (Güvenlik, bilgi güvenliğine odaklanır)
3) Tescilli ve yayınlanmamış modelleri korumak için siber güvenlik savunmalarına ve içeriden gelen tehdit önlemlerine yatırım yapın
Taahhüde katılan şirketlerin, özellikle siber güvenlik ve içeriden gelen tehdit riskleri ile ilgili olarak, kapsam içi modellerin yayınlanmamış yapay zeka modeli ağırlıklarını işletmeleri için temel fikri mülkiyet olarak dikkate alması gerekir. Bu, model ağırlıklarına erişimi yalnızca iş işlevleri bunu gerektiren kişilerle sınırlandırmayı ve en değerli fikri mülkiyetinizi ve ticari sırlarınızı korumakla tutarlı, güçlü bir içeriden gelen tehdit algılama programı oluşturmayı içerir. Ek olarak, yetkisiz dağıtım riskini azaltmak için ağırlıkların uygun bir güvenli ortamda saklanması ve kullanılması gerekir.
4) Üçüncü tarafları sorunları ve güvenlik açıklarını keşfetmeye ve bildirmeye teşvik edin
Bu taahhüdü veren şirketler, AI sistemlerinin sağlam "kırmızı takım testlerinden" sonra bile hala savunmasız olabileceğini kabul ediyor ve şirketler, güvensiz davranış gibi zayıflıkların sorumlu bir şekilde açıklanmasını teşvik etmek veya AI sistemlerini bir şirketin mevcut hata ödül programına dahil etmek için ödül sistemleri, yarışmalar veya ödüller kapsamındaki sistemler için ödüller oluşturmayı taahhüt ediyor.
Güven
**5) Yapay zeka tarafından oluşturulan ses veya video içeriği için, öncelikle kullanıcıların ses veya video içeriğinin yapay zeka tarafından üretilip üretilmediğini anlamalarını sağlamak için güvenilir atıf, filigran veya her ikisi de dahil olmak üzere yeni mekanizmaların geliştirilmesi ve dağıtılması gerekir. **
Bu taahhüde dahil olan şirketler, insanların ses veya video içeriğinin yapay zeka tarafından üretilip üretilmediğini bilmelerini sağlamanın önemini kabul ediyor. Bunu başarmak için şirketler, geliştirilmeleri tamamlandıktan sonra halka açık sistemlerinden herhangi biri tarafından oluşturulan ses veya video içeriği için atıf ve/veya filigran sistemleri sağlamak üzere, tanıtıldıkları ölçüde dahil olmak üzere sağlam mekanizmalar geliştirmeyi kabul eder. Ayrıca, belirli bir içeriğin kendi sistemleri tarafından oluşturulup oluşturulmadığını belirlemek için araçlar veya API'ler geliştireceklerdir. Gerçeklikten kolayca ayırt edilebilen veya şirketin yapay zeka sistemleri tarafından üretildiği için kolayca tanınabilecek şekilde tasarlanmış (bir yapay zeka asistanının varsayılan sesi gibi) görsel-işitsel içerik bu taahhüt kapsamında değildir.
Filigran veya ilişkilendirme verileri, içeriği oluşturan hizmet veya modelin tanımlayıcısını içermelidir, ancak kullanıcıyı tanımlayabilecek herhangi bir bilgi içermesi gerekmez. Daha genel olarak, bu taahhüdü veren şirketler, kullanıcıların kullanıcı tarafından oluşturulan ses veya video içeriği ile yapay zeka tarafından oluşturulan ses veya video içeriği arasında ayrım yapmasına yardımcı olacak teknik bir çerçeve geliştirmek için sektördeki meslektaşları ve standart belirleyen kurumlarla birlikte çalışma taahhüdünde bulunur.
**6) Adalet ve önyargı üzerindeki etki gibi toplumsal risklerin tartışılması da dahil olmak üzere, bir model veya sistemin yetenekleri, sınırlamaları ve uygun ve uygunsuz kullanım alanları hakkında kamuya açık rapor verin. **
Taahhüde katılan şirketlerin, kullanıcıların kullandıkları veya etkileşimde bulundukları AI sistemlerinin bilinen yeteneklerinden ve sınırlamalarından haberdar olmaları gerektiğini kabul etmesi gerekir. Şirketlerin, kapsamdaki tüm yeni önemli modeller için yayın raporları yayınlamaları gerekmektedir. Bu raporlar, gerçekleştirilen güvenlik değerlendirmelerini (tehlikeli yetenekler gibi alanlar dahil, ancak bu değerlendirmeler kamuya açıklanmaya tabidir), uygun kullanım alanlarını etkileyen önemli performans sınırlamalarını, modelin adalet ve yanlılık gibi toplumsal riskler üzerindeki etkisinin bir tartışmasını ve modelin dağıtıma uygunluğunu değerlendirmek için yürütülen çekişmeli testlerin sonuçlarını içermelidir.
**7) Zararlı önyargı ve ayrımcılıktan kaçınmak ve mahremiyeti korumak da dahil olmak üzere yapay zeka sistemlerinin ortaya koyduğu sosyal risklerle ilgili araştırmalara öncelik verin. **
Taahhüde katılan şirketlerin, yapay zeka sistemlerinin zararlı önyargı ve ayrımcılık yaymasını önlemenin önemini kabul etmesi gerekiyor. Şirketler genellikle güven ve güvenlik ekiplerini güçlendirmeyi, yapay zeka güvenlik araştırmalarını ilerletmeyi, mahremiyeti teşvik etmeyi, çocukları korumayı ve nihai fayda için yapay zeka risklerini proaktif bir şekilde yönetmeyi taahhüt eder.
8) Toplumun en büyük zorluklarını ele almaya yardımcı olmak için son teknoloji yapay zeka sistemleri geliştirin ve devreye alın
Taahhüde katılan şirketlerin, iklim değişikliğinin hafifletilmesi ve uyarlanması, kanserin erken teşhisi ve önlenmesi ve siber tehditlerle mücadele gibi toplumun en büyük sorunlarının ele alınmasına yardımcı olmak için son teknoloji yapay zeka sistemlerinin araştırma ve geliştirmesini desteklemeyi kabul etmesi gerekecek. Şirketler ayrıca, yapay zekanın faydalarından yararlanmak için öğrencilerin ve personelin eğitim ve öğretimini ilerletecek ve vatandaşların yapay zeka teknolojilerinin doğasını, yeteneklerini, sınırlamalarını ve etkilerini anlamalarına yardımcı olacak girişimleri destekleme taahhüdünde bulundu.
Referans: AI yönetişimini ileriye taşıma (openai.com)