100’den fazla bilim insanı, sorumlu araştırma ve etik uygulamaları vurgulayarak yapay zeka biyolojik silah risklerine karşı söz verdi.
Yapay zeka kullanımının yanlış gitmesinin birçok yolu vardır. Örneğin yapay zeka, askeri operasyonlara savaş planlarında yardımcı olabilir. Ancak yapay zekanın olası kötüye kullanımını engellemek için bazı kısıtlamalar getirildi.
100’den fazla bilim insanı, yapay zekanın biyolojik silahlarda kullanılmasını önlemek için toplu olarak 10 politikaya uymayı taahhüt etti. Bu politikalar, yapay zeka destekli biyolojik silahların yaratılmasını önlemeyi amaçlıyor. Bazı önemli katılımcılar arasında Ivy League araştırmacıları ve Microsoft’un Baş Bilimsel Görevlisi yer alıyor.

Anlaşma, 20230 Washington Üniversitesi zirvesinden kaynaklandı. Amaç, kasıtlı olarak veya başka şekilde zarar vermek amacıyla kullanılabilecek yapay zeka teknolojileriyle ilişkili riskleri azaltmak için proaktif risk yönetimini vurgulamaktır.
Cuma günü yayınlanan imzalanan anlaşma, yapay zeka kullanımına yasak getirmekten ziyade yol gösterici ilkeler oluşturmaya odaklanıyor . Bunun yerine, istenmeyen DNA felaketlerini önlemeye yönelik önlemlerin ana hatlarını çiziyor.
Temel politikalar, bilim adamlarının “genel zarara” veya kötüye kullanıma yol açabilecek araştırmalara katılmama taahhüdünü içerir. Ek olarak, yalnızca iyi tarama önlemlerine sahip sağlayıcıların DNA hizmetlerini kullanacaklarını taahhüt ediyorlar.
Bu önlemler, tehlikeli biyomoleküllerin üretilmeden önce tespit edilmesini içerir. Yapay zeka destekli araştırmaların etik sınırlar içinde kalmasını ve istenmeyen sonuçların önlenmesini sağlamayı amaçlıyorlar.
Ayrıca anlaşma, bilim adamlarının yapay zeka destekli yazılımı yayınlamadan önce güvenlik risklerini değerlendirmesi ve “kırmızı takım” uygulamalarına katılması gerektiğini söylüyor. Kırmızı takım uygulamaları, tarama protokollerindeki potansiyel zayıflıkları belirlemek için simüle edilmiş egzersizleri içerir.
Bu uygulamalar, yapay zeka biyolojik silahları söz konusu olduğunda potansiyel tehdit oluşturan her türlü senaryoyu tespit edecek ve durduracaktır. Simülasyon hiçbir zaman çok dikkatli olamayacağınızı, her zaman dikkatli olabileceğinizi gösteriyor.
Küresel bir anlaşma
Harvard gibi kurumlardan ve Almanya ve Japonya gibi ülkelerdeki diğer bilim adamlarından bireysel bilim insanları anlaşmayı onayladığından, politikalar birçok kişide yankı uyandırıyor. Microsoft’un Bilimsel Baş Sorumlusu Eric Horvitz’in yanı sıra ProteinQure, Menten AI ve Profluent Bio gibi şirketlerin profesyonelleri de imza attı.
Anlaşma isteğe bağlı olsa ve bireysel bilim insanlarının taahhütlerini ifade etse de, kurumların ve meslektaşlarının özetlenen politikaları kolektif olarak benimseyebilecekleri umudu var. Bu yeni isteğe bağlı anlaşma, Anthropic CEO’su Dario Amodei’nin geçen yıl yapay zeka destekli biyolojik silahların “orta vadeli” bir risk olduğunu ancak yalnızca birkaç yıl uzakta olduğunu söylemesinin ardından geldi.
Amodei, “Biyolojik silah üretimindeki belirli adımlar, Google’da veya ders kitaplarında bulunamayan bilgileri içerir ve yüksek düzeyde uzmanlık gerektirir” dedi. “Günümüzün yapay zeka araçlarının bu adımlardan bazılarını yerine getirebileceğini gördük.”
Yapay zeka kullanımına ilişkin kapsamlı ABD federal yasaları hâlâ geliştirilme aşamasındadır. Beyaz Saray, 2022’de bir Yapay Zeka Hakları Bildirgesi planı önerdi. Ayrıca, ABD Ulusal Eyalet Yasama Meclisleri Konferansı’na göre, 18 eyalet ve Porto Riko, geçen yıl yapay zeka kullanımını çevreleyen çeşitli yasa veya kararları onayladı.
Anlaşmanın tamamı , “Protein Tasarımı için Yapay Zekanın Sorumlu Gelişimi için Topluluk Değerleri, Yol Gösterici İlkeler ve Taahhütler” başlığı altında Sorumlu Yapay Zeka x Biyotasarım olarak adlandırılmaktadır .
Kaynak;
https://interestingengineering.com/culture/policies-prevent-ai-bioweapons





