Sonsuz Ark/ Evrensel Çerçeveye Yolculuk
Most AI research shouldn’t be publicly released
Geçtiğimiz ay (Mayıs 2023) araştırmacılar, bilimsel deneyleri sıfır gözetimle otonom olarak tasarlamak, planlamak ve yürütmek için üretken bir yapay zeka (YZ-AI) sistemi kullanmanın mümkün olduğunu gösterdiler. Sistem, kimyasalların sentezlenmesi için talimatlar yazdı ve bu talimatlar daha sonra kimyasalların döngüde herhangi bir insan olmadan sentezlenebildiği uzak bir laboratuvar tarafından yürütülebildi.
Ayrıca geçen yıl araştırmacılar, bir yapay zeka modelinin, şimdiye kadar keşfedilen en zehirli bileşikler arasında sayılan bir sinir gazı olan VX'ten bile daha zehirli yeni bileşikler keşfedebildiğini bildirdiler. Araştırmacılardan biri verdiği bir röportajda kendisi için "endişe verici olanın bunu yapmanın ne kadar kolay olduğu" olduğunu ve "muhtemelen iyi bir hafta sonu çalışmasıyla" az para, eğitim ve biraz bilgi birikimine sahip birinin bir modeli endişe verici sonuçlar üretecek şekilde ayarlayabileceğini söyledi.
Ulusal Sağlık Enstitüleri'ne göre, "metodolojiler, materyaller veya sonuçlar zarar vermek için kullanılabiliyorsa" araştırma "çift kullanımlıdır". İnsan patojenleri üzerine yapılan araştırmaların işlev kazanması, kötüye kullanım açısından bir örnektir. Yapay zeka araştırmaları da öyle.
YZ araştırmalarının endişe verici kötüye kullanımı, VX gibi tehlikeli derecede yasadışı kimyasal bileşiklerin sentezi ile sınırlı değildir. YZ halihazırda kritik altyapılara yönelik ağ saldırılarına karşı savunmada kullanılıyor ve çok daha az etkili bir şekilde ağları tehlikeye atmaya yönelik yeni teknikler geliştirmek için de kullanılıyor. Ancak siber güvenlik YZ araştırmaları devam ettikçe, savunma amaçlı YZ araçlarını saldırı amaçlı olanlara tercih eden mevcut dengenin devam edeceğini beklemek pollyanna'cılık olacaktır.
Bu kısmen teknik nedenlerden kaynaklanıyor: Ağa izinsiz giriş için tasarlanan YZ araçlarının komuta ve kontrolden bağımsız olarak çalışması muhtemeldir, bu da onları mevcut tespit tekniklerine karşı büyük ölçüde bağışık hale getirir. Denge daha yavan nedenlerden dolayı da istikrarsızdır: Saldırgan YZ sistemleri geliştirmeye yönelik teşvikler milyarlarca doları bulmaktadır.
Kötüye kullanım fırsatları daha da geniştir. Yapay zeka halihazırda özel ve devlet gözetim rejimlerinin ayrılmaz bir bileşenidir. Özel şirketler bunu vatandaşları mülklerinden dışlamak için kullanmaktadır. Devlet aktörleri, vatandaşlarını yalnızca insan ajanlar kullanarak imkansız olacak şekillerde gözetlemek, izlemek ve kontrol etmek için kullanmaktadır. Eğer otoriterlik kurallara uyulup uyulmadığını tespit etme becerisine dayanıyorsa, o zaman otoriterlik çok daha etkili hale gelmek üzeredir. Daha etkili otoriterliğin kötü bir YZ sonucu olduğunu söylemek oldukça tartışmasızdır.
YZ araştırmalarının kötüye kullanılması için neden bu kadar çok fırsat var? YZ araştırma laboratuvarlarının kendileri bu sorunun cevabına işaret ediyor. Birçok büyük YZ laboratuvarının belirtilen amacı, çok çeşitli görevlerde insan düzeyinde performansa ulaşmak ve ideal olarak bunu aşmaktır; bu amaca ulaşmada yinelemeli başarı, yapay genel zekaya (YGZ-AGI) yol açabilir. Ancak YGZ'ye ilişkin beklentiler ne olursa olsun, zeka paradigmatik çift kullanımlı yetenektir ve makine zekası da paradigmatik çift kullanımlı teknolojidir.
YZ araştırmalarının bu kadar geniş çaplı kötüye kullanıma açık olması, şeffaflık normları ile zarar risklerini azaltma ihtiyacı arasında ciddi ve çözülmemiş bir gerilim üretmektedir. Bilimsel araştırmalarda şeffaflık inkar edilemez derecede değerlidir: Keşfi hızlandırır, disiplinleri birbirine bağlar, bilgiyi yayar, tekrarlanabilirliği arttırır ve doğruluğu ödüllendirir.
Bu nedenle doğal bir fikir, tüm YZ araştırmalarının her koşulda her açıdan tamamen şeffaf olması gerektiğidir. Bu bir hata olacaktır.
Araştırmacılar, zarar riskini azaltmak için daha geniş bir sorumlulukla şeffaflığı yumuşatma ihtiyacını uzun zamandır kabul ediyorlar. Diğer çift kullanımlı teknolojiler -özellikle YZ teknolojisi gibi silah ve biyomedikal uygulamaları olanlar- şeffaflık konusunda mevcut kısıtlamaları içermektedir.
YZ araştırmacıları, YZ'nin çift kullanımlı doğasını kavramaya başlamışlardır. Ancak, belirli araştırma eserlerini (kod, eğitim prosedürleri, model ağırlıkları) sorumlu bir şekilde saklamaya yönelik harekete rağmen, yayınlamayı çevreleyen normlar, azalan hesaplama seviyelerinde giderek daha geniş bir görev yelpazesinde giderek daha güçlü yeteneklere doğru olan YZ araştırmalarının yörüngesine yeterince duyarlı değildir.
Araştırmalarından kaynaklanan kötüye kullanım riskini azaltabilecek tek kişiler araştırmacılar değildir. Ancak bu soruna karşı özel bir kozları var: Araştırmalarının hangi kısımlarını kamuya açıklayacaklarını seçebilirler.
YZ araştırmacılarının sorumluluklarını yerine getirmek için iyi niyetli çabalar gösterdikleri varsayımıyla, bu sorumluluklara ilişkin mevcut resimlerini mevcut uygulamalardan tahmin edebiliriz. Ancak belirttiğimiz gibi, mevcut uygulamalar, diğer araştırmacıların bu araştırmayı ölümcül kimyasal bileşikler için formüller türetmek için kullanmalarına olanak tanıyacak kadar araştırmayı şeffaf bir şekilde raporlamayı (veya araştırma eserlerine nispeten sınırsız erişim sunmayı) içeriyor. Bu derece ahlaki ihtiyat, herhangi bir makul standarda göre çok gevşektir.
Daha katı bir standart çok daha caziptir. Bu ahlaki sorun hakkında düşünmenin bir yolunu hukuktan ödünç almalıyız. Hukukta, bir varsayım, varsayımı yeniden değerlendirmek için bir kriter ve bunu yapmak için bir prosedür olmak üzere üç katlı fikir tanıdıktır. Örneğin, varsayılan, insanların bir suçtan masum olduklarıdır; yeniden değerlendirme kriteri bu suçla itham edilmektir; ve yeniden değerlendirme prosedürü bir ceza yargılamasıdır. Ödünç alma bitti: Varsayılan, YZ araştırmasının kötüye kullanılmaya açık olduğu (ve bu nedenle kamuya açıklanmaması gerektiği); yeniden değerlendirme kriteri, bu araştırma hakkında şeffaf olma kararıdır; ve prosedür... peki, tam olarak nedir?
Tek başına doğru olanı seçmeden, prosedür -ceza adaleti sistemiyle ilişkili olanlar gibi- genel olarak inandırıcı olmalıdır. Bir prosedürün güvenilir olmasını sağlamanın en kolay yolu, tam olarak ne olduğunu söylemek ve ardından güvenilir aktörler tarafından uygulanmasını sağlamaktır. Bunu işlevsel hale getirmenin bir yolu, bir araştırmanın kamuya açıklanması için ilgili ahlaki standardı karşılayıp karşılamadığını değerlendirmek (ve akredite etmek) için bağımsız denetçiler ("kırmızı ekipler") istihdam etmektir.
Örneğin, bize günümüzün modern büyük dil modellerini sunan araştırmayı düşünün - GPT'ye "T" harfini ekleyen makale ya da üretken önceden eğitilmiş dönüştürücü. Bu makalede rapor edilen araştırma, OpenAI'dekiler de dahil olmak üzere diğer bilim insanlarının son derece yetenekli büyük dil modellerini büyük ölçekte, hızla ve muazzam veri setleri üzerinde eğitmeye başlamasını sağlayan şeydir.
Dolayısıyla, bu araştırmanın, sağladığı teknolojinin araştırmacıların genel olarak kötüye kullanıma açık sistemler oluşturmasına izin vermesi anlamında, kötüye kullanıma geniş ölçüde açık olduğu ortaya çıkmaktadır. Az önce öne sürülen nedenlerden dolayı, bugün varsayılan olarak bu makalenin yayınlanmasına karşı çıkılmalıdır. Yine bunun nedeni, önerdiğim gibi, tüm YZ araştırmalarının kötüye kullanıma açık olması ve bu nedenle varsayılanın her zaman yayına karşı olması gerektiğidir. Bu, makalenin yayınlanmaması gerektiği veya yayınlanmayacağı anlamına gelmez; bunun yerine, bunun yapılıp yapılmayacağı sorusunun, kötüye kullanıma açık olmadığından emin olmak için (güvenilir) bir prosedüre tabi olması gerektiği anlamına gelir.
Peki ya şeffaflık lehine olan nedenler? YZ araştırmalarını yayınlamayı durdurma nedenlerine karşı nasıl bir ağırlık taşırlar? Genel olarak iki tür ilgili neden vardır: pragmatik ve epistemik. Örneğin, yatırımcılara şirin görünmek, en iyi yetenekleri çekmek ve başka bir şekilde araştırmayı abartmak gibi (pragmatik) yayınlama nedenleri vardır.
Sanırım hiç kimse bu tür pragmatik nedenlerin, zararlı sonuçları olabilecek sonuçları yayınlamayı haklı çıkarmak için yeterli ağırlığa sahip olduğunu düşünmüyor. Epistemik mülahazaların göreceli ağırlığı daha karmaşıktır; buradaki mesele şeffaflığın, diğer araştırmacıların kişinin çalışmasından bir şeyler öğrenmesini sağlamak gibi bazı epistemik faydaları olmadığı değildir. Bunun yerine, mesele, bu epistemik faydaların, gelecekte öngörülebilir kötüye kullanımla ilişkili ahlaki maliyetlere karşı şu anda uygun şekilde tartılmadığıdır.
Araştırmacıların aklında çok şey vardır. Bu nedenle, laboratuvarları, yeteneklerin ve temel araştırmaların az önce taslağı çizilene benzer güvenilir bir prosedüre tabi tutulduğu otomatik bir süreç başlatarak bireysel araştırmacılar üzerindeki ahlaki yükü hafifletmeyi düşünebilir. Bunu yapmak nispeten masrafsızdır; daha da iyisi, laboratuvarların sorumluluklarını ciddiye aldıklarını ucuz bir şekilde gösterir.
Önümüzdeki aylarda yapay zeka araştırmalarına güçlü yatırımları olan ticari kuruluşların böyle bir yol izlediğini görmeyi bekliyorum. Artan gizlilik, bazıları tarafından -özellikle de demokratik gözetimle ilgilenenler tarafından- güvensizlikle karşılanacaktır. Ancak, biyolojik silah araştırmalarına ilişkin gizliliğin demokratik yönetişimle bağdaşmadığı kadar, araştırmaların şeffaf olmayan bir şekilde raporlanması da demokratik yönetişimle bağdaşmaz değildir ve riski azalttığı için araştırmacılar bunu memnuniyetle karşılayabilir.
Nate Sharadin, 8 Haziran 2023, Bulletin of the Atomic Scientist
(Nate Sharadin, Hong Kong Üniversitesi'nde filozof ve Center for AI Safety'de araştırma görevlisi olarak çalışmaktadır ve burada YZ uyumu, araştırma ve gelişmiş YZ sistemlerine yönelik etkili düzenleyici yaklaşımları içeren etik konular üzerinde çalışmaktadır.)
Seçkin Deniz, 28.08.2023, Sonsuz Ark, Çeviri, Çeviri ve Yansımalar
- Sonsuz Ark'ta yayınlanan yazılardan yazarları sorumludur.
- Sonsuz Ark linki verilerek kısmen alıntı yapılabilir.
- Sonsuz Ark yayınları Sonsuz Ark manifestosuna aykırı yayın yapan sitelerde yayınlanamaz.
- Sonsuz Ark Yayınlarının Kullanımına İlişkin Önemli Duyuru için lütfen tıklayınız.