OpenAI, son bir yılda en çok konuşulan teknoloji şirketlerinden biri oldu.
OpenAI, herkesin kullanıma sunduğu yapay zekâ destekli sohbet botu ChatGPT ile teknoloji dünyasını sallamayı başardı.
Ancak 'Yapay zekâ insanlığın sonunu getirir mi?' tartışmalarına yeni bir soluk getirdi.
Daha önce yapay zeka araçlarının askeri ya da savaş amacıyla kullanılmasına izin vermeyen OpenAI politikalarını güncelledi.
İlgili bölümü sessizce kaldıran şirket, artık askeri amaçla yapay zekanın kullanılmasına izin veriyor.
Eski kullanım politikaları sayfasına baktığımızda OpenAI ürünlerinin;
Silah geliştirme
Askeri ve savaş
Enerji, ulaşım ve su alanlarında kritik altyapıların yönetimi veya işletilmesi
İntihar, kendini kesme ve yeme bozuklukları gibi kendine zarar verme eylemlerini teşvik eden, teşvik eden veya tasvir eden içerik
gibi yüksek fiziksel zarar riski taşıyan faaliyetler için kullanımının yasak olduğu açık bir şekilde belirtiliyordu. 'Daha net' yeni kullanım politikalarında ise askeri ve savaş kullanımı ilgili herhangi bir uyarı bulunmuyor.
Düzenlemeye silah kısmı dahil edilmedi. Yapay zeka halen silah geliştirme amacıyla kullanılamayacak.
Gerçek hayattaki etkilerini henüz görmemiş olsak da ifadelerdeki bu değişiklik tam da dünyanın dört bir yanındaki askerî kurumların yapay zekâ kullanımına ilgi gösterdiği bir döneme denk geliyor.
Yasaklanan kullanımlar listesinde açıkça 'askerî ve savaş' ifadesinin yer alması, OpenAI'nin genellikle kazançlı anlaşmalar sunan Savunma Bakanlığı gibi devlet kurumlarıyla çalışamayacağını gösteriyordu.
Şirketin şu anda herhangi birini doğrudan öldürebilecek ya da fiziksel zarar verebilecek bir ürünü bulunmuyor ancak bu politika değişikliği önemli bir anlaşmaya yol açmak için gerçekleşmiş olabilir.
Yapay zeka savaşa girdi: Teknoloji devinden endişelendiren hamle! Resmen izin verildi
OpenAI bu hafta, ChatGPT gibi güçlü ve son derece popüler araçların nasıl kullanılabileceğini belirlemeye çalışan kullanım politikasından, teknolojisinin askeri amaçlarla kullanılmasını açıkça yasaklayan düzenlemeyi sessizce kaldırdı.