Milyarder Elon Musk ve bir dizi uzman Çarşamba günü, güçlü yapay zeka (AI) sistemlerinin güvenli olmalarına zaman tanımak için geliştirilmesinde durdurma çağrısında bulundu. Musk ve Apple kurucu ortağı Steve Wozniak da dahil olmak üzere bugüne kadar 1000’den fazla kişi tarafından imzalanan açık mektup, Microsoft destekli OpenAI tarafından GPT-4’ün piyasaya sürülmesinden kaynaklandı.
Şirket, en son modelinin, en özlü ipuçlarından metin parçacıkları oluşturabilen bir bot olan ChatGPT’yi çalıştırmak için kullanılan önceki sürümden çok daha güçlü olduğunu söylüyor.
“Dev Yapay Zeka Deneylerini Askıya Al” başlıklı açık mektupta “İnsanın rekabetçi zekasına sahip AI sistemleri, toplum ve insanlık için ciddi bir tehlike oluşturabilir” yazıyor.
Mesajda, “Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olduğundan ve risklerin yönetilebilir olduğundan emin olduğumuzda geliştirilmelidir” diyor.
Musk, OpenAI’nin ilk yatırımcılarından biriydi, yönetim kurulunda yıllarca çalıştı ve otomobil şirketi Tesla, diğer şeylerin yanı sıra otonom sürüş teknolojilerini ilerletmek için yapay zeka sistemleri geliştiriyor.
Musk tarafından finanse edilen Future of Life Enstitüsü tarafından yayınlanan mektup, önde gelen eleştirmenlerin yanı sıra Stability AI başkanı Emad Mostak gibi OpenAI rakipleri tarafından imzalandı. Yine anlaşmanın imzacılarından biri olan Kanadalı yapay zeka öncüsü Yoshua Bengio, Montreal’de düzenlediği sanal basın toplantısında, bu güçlü araca ve olası kötüye kullanımına “toplumun hazır olmadığı” konusunda uyardı. “Yavaşlayalım. Daha iyi çitler geliştirdiğimizden emin olalım,” dedi ve “nükleer enerji ve nükleer silahlar için yaptığımız gibi” AI ve bunun sonuçları hakkında kapsamlı bir uluslararası tartışma yapılması çağrısında bulundu.
Yeterince “Güvenilir ve Sadık” Mı?
Mektup, OpenAI kurucusu Sam Altman’ın “bir noktada gelecekteki sistemleri eğitmeden önce bağımsız doğrulama yapmanın önemli olabileceğini” öne süren bir blog yazısından alıntı yapıyor. “Bu görüşe katılıyoruz. An geldi, ”diye yazıyor açık mektubun yazarları. “Bu nedenle, tüm AI laboratuvarlarından GPT-4’ten daha güçlü AI sistemlerinin eğitimini en az 6 ay süreyle derhal askıya almalarını istiyoruz.”
Şirketler bir anlaşmaya varamazlarsa hükümetleri müdahale etmeye ve bir moratoryum uygulamaya çağırdılar. Altı ay, güvenlik protokolleri ve AI kontrol sistemleri geliştirmek ve AI sistemlerini daha doğru, güvenli, “güvenilir ve sadık” hale getirmek için araştırmayı yeniden odaklamak için kullanılmalıdır.
Mektup, GPT-4 tarafından tanımlanan tehlikeler hakkında ayrıntılı bilgi vermedi.
Bununla birlikte, mektubu imzalayan New York Üniversitesi’nden Gary Marcus gibi araştırmacılar, uzun süredir sohbet robotlarının büyük yalancılar olduğunu ve potansiyel olarak yanlış bilgi yayıcıları olabileceğini savunuyor. Bununla birlikte, yazar Cory Doctorow, AI sistemlerine yönelik hem potansiyelin hem de tehdidin fena halde abartıldığını savunarak AI endüstrisini bir “kocaman bir balon” şeklinde benzetme yaptı.