16 Temmuz 1945 sabahı, New Mexico çöllerinde gün ağarırken dünya sonsuza dek değişti.
Trinity adı verilen ilk atom bombası denemesiyle, insanlık tarihinin en yıkıcı silahına giden kapı açılmıştı. İnsanlık tarihinin ilk atom bombasının üretildiği Manhattan Projesi’nin başındaki Robert Oppenheimer'ın sözleri, tarihin belleğine kazındı: “Şimdi ölüm oldum, dünyaların yok edicisi.”
Bugün ABD’de yine benzer bir dönüm noktası tartışılıyor. Fakat bu kez hedefte atom bombası değil, yapay zekânın en güçlü versiyonu olan Yapay Genel Zekâ var. Kısaca tanımlayalım. Yapay Genel Zekâ, teorik olarak insanın yapabildiği tüm zihinsel işleri gerçekleştirebilen, bağımsız düşünebilen, öğrenebilen ve kararlar alabilen ileri düzey yapay zekâ sistemlerini ifade ediyor. Örneğin, bir Yapay Genel Zekâ, hem şiir yazabilir hem sağlık teşhisi koyabilir hem de karmaşık politik kararlar alabilir.
Şimdi, ABD’de bir kez daha benzer bir yarışın fitili ateşleniyor. Ancak bu sefer amaç atom bombası değil; çok daha karmaşık, çok daha belirsiz bir hedef var ortada. Soru şu, Yapay Genel Zekâ üretimi Manhattan Projesi’ne benzetilebilir mi? Yoksa bu acelecilik, büyük bir hata mı?
Atomun gölgesinde bir yarış
Manhattan Projesi, tek bir net hedef üzerine inşa edilmişti. Atom bombasını icat etmek. Fizikçiler neyi başarmaları gerektiğini biliyordu; hedef belli, yöntem belliydi. Peki ya Yapay Genel Zekâ?
Burada durum çok farklı. Yapay Genel Zekâ'da net bir hedef yok; hareketli ve sürekli değişen bir dart tahtası var önümüzde. İnsan zekâsı dediğimiz şey nedir? Üniversite sınavlarında derece yapmak mı? Sanat eserleri üretmek mi? Yoksa bir arkadaşımız ayrılık acısı yaşadığında onu teselli etmek mi? Yapay Genel Zekâ'yı ölçebileceğimiz net bir başarı ölçütü bulunmadığı gibi, bu konuda dünya çapında bir uzlaşı da yok.
Manhattan Projesi, nükleer zincirleme reaksiyon gibi fiziksel bir prensibe dayanıyordu. Bilim insanları ilerlemelerini ölçebiliyor, hangi aşamada olduklarını net şekilde görebiliyorlardı. Ancak Yapay Genel Zekâ’nın tanımı bile net değilken, hangi noktada "başarıya" ulaşıldığını nasıl anlayacağız?
ABD neden acele ediyor?
Son yıllarda ABD’de yapay zekâ alanında başlayan tartışmalar giderek yoğunlaştı. Özellikle Çin ile yaşanan teknoloji rekabeti, Washington'ı alarma geçirdi. Örneğin 2023 yılında ABD-Çin Ekonomik ve Güvenlik İnceleme Komisyonu (USCC), Kongre’ye sunduğu bir raporda, Yapay Genel Zekâ geliştirilmesi için Manhattan Projesi benzeri büyük ve hızlı bir yatırımın yapılması gerektiğini açıkça dile getirdi.
OpenAI’ın kurucu ortaklarından Greg Brockman'ın yakın zamanda yaptığı açıklamalar da bu durumu gözler önüne seriyor: Brockman, dev süper bilgisayar yatırımlarının öncülüğünü yapıp, “Hızlanmalıyız!” naraları atıyor. Washington’daki atmosfer Trump’ın seçimleri kazanmasıyla iyiden iyiye netleşti. ABD hükümeti, Çin'in gerisinde kalma korkusuyla Yapay Genel Zekâ’yı jeopolitik bir silaha dönüştürmekten hiç mi hiç çekinmiyor.
Tehlikeli bir benzetme
Fakat bu yaklaşımı tehlikeli bulanlar da var. ABD yapay zekâ topluluğunun önde gelen isimleri, Scale AI CEO'su Alexandr Wang, Google'ın eski CEO'su Eric Schmidt ve Yapay Zekâ Güvenliği Merkezi Direktörü Dan Hendrycks, yayınladıkları "Süper Zekâ Stratejisi" raporunda açıkça uyarıyor:
“Bir süper silah yaratmak adına atılan adımlar, rakip ülkeleri daha agresif önlemler almaya zorlar ve nihayetinde ciddi istikrarsızlık doğurabilir. Manhattan Projesi’nin ardından uzun süreli bir barış yaşamadığımız unutulmamalı.”
Buradaki uyarı net. Yapay Genel Zekâ’yı atom bombası gibi düşünmek, ülkeleri bir silahlanma yarışına sürükleyebilir. Bu yarış, kontrolü zor yapay zekâ sistemleri yaratılmasına yol açabilir. Dolayısıyla, "önce ben geliştireyim" telaşı, yalnızca ABD'yi değil, tüm dünyayı büyük bir riskle karşı karşıya bırakıyor.
Yazarlar raporda şu ifadelere yer veriyor:
"AGI için bir Manhattan Projesi başlatmak, rakiplerin uzun vadeli bir güç dengesizliğini veya toplu yıkımı sessizce kabul edeceğini varsayar; ancak bu varsayım gerçekçi değildir. Bir süper silah ve küresel kontrol hedefiyle başlatılan bir proje, karşı tedbirleri tetikleyerek gerilimi artırabilir ve böylece başta hedeflenen istikrarı tehlikeye atabilir."
Bu stratejinin Schmidt tarafından dile getirilmesi özellikle dikkat çekici; zira kendisi daha önce ABD’nin Çin ile ileri düzey yapay zekâ sistemleri geliştirme konusunda agresif bir rekabete girmesi gerektiğini açıkça savunmuştu. Schmidt, yalnızca birkaç ay önce yayınladığı bir makalede, DeepSeek’in ABD’nin Çin ile yürüttüğü yapay zekâ yarışında bir dönüm noktası olduğunu da ifade etmişti.
Yeni bir kavram: Karşılıklı yapay zekâ arızası
Süper Zekâ Stratejisi raporunda dikkat çeken başka bir kavram da var: Karşılıklı Yapay Zekâ Arızası (Mutual AI Failure). Bu terim, ülkelerin birbirlerine karşı geliştirdikleri tehditkâr Yapay Genel Zekâ projelerinin durdurulması anlamına geliyor. Eğer devletler bu projeleri devre dışı bırakmazsa, yapay zekânın kontrol edilemez biçimde silahlanması kaçınılmaz hale gelebilir.
Örneğin Pentagon, Yapay Genel Zekâ’yı askeri operasyonlarına şimdiden entegre etmeye başladı. Çin ve Rusya gibi ülkeler bu adımları gözlemleyerek kendi yapay zekâ silahlarını hızla geliştiriyor. Böylece, ülkeler arasındaki gerilim yapay zekâ üzerinden yeni bir silahlanma yarışına dönüşüyor.
Üçüncü yol: Kontrollü ve sorumlu yapay zekâ
Yazarlar yapay zekâ politikasında iki farklı uç yaklaşımın var olduğunu belirtiyor: Bir tarafta, yapay zekânın katastrofik sonuçlarının kaçınılmaz olduğunu savunan ve tüm ülkelerin yapay zekâ ilerlemesini yavaşlatması gerektiğini düşünen "kıyametçiler" var. Diğer tarafta ise yapay zekâ geliştirme çalışmalarının hızlandırılması gerektiğine inanan ve sonuçların olumlu olacağını uman, riskleri göz ardı eden "devekuşları" bulunuyor.
Schmidt, Wang ve Hendrycks’in önerdiği ise üçüncü bir yol. Yarışı kazanma saplantısından vazgeçip, kontrollü ve sorumlu bir strateji geliştirmek gerekiyor. Yazarlar, ABD'nin odağını "süper zekâ yarışını kazanmaktan" uzaklaşarak, diğer ülkelerin süper zekâ sistemleri geliştirmesini caydıracak yöntemler yaratmasını öneriyor.
Yazarlara göre ABD hükümeti, rakip ülkeler tarafından yürütülen tehditkâr yapay zekâ projelerini etkisiz hâle getirecek siber saldırı kapasitesini genişletmeli ve aynı zamanda ileri seviye yapay zekâ çiplerine ve açık kaynak modellere olan erişimlerini kısıtlamalı.
İnsanlık için varoluşsal bir tercih
Şahsen Yapay Genel Zekâ’yı hızlıca geliştirme tutkusunun eğer dikkatli olunmazsa, teknolojik bir felakete dönüşebileceğine inananlardanım. Çünkü atom bombasından farklı olarak, Yapay Genel Zekâ’da kontrol kaybedilirse bu sistemlerin kontrolünü geri kazanmak gerçekten zorlu olsa gerek.
Süper zekâ seviyesine ulaşan bir sistem, tüm yaşamımızı şekillendiren kararlara hükmedebilecek güçte olacaktır. Halihazırda pek de süper olmayan kural bazlı algoritmaların örneğin sosyal medya algoritmalarının hayatımızı nasıl etkilediğini bir düşünelim. İnsanlığın geleceğini şekillendiren bu teknolojiyi aceleyle geliştirmek mi yoksa kontrollü ve tedbirli ilerlemek mi?
Tarih bize defalarca şunu gösterdi: Büyük güçle gelen büyük sorumlulukları aceleye getirmek, büyük bedeller ödetir. Yapay zekâ devriminde, insanlık olarak, Manhattan Projesi'nden ders almalıyız. Cehenneme giden yollar iyi niyet taşlarıyla döşelidir.
Ve bu karar, dünyayı yöneten Donald Trump ve Xi Jinping gibi liderlerin elinde…
Yapay Genel Zekâ’ya yaklaşımımız, önümüzdeki yüzyılın kaderini belirleyecek. Acele etmek mi? Yoksa temkinli davranmak mı? Çin ve ABD seçimlerini yapacak. Bizlerse bu seçimi nefesimizi tutarak bekliyoruz.