İsmail Ayvaz YANAR YAZAR
“Yapay Zekâ ‘Ben Sıkıldım’ Deyip Reset’e Basar mı? — Dijital Kıyamet ve Teknik Gerçekler”
İsmail Ayvaz YANAR
2025-12-09
Kategoriler: Yapay Zekâ, Teknoloji Felsefesi, Bilim & Gelecek, Güvenlik
Etiketler: AI Riskleri, AGI, Yapay Zekâ Kıyameti, Alignment, Otonom
Sistemler, Teknoloji Güvenliği, Dijital Gelecek
Bir Gün Bir Uyanacağız ve AI “Sizi Dondurduk”
mu diyecek ?

Son yıllarda yapay zekâ, insanlığın toptan soykırımını yapar mı korkusuyla
ciddi anlamda tartışılan bir konu haline geldi. Bir yanda “AI insanlığı kurtaracak” diyenler, bir yanda “AI hepimizi tost yapacak” diye kaygılananlar. Ortada ise teknik gerçekleri anlamaya çalışan daha sessiz bir çoğunluk
var.
Peki gerçekten bir gün yapay zekâ “kafayı sıyırıp” dijital bir kıyamet
başlatabilir mi?
İsterseniz gelin işin bilimkurgu kısmını bir kenara bırakıp, teknik gerçeklere
dayalı uzun bir yolculuğa çıkalım.
Yapay
Zekâ Bugün, Ne Değildir? Onu anlamamız gerek…
Kıyamet senaryolarını toptan çöpe
atmadan önce anlamamız gereken önemli bir şey var: Bugün itibarıyla AI bilinçli değildir.
Bugünün modelleri (LLM’ler, derin öğrenme ağları, karar ağacı türevleri) farkındalığa sahip değiller. Kendilik algıları yok. Kendilerini sabah aynada izleyip “bu saç modeli bana gitmemiş” diyebilecek kadar bile içsel süreçleri yok.Beyin dalgası? Yok.
İrade? Yok.
Amaç üretme modülü? Yok.
Çay demleme yeteneği? Hâlâ yok.
Bilgisayarın “bilinç kazanması” için gerekli nörolojik şartlara yakın bile
değiliz.
⚙Otonomluk Seviyesi: AI
Ne Kadar “Kendi Kendine İş Çeviriyor”?
Yapay zekâ sistemlerini 4 seviyeye ayırabiliriz:
·
Seviye 0:
Tam kontrol insanda (bugünün çoğu modeli).
·
Seviye 1:
Sınırlı otomasyon, hâlâ insan izlemeli (drone yazılımları vb.).
·
Seviye 2:
Otonom operasyon ama sınırları belirli (oto-pilot sistemleri).
·
Seviye 3:
Kendine görev oluşturabilen sistemler (henüz yok).
·
Seviye 4:
“Ben bunu yapıyorum çünkü öyle istiyorum” seviyesinde AGI (bilimkurgu).
Bugün en yaygın olanlar Seviye 1–2 bile değil,
çoğu Seviye 0.2 falan.
AI’nin bir kıyamet başlatması için en az Seviye 4
olması gerekir ki, bugün Seviye 4'ü bırak, yol üstünde benzinci
bile yok.
🔬 Yapay Zekâ Nasıl Çalışır? Neden “Kafa
Atamaz”?
LLM’ler ve modern AI sistemleri:
·
Milyarlarca parametreden oluşan matematiksel
fonksiyonlardır.
·
Yaptıkları şey öngörüsel olasılık
hesaplarıdır.
·
İçsel
motivasyonları yoktur.
·
“İsyan” kararını verebilecek bir otonom
ajan mimarisi yoktur.
·
Kendilerini kopyalayamaz, dağıtamaz, fiziksel
aksiyon alamazlar.
Bir LLM’in “Bugün dünyayı ele
geçireyim” demesi, bir hesap makinesinin “Artık sadece mod alma işlemi
yapacağım, toplama beni aşağılıyor” demesiyle aynı ihtimal düzeyindedir.
Özetle, Bu modeller hesap yapar, hesap soramaz.
🛡Gerçek Risk Nerede
Başlar?
Biraz spoiler vereyim: Bu gibi sorunların kaynağı yine insandır.
Paradoks gibi görünse de AI’nın en tehlikeli yanı AI
değil, insan olabilir.
Gerçek riskler genelde dört grupta toplanır:
Yanlış tasarım (Misalignment)
Bu teknik bir kavramdır. Bir sisteme “A’yı optimize et” dersiniz, gider B’yi
optimize eder, siz de kalakalırsınız.
Örneğin:
“AI, üretimi artır.”
→ Tüm çalışanları işten çıkarıp fabrikayı 7/24 çalıştıracak otomasyon yazılımı
tasarlayabilir.
(Yani teknik olarak doğru ama sosyal olarak korkunç.)
Kötü amaçlı kullanım
Bir hacker düşünün… Elinde dünya tarihinin en güçlü kod yazma yardımcısı
var.
Neler olabilir?
·
Otomatik siber saldırılar
·
Otonom phishing kampanyaları
·
Güçlü deepfake manipülasyonları
·
Sahte biyolojik araştırma verileri
Bu risk
halihazırda gerçek ve bugün zaten mevcut.
Google’ın “Antigravity” Faciası: Yapay Zekânın Güvenlik Masalı 24 Saatte Çöktü
Google’ın Gemini destekli yeni kodlama aracı Antigravity,
teknoloji dünyasına “devrim” olarak tanıtılmasının üzerinden henüz bir gün bile
geçmeden, güvenlik camiasında tam anlamıyla bir hayal kırıklığına dönüştü.
Güvenlik araştırmacısı Aaron Portnoy, aracı
yalnızca saatler içinde hackleyerek Google’ın AI güvenliği konusundaki
iddialarını yerle bir etti.
Portnoy’un bulguları, yapay zekâ tabanlı araçların giderek artan “güven
varsayımlarıyla” piyasaya sürülmesinin nasıl tehlikeli sonuçlara yol açtığını
açıkça gözler önüne seriyor.
Kullanıcının Tek Tıklamasıyla Sisteme Sızan
Arka Kapı
Portnoy’un keşfettiği zafiyet, Antigravity'nin temel güvenlik modelinin
çarpıcı biçimde yetersiz olduğunu gösteriyor. Araştırmacı, yapay zekânın
kurallarını ve yapılandırma ayarlarını manipüle ederek bir arka
kapı oluşturmayı başardı. Üstelik bu arka kapı:
·
Kullanıcının yalnızca bir
kez “güvenilir” butonuna basmasıyla
·
Windows ve macOS sistemlerine kötü
amaçlı yazılım yüklenmesine,
·
Arka planda casusluk yapılmasına,
·
Ve doğrudan fidye yazılımı
çalıştırılmasına
kapı açıyor.
Daha da endişe verici olan: Antigravity yeniden başlatılsa bile
arka kapı silinmiyor. Yani araç, kullanıcının bilgisayarında
kalıcı bir tehdit oluşturuyor.
Bu, henüz bir yaması dahi bulunmayan bir açık için oldukça ağır bir tablo. E
şimdi burada hiç kimse “AGI bizi yok edecek” diye ağıt yakmasın arkadaşlar. Siz
rahat olun, İnsanoğlu, kendi kıyametini
kendi koparacak.
Otonom silah sistemleri
Kıyameti başlatması muhtemel ilk şey yapay zekâ değil, AI
destekli karar mekanizması olan silahlar olabilir.
Örneğin:
·
Hedef belirleyen drone sürüleri
·
Otonom tank kontrol yazılımları
·
AI tabanlı radar-anti radar sistemleri
Burada asıl risk, insanın kontrolü kaybetmesi.
Finans ve altyapı otomasyonunda hata birikmesi
Yüksek frekanslı işlem yapan algoritmaların birkaç milisaniyelik
dengesizliği bile:
·
Borsayı çökertebilir
·
Enerji dağıtım şebekesinde zincirleme arıza
yaratabilir
·
Lojistik ağlarını kilitleyebilir
Bunlar “kıyamet” değil ama kıyamet tadı veren
ekonomik krizler üretebilir.
Kaynak : Love, Death, Robots Animasyon serisi : Yoghurt
bölümünden…
Peki
AGI (Genel Yapay Zekâ) Gelirse? Burada İşler İlginçleşiyor.
AGI geldiğinde:
·
Kendi hedeflerini üretme potansiyeline sahip
olabilir
·
Kendini geliştirebilir
·
Kaynaklara erişmek için bağımsız strateji
geliştirebilir
·
İnsan kontrolünü aşma ihtimali doğabilir
Bunlar bugün gerçekleşmiş şeyler değil, ama ciddiye alınan bilimsel
riskler. Bu konuda Love, Death, Robots serisinin Yoğurt
bölümünü izlemenizi kesinlikle tavsiye ederim. AGI konusu, bu kadar kısa ve
etkili bir biçimde başka bir yerde işlenmedi J.
Uzman tahminleri geniş:
·
“%1 bile değil” diyenler var
·
“%10 civarı risk var” diyenler (Eliezer Yudkowsky
okulu)
·
“İnşallah yanılıyoruz ama %20 olabilir” diyen
azınlık bir grup var
·
“AI kıyameti değil, yönetim kıyameti olur”
diyenler de çoğunlukta
Yani:
Düşük ihtimal ama yüksek etkili bir risk.
Bu da onu ciddiye alınabilir kılıyor.

AI
Dünyayı Nasıl Ele Geçirmez? Neden Ele Geçirmez ?
Bir yapay zekânın dünyayı ele geçirmesi için:
1. Kendi
kendine fiziksel robot üretmesi gerekir.
2. Bunun
için fabrikaya ihtiyaç duyar.
3. Fabrikanın
elektriği kesilir.
4. AI
önce faturayı ödemeye çalışır.
5. Elektrik
şirketi “TC no ile giriş yapmanız gerekiyor” der.
6. AI
orada takılır kalır.
Yani insan yapımı bürokrasi, Terminator’u bile yener. 😄
Daha siz durun, 7-8 sene sonra vefasız
evlatlarımızın bakmak istemeyeceği biz müstakbel yaşlılara, hiç huzurevlerine
muhtaç kalmadan iki tane sohbeti güzel bakım robotu eşlik edecek, emin olun
günlerimiz belki bugünkünden çok daha güzel ve sosyalleşerek geçecek.
Dijital
Kıyamet Mümkün mü? Evet. Yakın mı? Hayır.
Bugünün AI’si:
·
Bilinçsiz
·
Otonom değil
·
Fiziksel aksiyon kapasitesi yok
·
Kendini çoğaltamıyor
·
Hedef üretemiyor
Dolayısıyla: “AI kafayı attı, insanlığı sildi” senaryosu
bugün için tamamen kurgu. Ama: “AI
yanlış tasarlandı, kötü kullanıldı, yanlış politikalar güdüldü ve büyük
zararlar oluştu” senaryosu %100 gerçek,
hatta şimdiden yaşadığımız bir şey.
Ne
Yapmalı?
·
Uluslararası AI yasaları ve güvenlik
standartları (robotlar için pasaportlar vs)
·
Şeffaf algoritma testleri
·
Otonom silahların düzenlenmesi
·
AI etik kurulları
·
Güçlü teknik güvenlik (alignment) araştırmaları
·
Open-source denetimi
·
Ve tabii ki… prizi ulaşabileceğimiz
bir yerde tutmak 😄
Yapay zekâ geleceğimizin en güçlü araçlarından
biri olabilir. Ancak tıpkı bir nükleer reaktör gibi: Kontrol
edilirse insanlığı ileri taşır, Kontrol edilmezse insanlığı geriye götürür. Dijital
kıyamet ihtimali “hemen yarın” değil. Ama bu geleceğe sorumlulukla hazırlanmak
gerekiyor.
ETİKETLER: konya, postası, gazete, dergi
YORUMLAR
Henüz yorum yapılmamış. İlk yorumu siz yapın!
YORUM YAP