avatar

İsmail Ayvaz YANAR YAZAR

“Yapay Zekâ ‘Ben Sıkıldım’ Deyip Reset’e Basar mı? — Dijital Kıyamet ve Teknik Gerçekler”

İsmail Ayvaz YANAR

2025-12-09

Kategoriler: Yapay Zekâ, Teknoloji Felsefesi, Bilim & Gelecek, Güvenlik

Etiketler: AI Riskleri, AGI, Yapay Zekâ Kıyameti, Alignment, Otonom Sistemler, Teknoloji Güvenliği, Dijital Gelecek

Bir Gün Bir Uyanacağız ve AI “Sizi Dondurduk” mu diyecek ?

Son yıllarda yapay zekâ, insanlığın toptan soykırımını yapar mı korkusuyla ciddi anlamda tartışılan bir konu haline geldi. Bir yanda “AI insanlığı kurtaracak” diyenler, bir yanda “AI hepimizi tost yapacak” diye kaygılananlar. Ortada ise teknik gerçekleri anlamaya çalışan daha sessiz bir çoğunluk var.

Peki gerçekten bir gün yapay zekâ “kafayı sıyırıp” dijital bir kıyamet başlatabilir mi?
İsterseniz gelin işin bilimkurgu kısmını bir kenara bırakıp, teknik gerçeklere dayalı uzun bir yolculuğa çıkalım.

Yapay Zekâ Bugün, Ne Değildir? Onu anlamamız gerek…

Kıyamet senaryolarını toptan çöpe atmadan önce anlamamız gereken önemli bir şey var: Bugün itibarıyla AI bilinçli değildir.

Bugünün modelleri (LLM’ler, derin öğrenme ağları, karar ağacı türevleri) farkındalığa sahip değiller. Kendilik algıları yok. Kendilerini sabah aynada izleyip “bu saç modeli bana gitmemiş” diyebilecek kadar bile içsel süreçleri yok.Beyin dalgası? Yok.

İrade? Yok.
Amaç üretme modülü? Yok.
Çay demleme yeteneği? Hâlâ yok.

Bilgisayarın “bilinç kazanması” için gerekli nörolojik şartlara yakın bile değiliz.

Otonomluk Seviyesi: AI Ne Kadar “Kendi Kendine İş Çeviriyor”?

Yapay zekâ sistemlerini 4 seviyeye ayırabiliriz:

·         Seviye 0: Tam kontrol insanda (bugünün çoğu modeli).

·         Seviye 1: Sınırlı otomasyon, hâlâ insan izlemeli (drone yazılımları vb.).

·         Seviye 2: Otonom operasyon ama sınırları belirli (oto-pilot sistemleri).

·         Seviye 3: Kendine görev oluşturabilen sistemler (henüz yok).

·         Seviye 4: “Ben bunu yapıyorum çünkü öyle istiyorum” seviyesinde AGI (bilimkurgu).

Bugün en yaygın olanlar Seviye 1–2 bile değil, çoğu Seviye 0.2 falan.

AI’nin bir kıyamet başlatması için en az Seviye 4 olması gerekir ki, bugün Seviye 4'ü bırak, yol üstünde benzinci bile yok.
 

🔬 Yapay Zekâ Nasıl Çalışır? Neden “Kafa Atamaz”?

LLM’ler ve modern AI sistemleri:

·         Milyarlarca parametreden oluşan matematiksel fonksiyonlardır.

·         Yaptıkları şey öngörüsel olasılık hesaplarıdır.

·         İçsel motivasyonları yoktur.

·         “İsyan” kararını verebilecek bir otonom ajan mimarisi yoktur.

·         Kendilerini kopyalayamaz, dağıtamaz, fiziksel aksiyon alamazlar.

Bir LLM’in “Bugün dünyayı ele geçireyim” demesi, bir hesap makinesinin “Artık sadece mod alma işlemi yapacağım, toplama beni aşağılıyor” demesiyle aynı ihtimal düzeyindedir.

Özetle, Bu modeller hesap yapar, hesap soramaz.

🛡Gerçek Risk Nerede Başlar?

Biraz spoiler vereyim: Bu gibi sorunların kaynağı yine insandır. Paradoks gibi görünse de AI’nın en tehlikeli yanı AI değil, insan olabilir.
Gerçek riskler genelde dört grupta toplanır:

Yanlış tasarım (Misalignment)

Bu teknik bir kavramdır. Bir sisteme “A’yı optimize et” dersiniz, gider B’yi optimize eder, siz de kalakalırsınız.

Örneğin:

“AI, üretimi artır.”
→ Tüm çalışanları işten çıkarıp fabrikayı 7/24 çalıştıracak otomasyon yazılımı tasarlayabilir.
(Yani teknik olarak doğru ama sosyal olarak korkunç.)

Kötü amaçlı kullanım

Bir hacker düşünün… Elinde dünya tarihinin en güçlü kod yazma yardımcısı var.
Neler olabilir?

·         Otomatik siber saldırılar

·         Otonom phishing kampanyaları

·         Güçlü deepfake manipülasyonları

·         Sahte biyolojik araştırma verileri

Bu risk halihazırda gerçek ve bugün zaten mevcut.

Google’ın “Antigravity” Faciası: Yapay Zekânın Güvenlik Masalı 24 Saatte Çöktü

Google’ın Gemini destekli yeni kodlama aracı Antigravity, teknoloji dünyasına “devrim” olarak tanıtılmasının üzerinden henüz bir gün bile geçmeden, güvenlik camiasında tam anlamıyla bir hayal kırıklığına dönüştü. Güvenlik araştırmacısı Aaron Portnoy, aracı yalnızca saatler içinde hackleyerek Google’ın AI güvenliği konusundaki iddialarını yerle bir etti.

Portnoy’un bulguları, yapay zekâ tabanlı araçların giderek artan “güven varsayımlarıyla” piyasaya sürülmesinin nasıl tehlikeli sonuçlara yol açtığını açıkça gözler önüne seriyor.


Kullanıcının Tek Tıklamasıyla Sisteme Sızan Arka Kapı

Portnoy’un keşfettiği zafiyet, Antigravity'nin temel güvenlik modelinin çarpıcı biçimde yetersiz olduğunu gösteriyor. Araştırmacı, yapay zekânın kurallarını ve yapılandırma ayarlarını manipüle ederek bir arka kapı oluşturmayı başardı. Üstelik bu arka kapı:

·         Kullanıcının yalnızca bir kez “güvenilir” butonuna basmasıyla

·         Windows ve macOS sistemlerine kötü amaçlı yazılım yüklenmesine,

·         Arka planda casusluk yapılmasına,

·         Ve doğrudan fidye yazılımı çalıştırılmasına

kapı açıyor.

Daha da endişe verici olan: Antigravity yeniden başlatılsa bile arka kapı silinmiyor. Yani araç, kullanıcının bilgisayarında kalıcı bir tehdit oluşturuyor.

Bu, henüz bir yaması dahi bulunmayan bir açık için oldukça ağır bir tablo. E şimdi burada hiç kimse “AGI bizi yok edecek” diye ağıt yakmasın arkadaşlar. Siz rahat olun, İnsanoğlu, kendi kıyametini kendi koparacak.

Otonom silah sistemleri

Kıyameti başlatması muhtemel ilk şey yapay zekâ değil, AI destekli karar mekanizması olan silahlar olabilir.

Örneğin:

·         Hedef belirleyen drone sürüleri

·         Otonom tank kontrol yazılımları

·         AI tabanlı radar-anti radar sistemleri

Burada asıl risk, insanın kontrolü kaybetmesi.


Finans ve altyapı otomasyonunda hata birikmesi

Yüksek frekanslı işlem yapan algoritmaların birkaç milisaniyelik dengesizliği bile:

·         Borsayı çökertebilir

·         Enerji dağıtım şebekesinde zincirleme arıza yaratabilir

·         Lojistik ağlarını kilitleyebilir

Bunlar “kıyamet” değil ama kıyamet tadı veren ekonomik krizler üretebilir.

Kaynak : Love, Death, Robots Animasyon serisi : Yoghurt bölümünden…

Peki AGI (Genel Yapay Zekâ) Gelirse? Burada İşler İlginçleşiyor.

AGI geldiğinde:

·         Kendi hedeflerini üretme potansiyeline sahip olabilir

·         Kendini geliştirebilir

·         Kaynaklara erişmek için bağımsız strateji geliştirebilir

·         İnsan kontrolünü aşma ihtimali doğabilir

Bunlar bugün gerçekleşmiş şeyler değil, ama ciddiye alınan bilimsel riskler. Bu konuda Love, Death, Robots serisinin Yoğurt bölümünü izlemenizi kesinlikle tavsiye ederim. AGI konusu, bu kadar kısa ve etkili bir biçimde başka bir yerde işlenmedi J.

Uzman tahminleri geniş:

·         “%1 bile değil” diyenler var

·         “%10 civarı risk var” diyenler (Eliezer Yudkowsky okulu)

·         “İnşallah yanılıyoruz ama %20 olabilir” diyen azınlık bir grup var

·         “AI kıyameti değil, yönetim kıyameti olur” diyenler de çoğunlukta

Yani:
Düşük ihtimal ama yüksek etkili bir risk.

Bu da onu ciddiye alınabilir kılıyor.
 

AI Dünyayı Nasıl Ele Geçirmez? Neden Ele Geçirmez ?

Bir yapay zekânın dünyayı ele geçirmesi için:

1.      Kendi kendine fiziksel robot üretmesi gerekir.

2.      Bunun için fabrikaya ihtiyaç duyar.

3.      Fabrikanın elektriği kesilir.

4.      AI önce faturayı ödemeye çalışır.

5.      Elektrik şirketi “TC no ile giriş yapmanız gerekiyor” der.

6.      AI orada takılır kalır.

Yani insan yapımı bürokrasi, Terminator’u bile yener. 😄

Daha siz durun, 7-8 sene sonra vefasız evlatlarımızın bakmak istemeyeceği biz müstakbel yaşlılara, hiç huzurevlerine muhtaç kalmadan iki tane sohbeti güzel bakım robotu eşlik edecek, emin olun günlerimiz belki bugünkünden çok daha güzel ve sosyalleşerek geçecek.

Dijital Kıyamet Mümkün mü? Evet. Yakın mı? Hayır.

Bugünün AI’si:

·         Bilinçsiz

·         Otonom değil

·         Fiziksel aksiyon kapasitesi yok

·         Kendini çoğaltamıyor

·         Hedef üretemiyor

Dolayısıyla: “AI kafayı attı, insanlığı sildi” senaryosu bugün için tamamen kurgu. Ama: “AI yanlış tasarlandı, kötü kullanıldı, yanlış politikalar güdüldü ve büyük zararlar oluştu” senaryosu %100 gerçek, hatta şimdiden yaşadığımız bir şey.

Ne Yapmalı?

·         Uluslararası AI yasaları ve güvenlik standartları (robotlar için pasaportlar vs)

·         Şeffaf algoritma testleri

·         Otonom silahların düzenlenmesi

·         AI etik kurulları

·         Güçlü teknik güvenlik (alignment) araştırmaları

·         Open-source denetimi

·         Ve tabii ki… prizi ulaşabileceğimiz bir yerde tutmak 😄

 

Yapay zekâ geleceğimizin en güçlü araçlarından biri olabilir. Ancak tıpkı bir nükleer reaktör gibi: Kontrol edilirse insanlığı ileri taşır, Kontrol edilmezse insanlığı geriye götürür. Dijital kıyamet ihtimali “hemen yarın” değil. Ama bu geleceğe sorumlulukla hazırlanmak gerekiyor.

ETİKETLER: konya, postası, gazete, dergi

İsmail Ayvaz YANAR YAZAR