İsmail Ayvaz YANAR YAZAR
O’mu Bize Yardım ediyor, Yoksa Biz mi Ona Yardım Ediyoruz ? Neyin Nesi Kimin Fesidir Bu Yapay Zeka ?
İsmail Ayvaz YANAR
2025-11-17


Çıktığı günden beri hep neler yaptığını, çeşitli yapay zeka yazılımlarına her
hafta gelen güncellemelerle “şöyle uçuyor böyle kaçıyor” haberlerini görüyoruz.
Yok görsel üretti, yok büyük bir denklemi çok kısa sürede çözdü, yok şöyle
video üretiyor yok böyle efekt veriyor vesaire vesaire. Birde neler yapamıyor,
ya da neleri hiçbir zaman yapamayacak bu haftaki yazımda onları inceleyelim. Çünkü yapay zekanın yapamadıkları ya da
yapamayacakları bizim varoluş sebebimiz olacak!
Gerçek anlamda “anlama” (semantik/insanî kavrama) yeteneği olmayacak!
Bir metni insanın yaptığı gibi
dünyadaki deneyimleri, niyetleri, hisleri ve uzun süreli bağlamı kullanarak
“anlamaz”. Sözcükler arasındaki istatistiksel ilişkileri modeller; ama bir
metnin ardındaki insan niyetini, yaşam deneyimini ve bilinçli çağrışımları
kesin olarak kavrayamaz.
Bir şiirin bizi duygulandırıp
“neden ağlattığını” yalnızca linguistik (dilsel) ipuçlarından çıkarabilir;
Şairin çocukluk travmasını ya da sahnedeki duyguyu gerçekten içselleştirdiğini
söyleyemez ve hatta kanıtlayamaz bile... Bu iddiadada hiçbir zamanda
bulunamayacak. AI, çok nitelikli bir psikolog ya da psikiyatr olsa bile, içinde
bulunduğumuz ruh halini % 100 anlasa bile, bizi annemiz, kardeşimiz,
arkadaşımız gibi anlayamayacak. Elini omzumuza onlar gibi koyamayacak…
Bu durum ilelebet devam edeceği için, her zaman uzmanlardan son
hakemlik alacağız. AI’dan alacağımız
analizleri ve çıktıları ise yorumlama ve doğrulama amacıyla
kullanacağız. Yani hem biz AI'ya hem de o bize müşterek şekilde yardımcı
olacağız.
Güvenilirliği her zaman tartışmalı olacak, Çünkü AI sıklıkla uydurur.
OpenAI tarafından daha bir kaç
gün öncesinde duyurulan güncellemesinde, Chat GPT'nin daha az hallüsinasyon
gördüğü söylendi. Elin oğlunun yaptığı yazılım bile madde bağımlısı çıktı.
Hallüsinasyon nedir arkadaş ?
Aslında bunun sebebi, yapay zeka
size vereceği bilgiyi her zaman doğrulanmış kaynaktan üretmez, çünkü üretemez.
Eksik veya belirsiz veride mantıklı görünen ama yanlış veya uydurma ifadeler
(isimler, tarih, referanslar) üretir. Bir kaynak, rapor veya alıntı gösterirken
var olmayan bir makale başlığı, yazar veya DOI üretebilir. (DOI = Digital
Object Identifier [Dijital Nesne Tanımlayıcısı] Ne işe yarar? DOI, bir makale,
tez, veri seti veya rapor gibi dijital akademik içeriğe verilen benzersiz bir
kimlik numarasıdır. Tıpkı bir kitabın ISBN numarası gibi düşün, ama dijital
içerikler için.) Bunu yaparken de hiç bir etik değere bağlı davranmaz. Aslında
biraz işi bilen biri AI'yı baştan iyi şartlandırdığında ortaya çokta Ahlâksız
bir GPT modeli çıkarabilir. Geçtiğimiz günlerde Anthropic'in dil modelini
kendine göre yapılandıran biri, kodları kendi bile yazmadan, yoldan çıkardığı
bu dil modeline hackerlık yaptırdı.
Bize vermiş olduğu her bilgiyi, her veriyi hatta bilimsel iddiayı
doğrulanabilir kaynaklarla çapraz sorgularla kontrol etmek zorundayız.
Özellikle yüksek riskli konularda (tıp, hukuk, finans) insan onayı şart. Bu
nedenle, hiç bir doktor, hukukçu ve finansçı arkadaşımızın, işsiz kalacağız
diye korkmasına gerek yok.
Şu an itibarıyle AI, Uzun vadeli planlama ve sağlam akıl yürütme
konusunda son derece istikrarsızdır.
Bugüne kadar yapılan testler, AI
dil modellerinin hiç birinin, büyük projelerde insanoğlunun gösterdiği
becerileri ve tutarlılığı göstermediğini kanıtlamıştır. Belki ilerleyen
zamanlarda bu konuda insanoğlunu çok geride bırakacak olabilir. Ancak çok adımlı,
uzun vadeli stratejik planlama gerektiren görevlerde (ör. çok yıllık iş planı,
karmaşık mühendislik doğrulaması) insan gibi tutarlı, hatasız bir şekilde
ilerleyememektedir.
Yüzlerce aşamaya onlarca
algoritmaya sahip bir yazılım mimarisi taslağında önceki aşamaları devam
ettirmede, revizyon yaparken tutarlı kalamayabilir; mantık zincirinde
çelişkilere yol açabilir. Görünen o ki şimdilik yazılımcı
dostlarımızda işsiz kalmayacak.
İş geliştirme süreçlerinde bizlere düşen, büyük planları modüler
parçalara ayırabiliriz, projelerimize kesinlikle insan denetimi ve tekrarlı
kontrol noktaları koymamız gerektiği açıkça görülmekte.
Yaratıcılık ve özgünlük konusunda tam anlamıyla “insanı” taklit eder ama
asla tamamen "yeni" değildir.
Tamamen benzersiz, önce hiç
düşünülmemiş bir fikir veya sanat eseri “yaratmaz”, inisiyatif kullanamaz. Çoğunlukla eğitim
verisindeki örüntülerden türetir; özgünlük hissi olsa da temelde türevseldir.
Bir bestede “tamamen yeni” bir melodi ortaya koyduğu iddia edilemez; genelde
daha önceki motiflerin kombinasyonlarıdır.
AI'ın bize sağladığı yaratıcı
süreci hızlandırma ve prototipleme için kullanabiliriz; fikri son haline
getirmek için insan katarı ekleyebiliriz. Buda çeşitli sanat dalları ile
uğraşan, müzisyen ve ressam arkadaşlarımızın da çok uzun bir süre işsiz kalmayacağını
gösteriyor.
"AI AI dediğin nedir ki gülüm, ben seni duygularımla sevmişim"
Bilinç, duygular, empati, hoşgörü, hiçbirini gerçekten yaşamaz ve
deneyimleyemez
Gerçek empati kuramaz, acı veya
zevk deneyimleyemez. “Empati gösteriyor” gibi görünen bir dil üretebilir ama
bu, içsel bir duygunun ifadesi değildir.
“Üzgünüm” dediğinde samimi
olduğunu varsayamazsınız çünkü dilsel bir kalıp üretir, hepsi bu.
Duygusal destek sunulması gereken durumlarda alanında profesyonel
insanlar devreye girmelidir; AI sadece destekleyici bir araç olmalıdır.
Psikolog ve psikiyatr arkadaşlarımız başta olmak üzere sektör profesyoneline
ihtiyaç duyulan tüm branşlar da insan faktörü hep hayatta kalacak, rahat
olsunlar...
AI, Ahlaki ve hukuki sorumluluk üstlenemez, etik değerlere bağlılığı
kesinlikle mümkün değildir.
Kararlarının ahlâki veya yasal
sorumluluğunu taşıyamaz; sonuçlar ortaya çıktığında hesap veremez. Ayrıca etik
ikilemlerde insan değerleri arasında sağlam bir tercih yapamaz.
2024'te Chat GPT'nin, Amerika'da,
14 yaşında bir çocuğu intihara sürüklediği ve ölümüne sebebiyet verdiği
haberini her yerde okumuştuk. Diğer taraftan Amerikan ordusunun belli
bölümlerinde yapılan AR-GE çalışmalarında yapay zeka kullanımın durdurulmasının
altında, çalışmalar sırasında askerlerin ölümüne sebebiyet vermiş olmasına dair
dedikoduları eminim sizde duymuşsunuzdur. Grok'un geçtiğimiz aylarda,
"gevşeklik ve terbiyesizlik" ayarının boş bırakılması sonucunda,
sayın cumhurbaşkanına terbiyesizce küfürler ettiği içeriklere ne demeli ?
Bunlar, AI karşısında, insanoğlu olarak nasıl durmamız gerektiğini gösteren,
gerçekten önemli detaylar.
İnsanları işten çıkarma kararı için sadece AI'ye güvenemezsiniz.
Sorumluluk insanındır. IBM, Amazon gibi firmalar, rutin işlerde yapay zeka
kullanacağız deyip, 2022'den bu yana işten çıkardıkları personellerini geri çağırıyorlar.
Kritik kararların nihai onayı insanlar tarafından verilmeli; hukukî ve
etik çerçeveler açıkça tanımlanmalıdır. Yoksa yapay zeka "Muhtarlık bile
yapamaz".
Güvenlik ve kötüye kullanım: AI hiç düşünmeden, her türlü durum ve
insanlar tarafından istismar edilebilir. Aynı zamanda, istenildiği gibi
yapılandırılıp, kendisi de istismar edebilir.
Kötü niyetli kullanım riskini
ortadan kaldırmaz. Bilgi sızdırma, sahte içerik, sosyal mühendislik, otomatik
saldırı senaryoları gibi amaçlarla kullanılabilir. AI, Devlet düzeyinde dahi,
otomatik sahte e-postalar, sahte haberler veya hack araçları üretmek için
kullanılabilir. Anthropic firması, yazılımcılarından birinin, Anthropic'in
geliştirdiği AI uygulamasına "seni kapatacağız" haberini verdiğinde,
aynı AI uygulamasının, söz konusu yazılımcının hesaplarını hacklediğini ve
instagram yazışmalarını karısına göndermekle tehdit ettiğini, e-postalarını
basına sızdıracağını söyleyerek, yazılımcıyı tehdit ettiğini açıkladı.
Erişim kontrolleri, denetim günlükleri, kötüye kullanım tespiti,
insan denetimi ve etik kullanım politikaları kesinlikle zorunlu olmalıdır.
Güncellik ve dış veri erişimi konusunda doğal olarak ‘şimdi’yi bilmez.
Kendisine yüklenen veriler kadarını bilir.
Eğitildiği tarihten sonra olan
olayları, eğer on-line internete erişimi yoksa bilmesi mümkün değildir. Belir
bir tarihten itibaren dış dünyaya yani on-line internete erişimi kesilirse, güncellenmiş
verilere ulaşamaz ve yeni keşiflerden haberi olmaz, güncel olayları bilmesi
mümkün değildir. Zamanla bilgiler eskir. Dolayısıyla yorumlaması da, veri tabanındaki
verilere, bu verilerin gerçekliğine ve etik parametrelere bağlı olarak atıl bir
durumda kalır, zamanla kullanışsız bir yapıya dönüşür.
2025’ten sonra çıkan yasal
değişiklikleri veya son haberleri bilemeyebilir. Buda karar mekanizmasını ciddi
anlamda etkiler.
Zamana duyarlı işler için güncel veri kaynakları ve web
taraması/insan doğrulaması kullanmak zorundayız.
Fiziksel dünya etkileşimi artık var. Kendisine hareket kabiliyeti
sağlayan bir vücudu var. Bu tehlikeli mi yoksa iyi mi ? Bunu zaman ve ülkelerin
tutumları gösterecek…
Bu durum, özbenlik kazanımı ve
inisiyatif kullanımı konusunda kendisini, bir önceki nesil AI yapılarına
kıyasla daha avantajlı bir duruma taşıyor. Fiziksel dünyada doğrudan eylem
gerçekleştirebiliyor (aç, kapat, monte et). AI sistemlerinin, sensör/robot entegrasyonu
olmadan önce bu avantajları yoktu. Robotik entegrasyon olsa bile doğrudan
kontrol sorunları, güvenlik ve doğruluk sınırlamaları vardı.
AI Robotlar Artık bir makineyi
gerçek hayatta ‘güvenli ve doğru’ şekilde tamir edip yerine koyabilir hale
geldiler.
Ama yinede ne olursa olsun, fiziksel işlerde insan/uzman atölye ve
güvenlik protokolleri şart. Hatta fabrikada robot çalıştırıyoruz diye
işverenler hiçbir zaman gevşek İSG protokolleri uygulamamalı. Eskisinden çok
daha dikkatli olmalılar. Zaten merak ettiğimiz en önemli hususlardan bir tanesi
de ilk robot sendikasının ne zaman kurulacağı ve ilk robot işçi protestolarının
ne zaman başlayacağı konusu.
Adversarial (düşmanca) saldırılara karşı dayanıksızdır, kolayca
kandırılabilir.
Küçük değişikliklerle, girdideki
küçük ve kasıtlı bozukluklar neticesinde yanlış sonuçlar üretmeme garantisi
yoktur. Görüntü, ses veya metin verilerinde yanıltılabilir. Görüntü
sınıflandırmada birkaç piksel gizlenmesiyle sonuç değişebilir.
Adversarial dayanıklılık testlerinde başarı sağlamak için
verifikasyon katmanları eklememiz gerekmektedir. Bu konu başlıbaşına akademik
çalışma gerektiren, AI konusundaki en önemli protokollerden ve süreçlerden
biridir.
Tarafsızlık ve önyargı konusu. AI kesinlikle tarafsız değildir.
Eğitim verisindeki önyargıları
otomatik olarak ortadan kaldırmaz; ayrımcı veya zararlı çıktılar üretebilir.
İşe alım asistanı olarak
kullanıldığında belirli demografik gruplara karşı önyargılı önerilerde
bulunabilir. Liyakat gözetmez.
Bizim yapmamız gerekenler: veri kaynaklarının denetimi, adil
modellemeler geliştirmek, düzenli bias testleri uygulamak ve insan gözetimi eklemek.

Özbenlik kavramı
üzerine sorduğumuz soruya Chat GPT’nin verdiği yanıt…
Şeffaflık ve yorumlanabilirlik. AI kendi “neden”ini her zaman
açıklayamaz. Hatta açıklamak istemez.
Karmaşık modellerin iç karar
mekanizmasını anlaşılır şekilde açıklamakta zorlanır. Hatta bu “kara kutu”
problemidir.
Bir bankanın kredi reddi
kararının tam ve rasyonel, yasal açıklamasını sağlaması yetersiz olabilir.
Açıklanabilir AI (XAI) teknikleri, karar izleri, insan-denetimli
raporlama ile bu süreçler önümüzdeki zamanlarda çok daha objektif bir düzleme
oturabilir. Her işte ve kamusal alanlarda adil süreç yönetimi netleşir. Buda
insanlara hizmet konusunda AI yapılarına yönelmemize muhakkak sebep olacaktır.
Gizlilik ve veri sızıntısı riski. AI kasıtlı yada kasıtsız olarak veri
sızdırabilir.
Eğitim verisinden kişisel veya
hassas bilgileri hatırlamamak konusunda kesin garanti veremez. Model, eğitim
verisinden kalıntılar (memorization) ortaya koyabilir. ChatGPT'nin 2024
yılından 2025e geçilen süreçte, kullanıcılarını yorumlaması ve görselleştirmesi
istendiğinde, veritabanın silinen sohbetlere rağmen, kullanıcılarının analizini
çok doğru şekillerde tahmin etmiş olması bu memorizasyonun en belirgin
kanıtıdır.
Bir model eğitim sırasında
gördüğü bir özel numarayı hatırlayabilir. Unutması istenen bir soruyu tamda
kullanıcısının istediği şekilde yanıtlayabilir. Bu defalarca yaşanmış bir
durumdur. AI, kullanıcısını
unutmamaktadır.
Biz bu durumda hassas veriyi model dışı tutmak zorundayız ancak bu
çok zor, diferansiyel gizlilik parametreleri ve erişim kısıtları kullanmalıyız,
ki artık buda çok zor. İnsanoğlu AI ile iç içe gireli çok oldu.
AI Sistemleri, hukuki ve etik onay konusunda kimseye yetki vermez.
AI Sistemleri, insanları veya
kurumları bağlayacak hukuki, tıbbi, tescil edici sertifikasyon veremez. AI
tavsiyesi, genelde “bilgi amaçlı”dır, profesyonel onay yerine geçmez. AI
sistemlerden alınan ilaç taviyeleri ile eczaneden ilaç alınmaz, AI sistemlere
yazdırılan dilekçe ile hukuki konularda şikayette bulunulmaz.
Resmî kararlar için yetkili kişiye/hukukî merciye başvurmamız
gerekmektedir.
Sizin sorduğunuz sorularla yada yazdığınız promptlarla yaratılan içeriğin
mülkiyeti ve sorumluluğu ciddi bir muğlaklık taşımaktadır.
Otomatik üretilen içeriğin telif
hakkı, etik sorumluluğu ve yasal mülkiyeti konularını, hiçbir AI sistemi kendi
başına çözemez. Ülkesel farklılıklar söz konusudur.
Profesyonel hizmetlerde hukuki danışmanlık almak zorundayız, kaynak
belirtmemiz gerekmektedir, kullanım lisanslarını ve promptlarını arşivlemeli ve
hukuk süreçlerde açıkça belirlemeliyiz. Yoksa kullanıcılar olarak bizlerinde
başı çok ağrır.
Peki yukarda karamsar bulduğumuz bölümler için bizler neler yapmalıyız ?
Kaynağı kontrol etmeliyiz.
Referans verilmiş mi? Verildiyse doğrulamalıyız.
Tutarlılık testi yapmalıyız.
Aynı soruyu farklı şekilde ve farklı yapay zekalara da sormalıyız, cevaplar
tutarlı mı ? kontrol etmeliyiz.
Uzman onayı almalıyız.
Tıp/hukuk/finans gibi alanlarda profesyonel onay şarttır.
Adversarial/etik inceleme.
Zararlı kullanım riski var mı? Bunları da yine profesyonel uzman görüşü ile
değerlendirmeliyiz.
Gizlilik filtresi. Hassas veri
içeriyor mu?
Sorumluluk sahibi insan. Nihai
karar kimin? Netleştir.
Önemli not : Görseller İsmail Ayvaz YANAR tarafından çeşitli AI araçları kullanılarak oluşturulmuştur. Prompt ve promptların özgünlük hakları, tamamen İsmail Ayvaz YANAR’a aittir. www.konyapostasi.net ve www.meydanturkiye.com.tr web siteleri dışında kullanılamaz.
ETİKETLER: konya, postası, gazete, dergi
YORUMLAR
Henüz yorum yapılmamış. İlk yorumu siz yapın!
YORUM YAP