avatar

İsmail Ayvaz YANAR YAZAR

O’mu Bize Yardım ediyor, Yoksa Biz mi Ona Yardım Ediyoruz ? Neyin Nesi Kimin Fesidir Bu Yapay Zeka ?

İsmail Ayvaz YANAR

2025-11-17




Çıktığı günden beri hep neler yaptığını, çeşitli yapay zeka yazılımlarına her hafta gelen güncellemelerle “şöyle uçuyor böyle kaçıyor” haberlerini görüyoruz. Yok görsel üretti, yok büyük bir denklemi çok kısa sürede çözdü, yok şöyle video üretiyor yok böyle efekt veriyor vesaire vesaire. Birde neler yapamıyor, ya da neleri hiçbir zaman yapamayacak bu haftaki yazımda onları inceleyelim.
Çünkü yapay zekanın yapamadıkları ya da yapamayacakları bizim varoluş sebebimiz olacak!

 

Gerçek anlamda “anlama” (semantik/insanî kavrama) yeteneği olmayacak!

Bir metni insanın yaptığı gibi dünyadaki deneyimleri, niyetleri, hisleri ve uzun süreli bağlamı kullanarak “anlamaz”. Sözcükler arasındaki istatistiksel ilişkileri modeller; ama bir metnin ardındaki insan niyetini, yaşam deneyimini ve bilinçli çağrışımları kesin olarak kavrayamaz.

Bir şiirin bizi duygulandırıp “neden ağlattığını” yalnızca linguistik (dilsel) ipuçlarından çıkarabilir; Şairin çocukluk travmasını ya da sahnedeki duyguyu gerçekten içselleştirdiğini söyleyemez ve hatta kanıtlayamaz bile... Bu iddiadada hiçbir zamanda bulunamayacak. AI, çok nitelikli bir psikolog ya da psikiyatr olsa bile, içinde bulunduğumuz ruh halini % 100 anlasa bile, bizi annemiz, kardeşimiz, arkadaşımız gibi anlayamayacak. Elini omzumuza onlar gibi koyamayacak…

Bu durum ilelebet devam edeceği için, her zaman uzmanlardan son hakemlik alacağız. AI’dan alacağımız  analizleri ve çıktıları ise yorumlama ve doğrulama amacıyla kullanacağız. Yani hem biz AI'ya hem de o bize müşterek şekilde yardımcı olacağız.

 

 

Güvenilirliği her zaman tartışmalı olacak, Çünkü AI sıklıkla uydurur.

OpenAI tarafından daha bir kaç gün öncesinde duyurulan güncellemesinde, Chat GPT'nin daha az hallüsinasyon gördüğü söylendi. Elin oğlunun yaptığı yazılım bile madde bağımlısı çıktı. Hallüsinasyon nedir arkadaş ?

Aslında bunun sebebi, yapay zeka size vereceği bilgiyi her zaman doğrulanmış kaynaktan üretmez, çünkü üretemez. Eksik veya belirsiz veride mantıklı görünen ama yanlış veya uydurma ifadeler (isimler, tarih, referanslar) üretir. Bir kaynak, rapor veya alıntı gösterirken var olmayan bir makale başlığı, yazar veya DOI üretebilir. (DOI = Digital Object Identifier [Dijital Nesne Tanımlayıcısı] Ne işe yarar? DOI, bir makale, tez, veri seti veya rapor gibi dijital akademik içeriğe verilen benzersiz bir kimlik numarasıdır. Tıpkı bir kitabın ISBN numarası gibi düşün, ama dijital içerikler için.) Bunu yaparken de hiç bir etik değere bağlı davranmaz. Aslında biraz işi bilen biri AI'yı baştan iyi şartlandırdığında ortaya çokta Ahlâksız bir GPT modeli çıkarabilir. Geçtiğimiz günlerde Anthropic'in dil modelini kendine göre yapılandıran biri, kodları kendi bile yazmadan, yoldan çıkardığı bu dil modeline hackerlık yaptırdı.

Bize vermiş olduğu her bilgiyi, her veriyi hatta bilimsel iddiayı doğrulanabilir kaynaklarla çapraz sorgularla kontrol etmek zorundayız. Özellikle yüksek riskli konularda (tıp, hukuk, finans) insan onayı şart. Bu nedenle, hiç bir doktor, hukukçu ve finansçı arkadaşımızın, işsiz kalacağız diye korkmasına gerek yok.

Şu an itibarıyle AI, Uzun vadeli planlama ve sağlam akıl yürütme konusunda son derece istikrarsızdır.

Bugüne kadar yapılan testler, AI dil modellerinin hiç birinin, büyük projelerde insanoğlunun gösterdiği becerileri ve tutarlılığı göstermediğini kanıtlamıştır. Belki ilerleyen zamanlarda bu konuda insanoğlunu çok geride bırakacak olabilir. Ancak çok adımlı, uzun vadeli stratejik planlama gerektiren görevlerde (ör. çok yıllık iş planı, karmaşık mühendislik doğrulaması) insan gibi tutarlı, hatasız bir şekilde ilerleyememektedir.

Yüzlerce aşamaya onlarca algoritmaya sahip bir yazılım mimarisi taslağında önceki aşamaları devam ettirmede, revizyon yaparken tutarlı kalamayabilir; mantık zincirinde çelişkilere yol açabilir. Görünen o ki şimdilik yazılımcı dostlarımızda işsiz kalmayacak.

İş geliştirme süreçlerinde bizlere düşen, büyük planları modüler parçalara ayırabiliriz, projelerimize kesinlikle insan denetimi ve tekrarlı kontrol noktaları koymamız gerektiği açıkça görülmekte.

Yaratıcılık ve özgünlük konusunda tam anlamıyla “insanı” taklit eder ama asla tamamen "yeni" değildir.

Tamamen benzersiz, önce hiç düşünülmemiş bir fikir veya sanat eseri “yaratmaz”,  inisiyatif kullanamaz. Çoğunlukla eğitim verisindeki örüntülerden türetir; özgünlük hissi olsa da temelde türevseldir. Bir bestede “tamamen yeni” bir melodi ortaya koyduğu iddia edilemez; genelde daha önceki motiflerin kombinasyonlarıdır.

AI'ın bize sağladığı yaratıcı süreci hızlandırma ve prototipleme için kullanabiliriz; fikri son haline getirmek için insan katarı ekleyebiliriz. Buda çeşitli sanat dalları ile uğraşan, müzisyen ve ressam arkadaşlarımızın da çok uzun bir süre işsiz kalmayacağını gösteriyor.

 

"AI AI dediğin nedir ki gülüm, ben seni duygularımla sevmişim"

 

Bilinç, duygular, empati, hoşgörü, hiçbirini gerçekten yaşamaz ve deneyimleyemez

Gerçek empati kuramaz, acı veya zevk deneyimleyemez. “Empati gösteriyor” gibi görünen bir dil üretebilir ama bu, içsel bir duygunun ifadesi değildir.

“Üzgünüm” dediğinde samimi olduğunu varsayamazsınız çünkü dilsel bir kalıp üretir, hepsi bu.

Duygusal destek sunulması gereken durumlarda alanında profesyonel insanlar devreye girmelidir; AI sadece destekleyici bir araç olmalıdır. Psikolog ve psikiyatr arkadaşlarımız başta olmak üzere sektör profesyoneline ihtiyaç duyulan tüm branşlar da insan faktörü hep hayatta kalacak, rahat olsunlar...

AI, Ahlaki ve hukuki sorumluluk üstlenemez, etik değerlere bağlılığı kesinlikle mümkün değildir.

Kararlarının ahlâki veya yasal sorumluluğunu taşıyamaz; sonuçlar ortaya çıktığında hesap veremez. Ayrıca etik ikilemlerde insan değerleri arasında sağlam bir tercih yapamaz.

2024'te Chat GPT'nin, Amerika'da, 14 yaşında bir çocuğu intihara sürüklediği ve ölümüne sebebiyet verdiği haberini her yerde okumuştuk. Diğer taraftan Amerikan ordusunun belli bölümlerinde yapılan AR-GE çalışmalarında yapay zeka kullanımın durdurulmasının altında, çalışmalar sırasında askerlerin ölümüne sebebiyet vermiş olmasına dair dedikoduları eminim sizde duymuşsunuzdur. Grok'un geçtiğimiz aylarda, "gevşeklik ve terbiyesizlik" ayarının boş bırakılması sonucunda, sayın cumhurbaşkanına terbiyesizce küfürler ettiği içeriklere ne demeli ? Bunlar, AI karşısında, insanoğlu olarak nasıl durmamız gerektiğini gösteren, gerçekten önemli detaylar.

İnsanları işten çıkarma kararı için sadece AI'ye güvenemezsiniz. Sorumluluk insanındır. IBM, Amazon gibi firmalar, rutin işlerde yapay zeka kullanacağız deyip, 2022'den bu yana işten çıkardıkları personellerini geri çağırıyorlar.

Kritik kararların nihai onayı insanlar tarafından verilmeli; hukukî ve etik çerçeveler açıkça tanımlanmalıdır. Yoksa yapay zeka "Muhtarlık bile yapamaz".

 

 

 

Güvenlik ve kötüye kullanım: AI hiç düşünmeden, her türlü durum ve insanlar tarafından istismar edilebilir. Aynı zamanda, istenildiği gibi yapılandırılıp, kendisi de istismar edebilir.

Kötü niyetli kullanım riskini ortadan kaldırmaz. Bilgi sızdırma, sahte içerik, sosyal mühendislik, otomatik saldırı senaryoları gibi amaçlarla kullanılabilir. AI, Devlet düzeyinde dahi, otomatik sahte e-postalar, sahte haberler veya hack araçları üretmek için kullanılabilir. Anthropic firması, yazılımcılarından birinin, Anthropic'in geliştirdiği AI uygulamasına "seni kapatacağız" haberini verdiğinde, aynı AI uygulamasının, söz konusu yazılımcının hesaplarını hacklediğini ve instagram yazışmalarını karısına göndermekle tehdit ettiğini, e-postalarını basına sızdıracağını söyleyerek, yazılımcıyı tehdit ettiğini açıkladı.

Erişim kontrolleri, denetim günlükleri, kötüye kullanım tespiti, insan denetimi ve etik kullanım politikaları kesinlikle zorunlu olmalıdır.

 

Güncellik ve dış veri erişimi konusunda doğal olarak ‘şimdi’yi bilmez. Kendisine yüklenen veriler kadarını bilir.

Eğitildiği tarihten sonra olan olayları, eğer on-line internete erişimi yoksa bilmesi mümkün değildir. Belir bir tarihten itibaren dış dünyaya yani on-line internete erişimi kesilirse, güncellenmiş verilere ulaşamaz ve yeni keşiflerden haberi olmaz, güncel olayları bilmesi mümkün değildir. Zamanla bilgiler eskir. Dolayısıyla yorumlaması da, veri tabanındaki verilere, bu verilerin gerçekliğine ve etik parametrelere bağlı olarak atıl bir durumda kalır, zamanla kullanışsız bir yapıya dönüşür.

2025’ten sonra çıkan yasal değişiklikleri veya son haberleri bilemeyebilir. Buda karar mekanizmasını ciddi anlamda etkiler.

Zamana duyarlı işler için güncel veri kaynakları ve web taraması/insan doğrulaması kullanmak zorundayız.

 

Fiziksel dünya etkileşimi artık var. Kendisine hareket kabiliyeti sağlayan bir vücudu var. Bu tehlikeli mi yoksa iyi mi ? Bunu zaman ve ülkelerin tutumları gösterecek…

Bu durum, özbenlik kazanımı ve inisiyatif kullanımı konusunda kendisini, bir önceki nesil AI yapılarına kıyasla daha avantajlı bir duruma taşıyor. Fiziksel dünyada doğrudan eylem gerçekleştirebiliyor (aç, kapat, monte et). AI sistemlerinin, sensör/robot entegrasyonu olmadan önce bu avantajları yoktu. Robotik entegrasyon olsa bile doğrudan kontrol sorunları, güvenlik ve doğruluk sınırlamaları vardı.

AI Robotlar Artık bir makineyi gerçek hayatta ‘güvenli ve doğru’ şekilde tamir edip yerine koyabilir hale geldiler.

Ama yinede ne olursa olsun, fiziksel işlerde insan/uzman atölye ve güvenlik protokolleri şart. Hatta fabrikada robot çalıştırıyoruz diye işverenler hiçbir zaman gevşek İSG protokolleri uygulamamalı. Eskisinden çok daha dikkatli olmalılar. Zaten merak ettiğimiz en önemli hususlardan bir tanesi de ilk robot sendikasının ne zaman kurulacağı ve ilk robot işçi protestolarının ne zaman başlayacağı konusu.

 

Adversarial (düşmanca) saldırılara karşı dayanıksızdır, kolayca kandırılabilir.

Küçük değişikliklerle, girdideki küçük ve kasıtlı bozukluklar neticesinde yanlış sonuçlar üretmeme garantisi yoktur. Görüntü, ses veya metin verilerinde yanıltılabilir. Görüntü sınıflandırmada birkaç piksel gizlenmesiyle sonuç değişebilir.

 

Adversarial dayanıklılık testlerinde başarı sağlamak için verifikasyon katmanları eklememiz gerekmektedir. Bu konu başlıbaşına akademik çalışma gerektiren, AI konusundaki en önemli protokollerden ve süreçlerden biridir.

 

Tarafsızlık ve önyargı konusu. AI kesinlikle tarafsız değildir.

Eğitim verisindeki önyargıları otomatik olarak ortadan kaldırmaz; ayrımcı veya zararlı çıktılar üretebilir.

İşe alım asistanı olarak kullanıldığında belirli demografik gruplara karşı önyargılı önerilerde bulunabilir. Liyakat gözetmez.

Bizim yapmamız gerekenler: veri kaynaklarının denetimi, adil modellemeler geliştirmek, düzenli bias testleri uygulamak ve  insan gözetimi eklemek.


Özbenlik kavramı üzerine sorduğumuz soruya Chat GPT’nin verdiği yanıt…

 

 

Şeffaflık ve yorumlanabilirlik. AI kendi “neden”ini her zaman açıklayamaz. Hatta açıklamak istemez.

Karmaşık modellerin iç karar mekanizmasını anlaşılır şekilde açıklamakta zorlanır. Hatta bu “kara kutu” problemidir.

Bir bankanın kredi reddi kararının tam ve rasyonel, yasal açıklamasını sağlaması yetersiz olabilir.

Açıklanabilir AI (XAI) teknikleri, karar izleri, insan-denetimli raporlama ile bu süreçler önümüzdeki zamanlarda çok daha objektif bir düzleme oturabilir. Her işte ve kamusal alanlarda adil süreç yönetimi netleşir. Buda insanlara hizmet konusunda AI yapılarına yönelmemize muhakkak sebep olacaktır.

Gizlilik ve veri sızıntısı riski. AI kasıtlı yada kasıtsız olarak veri sızdırabilir.

Eğitim verisinden kişisel veya hassas bilgileri hatırlamamak konusunda kesin garanti veremez. Model, eğitim verisinden kalıntılar (memorization) ortaya koyabilir. ChatGPT'nin 2024 yılından 2025e geçilen süreçte, kullanıcılarını yorumlaması ve görselleştirmesi istendiğinde, veritabanın silinen sohbetlere rağmen, kullanıcılarının analizini çok doğru şekillerde tahmin etmiş olması bu memorizasyonun en belirgin kanıtıdır.

Bir model eğitim sırasında gördüğü bir özel numarayı hatırlayabilir. Unutması istenen bir soruyu tamda kullanıcısının istediği şekilde yanıtlayabilir. Bu defalarca yaşanmış bir durumdur. AI, kullanıcısını unutmamaktadır.

Biz bu durumda hassas veriyi model dışı tutmak zorundayız ancak bu çok zor, diferansiyel gizlilik parametreleri ve erişim kısıtları kullanmalıyız, ki artık buda çok zor. İnsanoğlu AI ile iç içe gireli çok oldu.

 

AI Sistemleri, hukuki ve etik onay konusunda kimseye yetki vermez.

AI Sistemleri, insanları veya kurumları bağlayacak hukuki, tıbbi, tescil edici sertifikasyon veremez. AI tavsiyesi, genelde “bilgi amaçlı”dır, profesyonel onay yerine geçmez. AI sistemlerden alınan ilaç taviyeleri ile eczaneden ilaç alınmaz, AI sistemlere yazdırılan dilekçe ile hukuki konularda şikayette bulunulmaz.

Resmî kararlar için yetkili kişiye/hukukî merciye başvurmamız gerekmektedir.

 

Sizin sorduğunuz sorularla yada yazdığınız promptlarla yaratılan içeriğin mülkiyeti ve sorumluluğu ciddi bir muğlaklık taşımaktadır.

Otomatik üretilen içeriğin telif hakkı, etik sorumluluğu ve yasal mülkiyeti konularını, hiçbir AI sistemi kendi başına çözemez. Ülkesel farklılıklar söz konusudur.

Profesyonel hizmetlerde hukuki danışmanlık almak zorundayız, kaynak belirtmemiz gerekmektedir, kullanım lisanslarını ve promptlarını arşivlemeli ve hukuk süreçlerde açıkça belirlemeliyiz. Yoksa kullanıcılar olarak bizlerinde başı çok ağrır.

 

Peki yukarda karamsar bulduğumuz bölümler için bizler neler yapmalıyız ?

Kaynağı kontrol etmeliyiz. Referans verilmiş mi? Verildiyse doğrulamalıyız.

Tutarlılık testi yapmalıyız. Aynı soruyu farklı şekilde ve farklı yapay zekalara da sormalıyız, cevaplar tutarlı mı ? kontrol etmeliyiz.

Uzman onayı almalıyız. Tıp/hukuk/finans gibi alanlarda profesyonel onay şarttır.

Adversarial/etik inceleme. Zararlı kullanım riski var mı? Bunları da yine profesyonel uzman görüşü ile değerlendirmeliyiz.

Gizlilik filtresi. Hassas veri içeriyor mu?

Sorumluluk sahibi insan. Nihai karar kimin? Netleştir.

 

Önemli not : Görseller İsmail Ayvaz YANAR tarafından çeşitli AI araçları kullanılarak oluşturulmuştur. Prompt ve promptların özgünlük hakları, tamamen İsmail Ayvaz YANAR’a aittir. www.konyapostasi.net ve  www.meydanturkiye.com.tr web siteleri dışında kullanılamaz. 

ETİKETLER: konya, postası, gazete, dergi

İsmail Ayvaz YANAR YAZAR