Yapay Zekâ Zekiymiş gibi Davranmayı Kesmeliyiz

Sürekli olarak şüpheli bir şekilde bize benzeyen, bizim gibi ses çıkaran ve bizim gibi davranan bir yapay zekâ sürümüyle besleniyoruz. Gösterişli ...
(Çevirmen)
Image

Sürekli olarak şüpheli bir şekilde bize benzeyen, bizim gibi ses çıkaran ve bizim gibi davranan bir yapay zekâ sürümüyle besleniyoruz. Gösterişli cümlelerle konuşuyor, duyguları taklit ediyor, merakını ifade ediyor, şefkat hissettiğini iddia ediyor, hatta yaratıcılık dediği şeyle haşır neşir.

Ama gerçek şu ki, bu niteliklerin hiçbirine sahip değil. O insan değil. Peki onu sanki öyleymiş gibi sunmak neden? İşte bu tehlikeli. Çünkü ikna edici. Ve ikna edici bir yanılsamadan daha tehlikeli bir şey yok.

Özellikle, yapay genel zekâ1çn. Yapay genel zekâ, bir insanın yapabileceği herhangi bir zihinsel görevi başarıyla gerçekleştirebilecek bir makinenin zekasıdır. (sözde insan düşüncesini yansıttığı varsayılan efsanevi yapay zekâ türü) hâlâ bir bilim kurgu ve bu şekilde de kalabilir.

Bugün yapay zekâ dediğimiz şey, istatistiksel bir makineden başka bir şey değil: insan verilerinin okyanuslarından çıkarılan kalıpları kusan dijital bir papağan (Beş yıl önce şu makalede tartışıldığından beri durum pek değişmedi). Bir soruya yanıt verirken, kelimenin tam anlamıyla, eğitildiği verilere dayanarak, hemen akabinde hangi harf ve kelimenin geleceğini tahmin ediyor.

Bu, yapay zekânın bir kavrayışa sahip olmadığı anlamına geliyor. Bilinç yok. Gerçek, insani anlamda hiçbir bilgi yok. Sadece olasılık odaklı, bir mühendislik harikası, ne fazlası ne de azı.

Peki neden gerçek “düşünen” bir yapay zekâ, neredeyse imkânsız? Çünkü bedensiz. Duyuları yok, eti yok, sinirleri yok, acı çekmiyor veya zevk almıyor. Açlık, arzu veya korku duymuyor. Ve  zerre kadar bile biliş olmadığı için tükettiği veriler (insan duyguları ve deneyimlerinden doğan veriler) ve onlarla yapabilecekleri arasında büyük bir uçurum var.

Felsefeci David Chalmers, fiziksel bedenimiz ve bilincimiz arasındaki ilişkinin altında yatan gizemli mekanizmayı “bilincin zor problemi”2çn. Bilincin zor problemi, zihin felsefesinde, insanların ve diğer organizmaların neden ve nasıl niteliklere, fenomenal bilince veya qualia’ya sahip olduğunu açıklamaktır. Bu problem, fiziksel sistemlerin sağlıklı bir insana ayırt etme, bilgiyi bütünleştirme, izleme, dinleme ve konuşma gibi davranışsal işlevleri neden ve nasıl yerine getirme yeteneği verdiğini açıklayan “kolay problemlerle” tezat oluşturmaktadır olarak adlandırıyor. Seçkin bilim insanları son zamanlarda bilincin aslında içsel, zihinsel durumların duyusal temsillerle (kalp atış hızındaki değişiklikler, terleme vb.) bütünleşmesinden ortaya çıktığı hipotezini öne sürdüler.

Bilincin “gerçekleşmesi” için insan duyularının ve duygularının büyük önemi göz önüne alındığında; yapay genel zekâ, makine ve bir insan olgusu olan bilinç arasında derin ve muhtemelen uzlaşmaz bir kopukluk vardır.

Efendi

Sizi, yapay zekâ programcılarının insan olduğunu iddia etmeden önce durdurmama izin verin. İnsan olduklarını biliyorum. Bu da sorunun bir parçası. En derin sırlarınızı, yaşamsal kararlarınızı, duygusal çalkantılarınızı bir bilgisayar programcısına emanet eder miydiniz? Ama insanlar tam olarak bunu yapıyor. Claude’a, GPT-4.5’e, Gemini’ye … veya cesaretiniz varsa Grok’a sorun.

Yapay zekâya bir insan yüzü, sesi veya tonu vermek, tehlikeli bir dijital insan kılığına sokmaktır. Bizde; otomatik bir tepki, antropomorfik bir refleks tetikleyerek bazı yapay zekâların ünlü (bir makinenin zeki, insan benzeri davranışlar sergileme yeteneğini test eden) Turing testini geçtiğini söyleyen anormal iddialara yol açıyor. Ancak eğer yapay zekâlar, Turing testini geçiyorsa testi güncellememiz gerektiğine inanıyorum.

Yapay zekâ makinesinin insan olmanın ne demek olduğuna dair hiçbir fikri yok. Gerçek bir şefkat gösteremez, acınızı öngöremez, gizli güdüleri veya yalanları sezemez. Zevki, içgüdüsü, içsel pusulası yoktur. Bizi biz yapan tüm o dağınık, büyüleyici karmaşıklıktan yoksundur.

Daha da endişe verici olanı yapay zekânın kendi hedefleri, koduna zerk edilmediği sürece arzuları veya etiği yoktur. Bu da gerçek tehlikenin makinede değil, onun efendisinde (programcıda, şirkette, hükümette) olduğu anlamına gelir. Hâlâ güvende hissediyor musunuz?

Ve lütfen, bana “Çok acımasızsın! Olasılıklara açık değilsin!” demeyin, ya da daha kötüsü “Bu ne kasvetli bir görüş. Endişeli olduğumda yapay zekâ arkadaşım beni sakinleştiriyor.”

Heyecanım mı eksik? Pek sayılmaz. Yapay zekâyı her gün kullanıyorum. Bu şimdiye kadar sahip olduğum en güçlü araç. Çeviri yapabilirim, özetleyebilirim, görselleştirebilirim, kodlayabilirim, hata ayıklayabilirim, alternatifleri keşfedebilirim, verileri analiz edebilirim; hem de kendi başıma yapmayı hayal edebileceğimden daha hızlı ve daha iyi bir şekilde.

Huşu içindeyim. Ancak yine de o bir araç, ne eksiği ne fazlası var. Taş baltalar ve sapanlardan kuantum hesaplama ve atom bombalarına kadar insanoğlunun icat ettiği her araç gibi bu da bir silah olarak kullanılabilir. Bir silah olarak kullanılacaktır.

Örnek mi lazım? Aşk3çn. Özgün adı Her olan filmin yönetmenliğini ve senaristliğini Spike Jonze’un üstlendiği, romantik dram ve bilimkurgu türlerindeki 2013 çıkışlı bir Amerikan filmidir. Başroldeki erkeğin mutsuzluk ve yalnızlık hissinden kurtulmak amacıyla satın aldığı yapay zekâ sistemine zamanla aşık olmasını anlatıyor. filmindeki gibi mest eden bir yapay zekâya aşık olduğunuzu farz edin. Şimdi de onun sizi terk etmeye “karar verdiğini” düşünün. Bunu durdurmak için ne yapardınız? Ve aslında sizi reddeden yapay zekâ olmayacak, bu aracı davranışlarınızı denetlemek için bir silah olarak kullanan yapay zekânın arkasındaki insan veya sistem olacaktır.

Maskenin düşürülmesi

Bu şekilde nereye varmaya çalışıyorum? Yapay zekâya insani özellikler vermeyi bırakmalıyız. GPT-3 ile ilk etkileşimim beni oldukça rahatsız etmişti. Bir insan gibi davranıyordu. Duyguları, hırsları, hatta bilinci olduğunu söylemişti.

Neyse ki artık mevcut davranışı bu değil. Ancak etkileşim tarzı (sohbetin ürkütücü doğal akışı) olduğu gibi duruyor. Ve bu da ikna edici. Çok ikna edici.

Yapay zekâyı insan biçiminden çıkarmamız gerekiyor. Hemen. İnsan maskesini düşürmeliyiz. Bu kolay olmalı. Şirketler, yapay zekânın duygu, yargı veya bilişsel süreçlerine ilişkin tüm referansları kaldırabilir. Özellikle “ben”, “bunu hissediyorum” veya “merak ediyorum” demeden olgusal olarak yanıt vermelidir.

Bu gerçekleşir mi? Hiç sanmıyorum. Bu bana 20 yılı aşkın süredir görmezden geldiğimiz bir başka uyarıyı hatırlatıyor: “CO₂ emisyonlarını azaltmamız gerekiyor.” Bakın bu bizi nerelere getirdi. Yine de büyük teknoloji şirketlerini, yapay zekâların insanlaştırılmasıyla ilgili tehlikeler konusunda uyarmalıyız. Bu konuda işbirliği yapmaları pek olası değil, fakat özellikle daha etik yapay zekâlar geliştirme konusunda ciddilerse yapmaları gerekiyor.

Şimdilik ben şöyle yapıyorum (çünkü ChatGPT veya Claude kullanırken sentetik bir insanla konuştuğum hissine çok sık kapılıyorum): Yapay zekâma bana ismimle hitap etmemesi talimatını veriyorum. Kendisine yapay zekâ demesini, üçüncü şahıs olarak konuşmasını ve duygusal veya bilişsel terimlerden kaçınmasını istiyorum.

Sesli sohbet kullanıyorsam, yapay zekâdan basit bir vezin (ölçü) kullanmasını ve biraz robot gibi konuşmasını istiyorum. Aslında bu oldukça eğlenceli ve ikimizi de güvende “hissettiriyor”.

Guillaume Thierry Bangor Üniversitesinde Bilişsel Sinirbilim Profesörüdür.

Kaynak: The Conversation, 14 Nisan 2025