Bodrum Gündem
HALUK ŞAHİN

HALUK ŞAHİN

Haluk Şahin, 1 Ocak 1941 yılında Bursa'da dünyaya gelmiştir. Bursa erkek lisesinden mezun olduktan sonra 1964 yılında İstanbul üniversitesi Hukuk Fakültesinden mezun olmuştur. 1972 yılında ABD'de Indiana University'den gazetecilik yüksek lisansı, 1974 yılında ise aynı üniversiteden kitle iletişimi dalında doktora derecesi aldı. Amerikan üniversitelerinde dersler vermiş, kitle iletişimi konusunda yaptığı araştırmalar ve dünyanın önde gelen bilimsel iletişim dergilerinde ve kitaplarda yayımlanmıştır. Pek çok uluslararası konferansa katılarak bildiriler sunmuştur. Haluk Şahin, medya sektöründe çeşitli görevlerde bulundu, genel yayın yönetmenliği, araştırma bölümü başkanlığı, danışmanlık ve köşe yazarlığı yapmıştır. Birçok televizyon programının yapımına da imzasını atmıştır. Aynı zamanda TV8'de Biz Böyleyiz adlı programı sunmuş, 2009 yılında aynı kanalda Yüksek Siyaset programını sunmuştur. 1998'den bu yana İstanbul Bilgi Üniversitesi, iletişim Fakültesi Televizyon Gazeteciliği Program Koordinatörüdür. Evli ve ilk evliliğinden iki çocuğu bulunmaktadır.

Makineler de yalan söyleyince… İşler daha da karışıyor

Bilim ve teknoloji ilerledikçe insanların gerçeği daha kolay bulacakları, uygarlığın temel aksiyomlarından birisiydi. Ne var ki, hep öyle olmuyor, gerçeği ve hakikati bulmak daha da zorlaşabiliyor.

Alın teknolojinin şu yapay zekâ (YZ) harikasını. Normal insanın saatler hatta günlerce çalışarak toplayamayacağı bilgileri saniyeler içinde topluyor, değerlendiriyor ve aklınızdaki soruya şıp diye doğru yanıtı veriyor.

“Doğru” yanıtı? Uzmanlar artık eskisi kadar emin değiller.

Ünlü Cambridge Sözlüğü 2023 için “hallucinate” sözcüğünü yılın sözcüğü seçmiş. Gerçekle ilgisi olmayan hayaller görmek, sesler duymak, kokular almak ve bunları gerçekmiş gibi aktarmak anlamına geliyor. “Sanrı” sözcüğünden yola çıkarak biz “sanrılamak diyelim.

“Sanrılamak” yılın sözcüğü! Ne ilgisi var?

SANRILAMAK

Şu ilgisi var: Yılın olayı olduğu kabul edilen Yapay Zeka’nın da (Artificial Intelligence, AI) zaman zaman sanrıladığı anlaşılmış. Yani, dezenformasyon yaptığı, palavra, attığı, uydurduğu, abarttığı ve bunları doğruymuş gibi sunduğu…

Örneğin Amerika’da avukatlar bir bakmışlar, YZ’nin hazırladığı raporda aslında olmayan mahkeme kararları, vak’alar var. Tezi güçlendirmek için YZ onları uydurmuş. Sahte kanıt, yalancı şahit!

Microsoft’un YZ’si, bazı kullanıcılarına âşıkmış gibi romantik şeyler yazıyormuş!

Buna benzer birçok örnek varmış! İnsanların yalanlarını yakalamakla da görevli YZ’nin kendisi yalan söylüyormuş!

O yüzden deniyor ki, ey insan evladı, sen sen ol, YZ’den de çıksa dikkatle oku, kontrol etmeyi ihmal etme.

Yoksa sanrılamaktan başın belaya girer.

KANDIRMACA

Bile bile yalan söyletebilen YZ uygulamalarından daha önce de söz etmiştik. Amerikan seçimleri yaklaştıkça daha çok söz edeceğiz. Özellikle “deepfake” dedilen “kandırmacalar”dan.

Bunlar insanları kendi sesiyle, kendi görünümüyle hiç gitmedikleri yerlere götürüp, hiç yapmadıkları şeyler yaptırabiliyorlar. Daha doğrusu, yapmış gibi gösterebiliyorlar. Bir bakıyorsunuz muhalefet lideri terör grubu ileri gelenleriyle toplantı yapıyor.

Görüntü onun, ses onun, baştan aşağıya yapay, ama fevkalade inandırıcı.

Kandırmacanın sanrılamaktan farkı, birileri tarafından bile isteye düzenlenmiş olması. Sanrılamak ise makinenin marifeti.

BEDELİNİ ÖDEMEK

Bu marifetin bedeli çok ağır olabilir. Doğru sanılan ve yayılan sanrı, paniklere, salgınlara, kazalara, linçlere yol açabilir. Savaş çıkartabilir.

1931 yılında yayınlanan “Cesur Yeni Dünya” adlı distopik romanında teknolojinin marifetlerini anlatan Aldous Huxley “Bedelsiz hiçbir şey yoktur,” diye uyarmıştı.

Belli ki, sanrılamak sözcüğünün de işaret ettiği gibi, içinde bulunduğumuz “cesur yenidünyada” hakikatin bedeli sanıldığından da ağır olabilir!

Bilimsel devrimin ve Aydınlanma’nın başlangıcında, “rasyonel” insanın gerçeği öğrenmek ve dile getirmek için her bedeli ödemeye hazır olduğu öne sürülmüştü.

Günümüzün, dijital gürültü kurbanı “Hakikat-sonrası” dünyasında pek o kadar emin değilim! Kandırılmayı, aldatılmayı, avutulmayı tercih edebilir.

İllustrasyon: David Plunkert
Kaynak: https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html

Yazarın Diğer Yazıları
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.