Yapay zekâ… Son yılların en sihirli iki kelimesi. Bir tuşla metin yazıyor, görüntü üretiyor, ses taklidi yapıyor, hayatı kolaylaştırıyor. Hastanelerden okullara, bankalardan belediyelere kadar her alana hızla entegre oluyor. Doğru kullanıldığında büyük bir nimet. Ama yanlış ellerde, ciddi bir tehdide dönüşüyor. Sakarya’da yaşanan ve bir vatandaşın 2,5 milyon TL’sini kaybettiği olay, bu tehdidin artık soyut değil, son derece gerçek olduğunu acı bir şekilde gösteriyor.
İrfan Sezgin’in yaşadıkları aslında sadece bir “dolandırıcılık haberi” değil. Bu olay, teknolojinin insan duygularıyla birleştiğinde ne kadar tehlikeli olabileceğinin somut bir örneği. Yapay zekâ ile üretilmiş, Cumhurbaşkanı Recep Tayyip Erdoğan’a ait olduğu izlenimi veren bir video… Güven duygusu, umut, “devlet destekli yatırım” algısı… Hepsi ustalıkla kurgulanmış. Sonuç: Hayat birikimi, borç, dağılan bir aile düzeni ve derin bir psikolojik yıkım.
Burada durup düşünmek gerekiyor. Yapay zekâ bu kadar mı güçlü? Evet. Peki biz bu güce karşı ne kadar hazırlıklıyız? Ne yazık ki o kadar değil.
Yapay zekâ bugün sağlıkta erken teşhis sağlıyor, üretimde verimliliği artırıyor, engelliler için hayatı erişilebilir kılıyor. Bunları görmezden gelemeyiz. Ancak madalyonun bir de karanlık yüzü var. Deepfake adı verilen sahte video ve sesler artık neredeyse gerçeğinden ayırt edilemez halde. Bir kişinin yüzü, sesi, mimikleri birebir kopyalanabiliyor. Üstelik bunu yapmak için eskisi gibi ileri düzey teknik bilgiye de gerek yok. İnternette birkaç program, biraz kurcalama… Gerisi geliyor.
Dolandırıcılar da tam olarak bunu yapıyor. İnsanların en hassas noktalarına oynuyorlar: Güven, umut, çaresizlik, kazanma isteği. “Cumhurbaşkanı söylüyorsa doğrudur”, “Bu kadar büyük şirketin adı geçiyorsa güvenlidir” düşüncesi, saniyeler içinde devreye giriyor. Oysa karşımızdaki şey, bir algoritmanın ürünü.
Peki vatandaş olarak ne yapacağız? Her şeye şüpheyle mi bakacağız? Belki de evet, ama sağlıklı bir şüpheyle.
Öncelikle şunu net söyleyelim: Devlet kurumları, büyük şirketler ya da tanınmış isimler sosyal medyada yatırım tavsiyesi vermez, link göndermez, kişisel bilgi istemez. “Son fırsat”, “hemen yatırım”, “kaçırmayın” gibi ifadeler neredeyse her zaman bir alarm zili olmalı.
Bir videonun ya da fotoğrafın yapay zekâ ürünü olup olmadığını anlamak için bazı ipuçları var. Yüz ifadelerine dikkat edin. Dudak hareketleri sesle birebir uyumlu mu? Göz kırpmalar doğal mı, yoksa fazla mı mekanik? Yüzün bazı bölgeleri flu, arka plan tuhaf mı? Ses tekdüze, duygusuz ya da metalik mi geliyor? Bunlar küçük ama önemli işaretler.
Ayrıca videonun kaynağı çok önemli. Resmî hesap mı, doğrulanmış bir platform mu, yoksa yeni açılmış, takipçisi az bir sayfa mı? Video başka güvenilir haber sitelerinde yer alıyor mu? Basit bir internet araması bile çoğu zaman gerçeği ortaya çıkarır.
Bir diğer kritik nokta: Linkler. Sosyal medyada karşınıza çıkan linklere asla düşünmeden tıklamayın. Özellikle sizden T.C. kimlik numarası, banka bilgisi, telefon doğrulaması isteyen sayfalardan uzak durun. Unutmayın, bir kere bilgilerinizi verdiğinizde kontrol sizden çıkar.
Bu noktada sadece bireylere değil, devlete ve kurumlara da büyük görev düşüyor. Yapay zekâ ile işlenen suçlara yönelik hukuki düzenlemeler hızlanmalı. Dijital okuryazarlık artık bir lüks değil, zorunluluk. Okullarda, belediyelerde, kamu spotlarında bu konular anlatılmalı. “Nasıl dolandırılırız?” değil, “Nasıl dolandırılmayız?” sorusunun cevabı yaygınlaştırılmalı.
İrfan Sezgin’in sözleri kulaklarımızda çınlamalı: “Cumhurbaşkanımızı incitmek ve insanların duygularıyla oynamak için yapay zekâyı kullanıyorlar.” Evet, mesele sadece para değil. Güven erozyonu, toplumsal huzur, psikolojik yıkım… Bedeli çok ağır.
Yapay zekâ hayatımızdan çıkmayacak. Çıkmamalı da. Ama onu sorgulamayı, kontrol etmeyi, sınır koymayı öğrenmezsek, kolaylaştıran bir teknolojiden korkutucu bir silaha dönüşebilir. Teknoloji akıllı olabilir, ama onu kullanan insanın vicdanı yoksa, ortaya çıkan sonuç asla masum olmuyor.
Artık dijital çağda “gördüğüme inanırım” devri bitti. Yeni kural şu: Gördüğüne inanma, doğrula. Çünkü bir video, bir ses, bir fotoğraf… Hepsi yalan söyleyebilir. Ve bazen o yalanın bedeli, bir ömürlük oluyor.