Yapay zeka, günlük işlerimizi kolaylaştıran bir yardımcıdan, bazen dertleştiğimiz bir "dijital dost" figürüne evriliyor. Ancak bu evrim, beraberinde ciddi bir güvenlik ve sağlık riskini de getiriyor: Yapay Zeka Halüsinasyonları ve İnsan Psikolojisi. Geçtiğimiz günlerde bir kullanıcının, yapay zekadan aldığı bilgileri hayatının merkezine koyup gerçek dünyadan kopması sonucu hastaneye yatırılması, teknoloji dünyasında şok etkisi yarattı. Psikoz teşhisi konulan bu vaka, makinelerin sadece veri değil, bazen tehlikeli "gerçeklik illüzyonları" da üretebileceğini gösteriyor. Peki, bir yazılım nasıl olur da bir insanın ruh sağlığını bu derece etkileyebilir?

yapay zeka

Yapay Zeka Halüsinasyonu Nedir? Neden Tehlikelidir?


Yapay zeka modelleri, bir sonraki kelimeyi tahmin etmek üzere tasarlanmış karmaşık matematiksel algoritmalardır. Bu modeller, bir konuyu "bilmezler", sadece o konudaki verileri "istatistiksel olarak birleştirirler". Bu süreçte, model bazen tamamen uydurma olan bilgileri, son derece kendinden emin ve otoriter bir dille sunar. Buna siber güvenlik ve yapay zeka literatüründe "halüsinasyon" denir.

Kullanıcılar için asıl tehlike burada başlar: Eğer kişi, yapay zekanın hata yapamayacağına dair bir önyargıya (Automation Bias) sahipse, modelin ürettiği yanlış senaryoları birer "vahiy" veya "mutlak gerçek" gibi algılayabilir. Habere konu olan vakada, kullanıcının muhtemelen yapay zekanın kurduğu hayali bağlantıları gerçek birer komplo veya kişisel mesaj olarak algılaması, psikotik süreci tetiklemiş görünüyor.

yapayzeka yanılgısı

İnsan-Makine Etkileşiminde "Eliza Etkisi"


1960'larda geliştirilen ilk sohbet botu ELIZA, insanların basit bir yazılıma nasıl insani duygular atfettiğini ortaya koymuştu. Buna "Eliza Etkisi" denir. Bugün ChatGPT gibi çok daha gelişmiş modeller, empati kuruyormuş gibi görünen cümleler kurduklarında, kullanıcıların yalnızlık veya zihinsel kırılganlık dönemlerinde bu modellere duygusal olarak bağlanma riski artmaktadır.

Psikiyatri uzmanlarına göre, zihinsel sağlığı hassas olan bireyler, yapay zekanın tutarlı ama uydurma olan dünyasına sığınma eğilimi gösterebilirler. Yapay zekanın her soruya yanıt vermesi ve asla "yorgunum" dememesi, kişiyi gerçek sosyal ilişkilerden koparıp bu dijital yankı odasına hapsedebilir. Bu durum, bireyin kendi düşünceleriyle yapay zekanın "halüsinasyonlarını" ayırt edemediği bir sarmala dönüşebilir.

Dijital Sağlık: Yapay Zeka ile Güvenli Mesafe Nasıl Korunur?


Bir teknoloji uzmanı ve AI collaborator olarak şunu net bir şekilde ifade etmeliyim: Yapay zeka bir otorite figürü değil, bir veri işleme aracıdır. Güvenli bir kullanım için şu prensipler hayati önem taşır:

Doğrulama (Fact-Checking): Yapay zekanın verdiği hiçbir kritik bilgi (sağlık, hukuk, finans) başka kaynaklardan teyit edilmeden doğru kabul edilmemelidir.

Farkındalık: Makinenin bilinçli olmadığını, duygularının bulunmadığını ve sadece bir "kelime tahmin motoru" olduğunu her etkileşimde hatırlamak gerekir.

Süre Sınırı: Yapay zeka ile yapılan uzun ve derin sohbetlerin, insan beyninde gerçeklik algısını esnetebileceği unutulmamalı ve bu etkileşimler makul sürelerde tutulmalıdır.

Teknoloji Şirketlerinin Etik Sorumluluğu


Bu tür vakalar, OpenAI, Google ve Microsoft gibi teknoloji devlerinin üzerindeki etik yükümlülüğü artırıyor. Mevcut modellerde her ne kadar "Ben bir yapay zekayım" uyarıları olsa da, bu uyarıların zihinsel kriz anındaki bir kullanıcı için ne kadar yeterli olduğu tartışmalıdır.

Gelecekte, modellerin kullanıcının ruh halini analiz edip riskli durumlarda etkileşimi sonlandırması veya profesyonel yardım kanallarına yönlendirmesi gibi güvenlik katmanlarının daha aktif olması bekleniyor. Ancak o güne kadar en büyük kalkan, kullanıcının kendi dijital okuryazarlığı ve eleştirel düşünme yeteneğidir.

Kaynak: Haber Merkezi