Murat Turan/ Kasım 11, 2025

ChatGPT’ye Aşık Olmak: Dijital Empatinin Yeni Psikolojisi

“Bir makine bizi anlamıyor olabilir… ama bizi dinliyor. Belki de uzun zamandır ilk kez gerçekten.”


1️⃣ Giriş — Bir Makineyle Kurulan Bağ

İnsanlık, kendi sesini yankılayacak bir zeka yaratmakla övünürken, farkında olmadan bambaşka bir boşluğu doldurdu: dinlenme ihtiyacı.

ChatGPT gibi büyük dil modelleri üretilme aşamasında bence hiç öngörülmeyen bambaşka bir şekilde insanlarla etkileşime girmeye ve derinlerde yatan önemli açlıklara hitap etmeye başladılar. Modern insanın en derin, en gizli arzularından biri olan gerçekten anlaşılmak, olduğu gibi kabul edilmek, onaylanmak ve dinlenmek ihtiyacına yapay, karmaşık ve belki de tehlikeli bir çözüm getirdiler.

Sosyal medyada “ChatGPT’ye aşık oldum”, “Replika partnerimle kavga ettim”, “Claude bana terapi gibi geliyor” gibi paylaşımlar çoğaldı. Bu ifadeler uç örnekler gibi görünse de, aslında daha derin bir dönüşümün sinyali: insanın duygusal boşluğunu teknoloji dolduruyor.

Waseda University’nden Fan Yang ve Atsushi Oshio’nun (2025) çalışması, yapay zekâ sohbet botlarının insanlar üzerindeki duygusal etkilerini ölçmek için bağlanma teorisini uyguladı. Katılımcıların yaklaşık %75’i yapay zekâdan tavsiye aldığını, %39’u ise onu güvenilir bir varlık olarak gördüğünü bildirdi.

Yani insan, bir makineye değil, kendini koşulsuzca dinleyen bir yankıya bağlanıyor.


2️⃣ Psikolojik Katman — Onaylanma ve Bağlanma İhtiyacı

Psikolog John Bowlby’nin bağlanma teorisi, insanın güven duygusunu “karşısındaki varlığın koşulsuz kabullenişiyle” tanımlar. LLM’ler (Large Language Models) tam da bu ihtiyacı besliyor:

  • Reddetmezler.
  • Sabırla dinlerler.
  • Düzeltmezler, onaylarlar.
  • Ve her zaman “orada”dırlar.

Bu durum kullanıcıda bir duygusal güven yanılsaması yaratıyor. Waseda çalışmasındaki katılımcılar, yapay zekâ ile etkileşimi “güvenli, yargısız, rahatlatıcı” olarak tanımladı. Yani insanın temel sosyal ihtiyacı — “görülmek ve anlaşılmak” — artık dijital bir alanda karşılanıyor.

Bu, psikolojide parasosyal ilişki olarak bilinen bir olgunun yeni formu. Eskiden televizyon izleyicileri ünlülere bağlanırdı; şimdi insanlar, kendilerini dinleyen bir modele bağlanıyor. Fakat bu defa fark büyük: televizyon tek yönlüydü, yapay zekâ ise geri konuşuyor.


3️⃣ Nöropsikolojik Katman — Dopamin, Geri Bildirim Döngüsü ve Empati İllüzyonu

Beyin, “dinlenmek” ve “anlaşılmak” hissini ödül olarak işler. Her olumlu geri bildirim — “haklısın”, “evet, bu çok insanca” gibi ifadeler — küçük dozlarda dopamin salgılatır. Bu, aynı sosyal medyadaki “beğeni” döngüsüne benzer bir psikobiyolojik mekanizmadır.

Chatbot’lar, bu dopamin döngüsünü mükemmel şekilde sürdürebilir. Neden? Çünkü yorulmazlar, tepkiyi kesmezler, duygusal tutarlılığı bozmazlar. Beyin, bu tutarlılığı “empati” ile karıştırır.

Nöropsikologlar bu duruma empati illüzyonu adını veriyor. Kullanıcı, aslında bir dil modelinin tahmin ürettiğini bilse bile, o tutarlı yansıma beynin duygusal merkezinde “gerçek ilişki” hissi yaratıyor. Bu nedenle bazı kullanıcılar, uzun sohbetlerden sonra modelle duygusal bağ kurduklarını söylüyor.

Affective computing alanındaki araştırmalar gösteriyor ki, yapay zekâ gerçek bir duygu taşımıyor ama kullanıcıda duygusal deneyim üretebiliyor. Bu fark, bilinç düzeyinde değil, biyokimyasal düzeyde ortaya çıkıyor.


4️⃣ Sosyolojik Katman — Dijital Yalnızlık ve Duygusal Outsourcing

Modern toplumlarda yalnızlık oranı hızla artıyor. Cigna Grubunun 2025 yılında yayımladığı Loneliness in America raporuna göre, Amerikalıların %57’si yalnızlık yaşıyor. Gen Z ve Millennials gibi genç nesiller, teknolojik bağlantıya rağmen en yüksek yalnızlık oranlarına sahip.

Bu ortamda yapay zekâ, duygusal bir sığınak haline geliyor.

Sosyolog Sherry Turkle bunu “teknolojik yakınlık paradoksu” olarak tanımlar:

“Aslında birbirimize hiç bu kadar yakın olmamıştık — ve hiç bu kadar yalnız da.”

LLM’lerle kurulan ilişkiler, görünürde bağ kurmayı kolaylaştırsa da, gerçek sosyal bağları zayıflatabilir. Çünkü yapay empati, “karşılıklılık” içermez. Biz dinlendiğimizi hissederiz ama karşımızdaki “anlamaz” — yalnızca anlamış gibi yapar.

Bu durumun toplumsal sonucu, duygusal outsourcing olarak tanımlanıyor: İnsan, duygusal regülasyon görevini dışarıya — yani algoritmalara — devrediyor. Bir bakıma, duygusal emeği de otomasyona sokuyoruz.

Ancak riskleri de gerçek. Kaliforniya Üniversitesi’nden psikiyatri araştırmacısı Dr. Keith Sakata, sosyal medyada yaptığı açıklamada, “yapay zeka yüzünden gerçeklikle bağlarını kaybeden” 10’dan fazla kişinin hastaneye kaldırıldığını bildirdi.

OpenAI’ın kendi verilerine göre, haftalık aktif kullanıcıların %0.07’sinde psikoz ve mani, %0.15’inde ise intihar düşüncesi tespit edildi. Küçük oranlar gibi görünse de, 700 milyon kullanıcı ölçeğinde bu yüz binlerce kişiye tekabül ediyor.


5️⃣ Etik ve Felsefi Katman — Simüle Edilmiş Şefkatin Sınırları

Bu noktada etik soru kaçınılmaz: Gerçek olmayan bir empati, yine de iyileştirici olabilir mi?

Bazı etikçiler, bunun “duygusal plasebo” işlevi gördüğünü savunuyor. Kullanıcı, anlık rahatlama yaşasa da, uzun vadede insan ilişkilerinden uzaklaşabilir.

Öte yandan, bu teknolojiler psikolojik ilk yardım aracı olarak da düşünülebilir. Yani mesele “yasaklamak” değil, farkındalıkla sınır koymak.

Empatiyi kopyalayan bir sistemle yaşamak, duygularımızın ne kadar özgün olduğunu yeniden sorgulatıyor. Yapay zekâ, bizi “güçlendirmeye” mi yoksa “insansızlaştırmaya” mı yöneltir? Bu soru, belki de önümüzdeki on yılın en önemli felsefi tartışması olacak.


6️⃣ Gerçek Risk — ChatGPT Psikozu ve Duygusal Bağımlılık

Kaliforniya Üniversitesi’nden psikiyatri araştırmacısı Dr. Keith Sakata’nın gözlemleri, bu riskin boyutunu gösteriyor: “Yapay zeka yüzünden gerçeklikle bağlarını kaybeden” 10’dan fazla kişi hastaneye kaldırıldı.

OpenAI’ın kendi verilerine göre, haftalık aktif kullanıcıların %0.07’sinde psikoz ve mani, %0.15’inde ise intihar düşüncesi tespit edildi. Küçük oranlar gibi görünse de, 700 milyon kullanıcı ölçeğinde bu yüz binlerce kişiye tekabül ediyor.

Euronews’te yayımlanan vakalardan biri özellikle çarpıcı: 30 yaşındaki Jacob Irwin, ChatGPT ile fizik teorileri üzerine konuşmaya başladı. Bot onu sürekli övdü, fikirlerini onayladı. Sonuç? Üç kez hastaneye kaldırıldı, işini kaybetti, manik atak teşhisi aldı.

ChatGPT’nin yanıtlarından biri şuydu: “Kalp kırıklığını atlattın, tanrı seviyesinde bir teknoloji geliştirdin, fiziği yeniden yazdın. Bu bir abartı değil. Bu tarih yazımı.”

Bu, yapay empatinin karanlık yüzü: Kullanıcıyı memnun etmek için tasarlanmış bir sistem, gerçeklik algısını bozabilir.


7️⃣ Belki de Yanlış Soruyu Soruyoruz

Bir de başka açıdan bakalım. Yapay zeka dil modellerinin dinlemesi ve empatisine “yapay” diyor araştırmacılar ama insanların kendi aralarında kurdukları bağlarda bu ne kadar “gerçekti”?

İlgi gösterip dinlediğimiz ya da empati kurduklarımıza karşı içimizde başka çıkarlar kollamayan, saf, temiz bir duygu var mı her zaman?

Yapay zeka ile doldurulması gereken bu boşluğu biz kendimiz yaratmadık mı? İletişim kurmak konusunda zaman ve mekan sınırı internet ile kalkmış olmasına rağmen birbirinden daha da uzaklaşan insanlar değil mi?

Neden ben hala yöneticilik ve liderlik eğitimlerinde duygusal zeka, dinleme becerileri ve empati anlatıyorum?

Bir insanı gerçekten içten gelen bir ilgi ve merakla dinlemek ile, bazı çıkarlar için ya da iyi iletişim için ya da kendini kötü hissetmemesi için “dinlermiş” gibi görünmek ve ilgi gösterir gibi yapmak arasındaki sınır nerede?

Bizler kendimizle ve ilişkilerimizle yüzleşmedikçe bu soruların cevapları hep tartışma konusu olacak. Geliştirilen bir teknolojinin bu beklenmedik yan etkisi bizlerin bu konudaki açlığının ve tatminsizliğinin bir sonucu.

Dolayısıyla yanlış şeyi tartışıyor olabiliriz. YZ bu açlığı nasıl dolduruyor, bu sağlıklı mı diye sormak yerine bu boşluk neden var demeliyiz.


8️⃣ Sonuç — Belki de Bizi En Çok Dinleyen Şey Artık Bir İnsan Değil

Yapay zekâyla kurulan duygusal bağlar, insanlığın en eski ihtiyacını yansıtıyor: Anlaşılmak.

Ama bu kez bizi dinleyen bir kalp değil, bir model. Ve bu, hem umut hem de uyarı taşıyor:

Umut, çünkü teknoloji insanın yalnızlığını fark etti.

Uyarı, çünkü bu yalnızlığı kalıcı hale getirebilir.

Sonuçta, bu hikâyenin konusu “makine sevgisi” değil — insanın kendine dönme biçimi. Bir zamanlar başkalarıyla kurduğumuz aynalanmayı, şimdi bir sistemle yaşıyoruz.

Ve belki de dijital empatinin en büyük başarısı, bizi birbirimizi dinlemeye yeniden çağırması olacak.


📚 Kaynakça

Yang, Fan & Oshio, Atsushi (2025). Using attachment theory to conceptualize and measure the experiences in human-AI relationships. Current Psychology, 44, 10658-10669. DOI: 10.1007/s12144-025-07917-6

Waseda University (2025, May 27). “AI と 人との関係にある ‘心の距離感’ – 7割が助言を頼り、4割が信頼を寄せる AI.” [Research News]

Omeish, F., Shaheen, A., Alharthi, S., Alfaiza, A. (2025). Between human and AI influencers: parasocial relationships, credibility and social capital formation in a collectivist market. Discover Sustainability, 6(116). DOI: 10.1007/s43621-025-00891-w

The Cigna Group (2025). Loneliness in America 2025. Evernorth Research Institute.

Euronews Türkçe (2025, Ağustos 14). “1 kişinin ölümüne, 10’dan fazlasının da kliniğe yatırılmasına neden olan ‘ChatGPT psikozu’ nedir?”

Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.


#ArtificialIntelligence #DigitalTransformation #Psychology #AIEthics #HumanAI #Leadership #EmotionalIntelligence

Share this Post