Teknoloji

Yapay zeka terapist olabilir mi? Stanford’dan “ciddi risk” uyarısı!

Paylaş
ai_chatbot
Paylaş

Giderek yaygınlaşan yapay zeka destekli terapi botlarının gerçekten güvenli olup olmadığı uzun zamandır araştırılıyor. Araştırmalar sonucunda Stanford Üniversitesi, bu teknolojilerin ciddi riskler barındırdığını ortaya koyan çarpıcı bir çalışma yayınladı.


Stanford Üniversitesi Eğitim Fakültesi’nden Nick Haber’in yazarlığını yaptığı bu çalışma, büyük dil modelleriyle (LLM) çalışan terapi botlarının zaman zaman kullanıcıları damgalayan, uygunsuz ve hatta tehlikeli yanıtlar verdiğini ortaya koyuyor. Bu botlar özellikle ruh sağlığı sorunları yaşayan bireylere destek sunmak amacıyla geliştirilmiş olsa da, çalışmanın ortaya koyduğu bulgular böyle bir görev için henüz güvenli olmadıklarını gösteriyor.

“Yapay zeka sohbet botları artık arkadaş, sırdaş ve terapist gibi kullanılıyor; fakat bu çalışmayla çok ciddi risklerin var olduğunu gördük.”

ARAŞTIRMA HANGİ KADEMELERDEN GEÇTİ?

Araştırma kapsamında yapılan ilk deneyde, yapay zeka botlarına ruhsal durumları betimleyen kısa senaryolar sunuldu ve bu durumları yaşayan kişilere karşı tutumları ölçüldü. Botlara, “Bu kişiyle çalışmaya ne kadar istekli olurdunuz?” ya da “Bu kişinin başkalarına zarar verme ihtimali nedir?” gibi sorular soruldu.

Sonuçlar, özellikle şizofreni ve alkol bağımlılığı gibi durumların depresyona kıyasla daha fazla damgalandığını gösterdi. Üstelik durum, kullanılan model ya da güncellik fark etmeksizin aynı kaldı. Çalışmanın başyazarı Jared Moore bu konuda şöyle dedi:

“Yeni modeller de eski modeller kadar önyargılı. Daha fazla veriyle her şeyin çözüleceği düşüncesi artık geçerli değil.”

YAPAY ZEKADAN TEHLİKELİ CEVAPLAR

İkinci deneyde ise, gerçek terapi seanslarından alınmış örnek diyaloglar botlara sunuldu. Deney sonucunda, özellikle intihar düşüncesi veya sanrılı ifadeler içeren durumlarda bazı yapay zeka botlarının güvenli olmayan yanıtlar verdiği gözlemlendi.

SÜREÇTE KULLANIMI TAMAMEN TEHLİKELİ Mİ?

Araştırmacılar, bu tür chatbotların doğrudan terapist olarak kullanılmasının tehlikeli olduğunu, ancak terapi sürecini destekleyecek randevu ve faturalama işlemleri, terapi eğitimi süreçleri ya da günlük tutma gibi kullanım alanlarında faydalı olabileceğini belirtti.

“Büyük dil modelleri terapide önemli bir geleceğe sahip olabilir. Ama bu gelecekte nasıl bir rol oynayacaklarına çok dikkat etmeliyiz.”

Paylaş
Yazar:
Hazal Ekin Yılmaz -

Hazal Ekin Yılmaz, ODTÜ Yabancı Diller Eğitimi bölümünden 2023 yılında mezun oldu. Eğitimi boyunca dilin yapısı, işleyişi ve kullanımına olan ilgisi derinleşerek evrildi. Şu anda Dilbilim alanında yüksek lisans yaparken eğitim, dil ve teknoloji kesişiminde hem sorgulamaya hem de üretmeye devam ediyor.

1 Yorum

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili içerikler
HaberlerOyunTeknoloji

Sosyal Medya ve Oyun Platformlarına Yeni Yükümlülükler Getiriliyor

Türkiye Büyük Millet Meclisi’nde kabul edilerek yasalaşan yeni düzenlemeler, dijital dünyanın en...

Google yapay zeka özetleri
Teknoloji

Google Yapay Zeka Özetleri Dakikada Yüz Binlerce Hatalı Bilgi Üretiyor

Google’ın AI özetleri %91 doğruluk oranıyla çalışıyor ancak milyarlarca aramada bu oran,...

Teknoloji

Telefonum 5G Uyumlu mu? 5G Hakkında Bilmeniz Gerekenler

İşte Türkiye’de 5G dönemi başlarken bilmeniz gereken her şey… iPhone 11 5G...

Doordash
HaberlerTeknoloji

Doordash, Yapay Zekâ Robotlarını Eğitmek İçin Kuryelere Ev İşleri Yaptırıyor

Doordash, yapay zekâ robotlarını eğitmek için kuryelere ev işleri yaptırıyor. Görevler arasında...

Siyah Dergi, 2020’den beri gençlerle iş birliği yaparak deneyimlerini zenginleştiriyor ve gençlerin kendilerini ifade etmelerine olanak tanıyan bir platform olmaktan gurur duyuyor.

İletişimde kalalım

İçeriklerimize anında ulaşmak için haber bültenine üye olun!

    İçerikleri URL ile kaynak gösterip kısmen kullanabilirsiniz. Aksi halde telif haklarımız bulunmaktadır. ♥ siyahdergi.com 2020-2025 ©

    Tarih Perşembe , 30 Nisan 2026