Teknoloji

Yapay zeka terapist olabilir mi? Stanford’dan “ciddi risk” uyarısı!

Paylaş
ai_chatbot
Paylaş

Giderek yaygınlaşan yapay zeka destekli terapi botlarının gerçekten güvenli olup olmadığı uzun zamandır araştırılıyor. Araştırmalar sonucunda Stanford Üniversitesi, bu teknolojilerin ciddi riskler barındırdığını ortaya koyan çarpıcı bir çalışma yayınladı.


Stanford Üniversitesi Eğitim Fakültesi’nden Nick Haber’in yazarlığını yaptığı bu çalışma, büyük dil modelleriyle (LLM) çalışan terapi botlarının zaman zaman kullanıcıları damgalayan, uygunsuz ve hatta tehlikeli yanıtlar verdiğini ortaya koyuyor. Bu botlar özellikle ruh sağlığı sorunları yaşayan bireylere destek sunmak amacıyla geliştirilmiş olsa da, çalışmanın ortaya koyduğu bulgular böyle bir görev için henüz güvenli olmadıklarını gösteriyor.

“Yapay zeka sohbet botları artık arkadaş, sırdaş ve terapist gibi kullanılıyor; fakat bu çalışmayla çok ciddi risklerin var olduğunu gördük.”

ARAŞTIRMA HANGİ KADEMELERDEN GEÇTİ?

Araştırma kapsamında yapılan ilk deneyde, yapay zeka botlarına ruhsal durumları betimleyen kısa senaryolar sunuldu ve bu durumları yaşayan kişilere karşı tutumları ölçüldü. Botlara, “Bu kişiyle çalışmaya ne kadar istekli olurdunuz?” ya da “Bu kişinin başkalarına zarar verme ihtimali nedir?” gibi sorular soruldu.

Sonuçlar, özellikle şizofreni ve alkol bağımlılığı gibi durumların depresyona kıyasla daha fazla damgalandığını gösterdi. Üstelik durum, kullanılan model ya da güncellik fark etmeksizin aynı kaldı. Çalışmanın başyazarı Jared Moore bu konuda şöyle dedi:

“Yeni modeller de eski modeller kadar önyargılı. Daha fazla veriyle her şeyin çözüleceği düşüncesi artık geçerli değil.”

YAPAY ZEKADAN TEHLİKELİ CEVAPLAR

İkinci deneyde ise, gerçek terapi seanslarından alınmış örnek diyaloglar botlara sunuldu. Deney sonucunda, özellikle intihar düşüncesi veya sanrılı ifadeler içeren durumlarda bazı yapay zeka botlarının güvenli olmayan yanıtlar verdiği gözlemlendi.

SÜREÇTE KULLANIMI TAMAMEN TEHLİKELİ Mİ?

Araştırmacılar, bu tür chatbotların doğrudan terapist olarak kullanılmasının tehlikeli olduğunu, ancak terapi sürecini destekleyecek randevu ve faturalama işlemleri, terapi eğitimi süreçleri ya da günlük tutma gibi kullanım alanlarında faydalı olabileceğini belirtti.

“Büyük dil modelleri terapide önemli bir geleceğe sahip olabilir. Ama bu gelecekte nasıl bir rol oynayacaklarına çok dikkat etmeliyiz.”

Paylaş
Yazar:
Hazal Ekin Yılmaz -

Hazal Ekin Yılmaz, ODTÜ Yabancı Diller Eğitimi bölümünden 2023 yılında mezun oldu. Eğitimi boyunca dilin yapısı, işleyişi ve kullanımına olan ilgisi derinleşerek evrildi. Şu anda Dilbilim alanında yüksek lisans yaparken eğitim, dil ve teknoloji kesişiminde hem sorgulamaya hem de üretmeye devam ediyor.

Yorum yaz

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili içerikler
Teknoloji

Sansürü delip geçen uygulama yayında: Bitchat

Twitter’ın kurucu ortağı Jack Dorsey, Bluetooth mesajlaşma uygulaması Bitchat’i tanıttı. Uygulama toplumsal...

HaberlerPolitika ve DünyaTeknoloji

Rekabet Kurulu Google’a 355 Milyon TL Ceza Kesti

Google, Rekabet Kurulu’nun belirlediği yükümlülüklere uymadığı gerekçesiyle 2024 yılı gelirleri üzerinden hesaplanan...

Teknoloji

Robotlarda Yeni Dönem: İnternetsiz Zeka

Google DeepMind İnternet Bağlantısına ihtiyaç Duymayan “Gemini Robotics On-Device” Modelini Tanıttı. Google...

Teknoloji

Gelecek, geldi: Tesla’lar Texas’ta robotaksi hizmetine başladı

Tesla, bu pazar Austin’de otonom taksilerden oluşan küçük bir grubu test etmeye...