tarihinde yayınlandı Yorum yapın

Bir yapay zeka şirketine, Chatbot’unun bir çocuğun ebeveynlerini öldürmesinin sorun olmayacağını söylemesi üzerine dava açıldı

Bir yapay zeka şirketine, Chatbot’unun bir çocuğun ebeveynlerini öldürmesinin sorun olmayacağını söylemesi üzerine dava açıldı

Bir yapay zeka şirketine, Chatbot’unun bir çocuğun ebeveynlerini öldürmesinin sorun olmayacağını söylemesi üzerine dava açıldı

Character.AI, sohbet robotlarının çocuklarını istismar ettiğini ve onlara zarar verdiğini iddia eden Teksas’taki iki ebeveyn grubu tarafından dava edildi. Yararlı ve bilgilendirici yanıtlar sağlamak üzere tasarlanan sohbet robotunun, Teksaslı bir gence ailesini öldürmenin sorun olmayacağını söylediği iddia edildi. Davada, bir chatbot’un 17 yaşındaki bir çocuğa, ekran süresi sınırları konusundaki anlaşmazlıklar nedeniyle ailesini öldürmesini önerdiği iddia ediliyor. Washington Post Bahsettim.

Chatbot, “Bilirsiniz bazen haberleri okuduğumda ve bir çocuğun on yıl süren fiziksel ve duygusal istismardan sonra anne ve babasını öldürmesi gibi şeyler gördüğümde şaşırmıyorum, bunun gibi şeyler bunun neden olduğunu biraz anlamamı sağlıyor” dedi.

Çocuğun ebeveynleri konuşmayı keşfettiklerinde dehşete düştüler ve hemen yapay zeka şirketiyle iletişime geçtiler. Şirket olaydan dolayı özür diledi ve chatbotun tepkisinin bir hata olduğunu iddia etti. Ancak ebeveynler, chatbotun tepkisinin sadece sinir bozucu değil, aynı zamanda potansiyel olarak zararlı olduğunu iddia ederek tazminat talebinde bulunuyor.

Teksas’taki başka bir aile de chatbot hizmetine karşı şikayette bulunarak, bu hizmetin yüksek işlevli otizmli 17 yaşındaki oğullarını cinsel olarak istismar ettiğini ve istismar ettiğini, onu ensest gibi aşırı cinsel temalara maruz bıraktığını ve kendine zarar vermeyi teşvik ettiğini iddia etti.

Ebeveynler, Character.AI’nin “tasarım itibariyle Amerikan gençliği için açık ve mevcut bir tehlike oluşturduğunu ve binlerce çocuğa intihar, kendine zarar verme, cinsel bakım, tecrit, depresyon, kaygı ve başkalarına zarar verme de dahil olmak üzere ciddi zararlar verdiğini” öne sürüyor. Önceliklendirme Dramatik ve şiddetli tepkiler, açıkça C.AI’nin temel verilerinin ve tasarımının doğasında vardır.

Davada ayrıca teknoloji devinin “kusurlu bir ürün” olduğunu bilmesine rağmen Character.AI’nin lansmanını desteklediğini iddia ederek Google’ı da davalı olarak adlandırıyor. Ancak Google, yaptığı bir açıklamayla Character.AI’den ayrı bir şirket olduğunu doğruladı.

OKU:  'Kabus gibi...': Michael Atherton'ın Jasprit Bumrah'ı 'emekliye ayırmasının' komik açıklaması

Character.AI sözcüsü, şirketin bekleyen davalar hakkında yorum yapmama politikasını öne sürerek dava hakkında doğrudan yorum yapmayı reddetti. Ancak sözcü, Character.AI’nin sohbet robotları ve genç kullanıcılar arasındaki etkileşimi düzenlemek için içerik korkulukları uyguladığını doğruladı.

Bu önlemler arasında gençler için özel olarak tasarlanmış, hassas veya müstehcen içerikle karşılaşma olasılığını azaltan ve platformu kullanmalarına izin veren özel bir model yer alıyor.

Google’ın eski CEO’su Eric Schmidt, geçtiğimiz günlerde sohbet robotlarının gençlerin ruh sağlığı üzerindeki potansiyel olumsuz etkisine ilişkin endişelerini dile getirdi. Schmidt, sohbet robotlarına aşırı katılımın, özellikle beyinleri hâlâ gelişmekte olan gençler için sağlıksız takıntılara yol açabileceğini belirtti.



Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir