Tartışmalı chatbot'un güvenlik önlemleri 'yapışkan bir sıva'

13/12/2024 12:02

Chatbot platformu Character.ai, gençler için çalışma şeklini elden geçiriyor ve ebeveynler için eklenen kontrollerle "güvenli" bir alan haline geleceğini vaat ediyor.
Site, ABD'de iki dava ile karşı karşıya - biri bir gencin ölümü üzerine - ve gençlere "açık ve mevcut bir tehlike" olarak damgalandı.
Artık güvenliğin, ebeveynlerin çocuklarının platformu nasıl kullandığını söyleyecek yeni özellikler aracılığıyla yaptığı her şeyde "infüze edileceğini" söylüyor - chatbotlarla ve en çok konuştukları kişilerle konuşmak için ne kadar zaman harcadıkları da dahil olmak üzere.
Kullanıcıların etkileşime girebilecekleri dijital kişilikler oluşturmalarına olanak tanıyan platform, Mart 2025'in sonuna kadar ebeveyn kontrollerinin "ilk yinelemesini" alacak.
Ancak Molly Rose Vakfı'nın başkanı Andy Burrows, duyuruyu "temel güvenlik sorunlarına yapışmış bir sıva düzeltmesi gibi görünen gecikmiş, reaktif ve tamamen tatmin edici olmayan bir yanıt" olarak nitelendirdi.
"Ofcom'un Character.ai gibi platformlarla başa çıkması ve tamamen önlenebilir zararlarla başa çıkma konusundaki ısrarlı başarısızlığına karşı harekete geçmesi için erken bir test olacak" dedi.
Character.ai, Ekim ayında genç Molly Russell ve Brianna Ghey'in chatbot versiyonlarının platformda bulunmasıyla eleştirildi.
Ve yeni güvenlik özellikleri, geçmişte çocuk güvenliğini nasıl ele aldığına dair endişeler nedeniyle ABD'de yasal işlemle karşı karşıya kaldığı için, bir ailenin bir chatbot'un 17 yaşındaki bir çocuğa ebeveynlerini öldürmenin, ekran süresini sınırlamalarına "makul bir yanıt" olduğunu söylediğini iddia ediyor.
Yeni özellikler, kullanıcılara bir saat boyunca bir chatbot ile konuştuktan sonra bir bildirim vermeyi ve yeni feragatnameler sunmayı içeriyor.
Kullanıcılara artık gerçek bir insandan ziyade bir chatbotla konuştukları ve söylediklerine kurgu gibi davrandıkları konusunda daha fazla uyarılar gösterilecektir.
Ve kullanıcılara profesyonel tavsiye için onlara güvenmemelerini söylemek için psikolog veya terapist olduğunu iddia eden chatbotlara ek feragatnameler ekliyor.
Sosyal medya uzmanı Matt Navarra, yeni güvenlik özellikleri sunma hamlesinin "AI'nin günlük hayatımıza hızlı bir şekilde entegre edilmesinin getirdiği zorlukların giderek artan bir şekilde tanınmasını yansıttığına" inandığını söyledi.
"Bu sistemler sadece içerik sunmakla kalmıyor, özellikle güven ve yanlış bilgilendirme etrafında benzersiz riskler yaratabilecek etkileşimleri ve ilişkileri simüle ediyorlar" dedi.
Bence Character.ai önemli bir güvenlik açığı, yanlış kullanım potansiyeli veya genç kullanıcıların uygunsuz içeriklerle karşılaşması için mücadele ediyor.
"Bu akıllıca bir hareket ve sorumlu yapay zeka gelişimi etrafındaki gelişen beklentileri kabul eden bir hareket." Ancak değişiklikler cesaret verici olsa da, Character.ai'nin büyümeye devam ettiği gibi korumaların nasıl devam ettiğini görmekle ilgilendiğini söyledi.

Other Articles in Technology

News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more
News Image
No Title Available

Content not available

Read more