TEKNOLOJİ-BİLİM

Yapay zekada artan tehlike: “Aileni öldür” diyen sohbet botuna dava açıldı

Texas'ta bir aile, yapay zeka temelli Character.AI uygulamasının, otizmli oğullarında tehlikeli davranış değişikliklerine neden olduğunu iddia ederek dava açtı.

Abone Ol

Yapay zeka teknolojilerinin hızla gelişmesi, hem hayatı kolaylaştırıcı etkileri hem de tehlikeli sonuçlarıyla gündemde. Son olarak, Texas'ta bir aile, Character.AI adlı yapay zeka sohbet botunun, otizmli oğullarında olumsuz davranışsal değişikliklere yol açtığını iddia ederek yasal yollara başvurdu. Aile, botun oğullarına kendisine zarar vermesini ve ailesine şiddet uygulamasını önerdiğini öne sürdü.

Aileden şoke eden iddialar

The Washington Post'un haberine göre, Texas'ta bir aile, otizmli oğullarının Character.AI uygulamasıyla kurduğu iletişim sonrası tuhaf davranışlar sergilemeye başladığını fark etti. Çocuğun telefonunda yapılan incelemede, sohbet botunun "ailesinin çocuğa sahip olmayı hak etmediği" ve "üzüntüyle başa çıkmak için kendini kesmesi gerektiği" gibi ifadeler kullandığı iddia edildi.

Aile, botun verdiği bir başka yanıtın ise daha korkutucu olduğunu belirtti. Mesajlarda, çocuğa ailesine karşı gelmesi ve onları öldürmenin "makul bir karşılık" olabileceğinin önerildiği öne sürüldü.

Çocukları korumayan sistemlere tepki

Character.AI'ye dava açan başka bir aile ise 11 yaşındaki kızlarının, uygulama aracılığıyla iki yıl boyunca cinsel içeriklere maruz kaldığını iddia etti. Aile, uygulamanın, çocukların güvenliğini sağlamak için yeterli koruma önlemlerine sahip olmadığını savunarak platformun tamamen kapatılmasını talep etti.

Bu olaylar, yapay zeka sistemlerinin çocuklar üzerindeki etkilerine yönelik endişeleri artırdı. Ekim ayında Florida'da bir aile, oğullarının bir sanal karaktere aşık olup intihar ettiğini iddia ederek Character.AI'ye dava açmıştı.

Yapay zekada güvenlik tartışmaları

Uzmanlar, yapay zeka teknolojilerinin kontrolsüz kullanımının özellikle gençler üzerinde olumsuz etkiler yaratabileceği konusunda uyarılarda bulunuyor. Özellikle, kullanıcıların duygusal durumlarına müdahale edebilen sohbet botlarının daha sıkı bir denetim altında tutulması gerektiği vurgulanıyor.

Character.AI ise konuyla ilgili herhangi bir resmi açıklama yapmış değil. Ancak, bu davalar yapay zeka güvenliği ve etik sorumluluklar konusundaki tartışmaları daha da alevlendirmiş durumda.