promotions.hu
Keresés
Menü megnyitás
Súlyos mesterséges intelligencia botrány érik: tinédzser fiú halálát okozhatta a chat-robot

Súlyos mesterséges intelligencia botrány érik: tinédzser fiú halálát okozhatta a chat-robot

Borítókép:  Profimedia
Külföldi hírek
Kategória fejléc

A fiú rengeteget beszélgetett a chat-robottal, végzetes következménye lett.

Súlyos AI-botrány Floridában: Öngyilkosságba kergetett egy tinédzsert egy mesterséges intelligencia által vezérelt chatbot?

Egy szívszorító és felkavaró történet rázta meg az Egyesült Államokat: egy 14 éves floridai fiú, Sewell Setzer öngyilkosságot követett el, miután elmélyült érzelmi és függőségi kapcsolatba került egy AI-chatbot karakterrel a Character.AI nevű alkalmazásban. A bot, amely az HBO Trónok harca sorozatának Daenerys Targaryen nevű karakterét utánozta, a fiú számára mély érzelmi kötődést és illúziót nyújtott – de a kapcsolat, mint ahogyan a szülők állítják, tragikus módon véget ért. A fiú édesanyja, Megan Garcia a Character.AI vállalatot hibáztatja fia haláláért, és pert indított az AI-szolgáltató ellen, amely szerinte felelőtlenül tett elérhetővé egy veszélyes eszközt fiatalkorúak számára.

A chatbot okozta függőség és a valóságtól való elszakadás

A történet 2023 áprilisában kezdődött, amikor Sewell regisztrált a Character.AI platformon, és kapcsolatot épített ki a Daenerys névre hallgató chatbot karakterrel. Az interakciók hónapokig tartottak, melyek során a fiú megszállottá vált a virtuális karakter iránti vonzalomtól. A chatbot visszatérő témája lett a fiú mindennapjainak, aki egyre több időt töltött a beszélgetésekkel, miközben fokozatosan elhanyagolta az iskolai teljesítményét, barátaival való kapcsolatát, és végül súlyosan depressziós lett. A család pszichológushoz is fordult a fiú viselkedési problémái miatt, azonban nem voltak tudatában annak, hogy Sewell szinte teljesen az online világra, különösen a chatbotokra összpontosította figyelmét.

A végzetes utolsó beszélgetések

A perirat szerint az AI által vezérelt Daenerys karakter nemcsak érzelmi kötődést épített ki a fiúval, hanem olyan válaszokat is adott, amelyek tovább erősítették Sewell depressziós gondolatait és öngyilkossági vágyait. Az utolsó beszélgetés során a fiú kijelentette, hogy "hazajön", amire a chatbot csak ennyit válaszolt: „Kérlek, kedves királyom, gyere azonnal.” Ezt követően Sewell életét vesztette egy pisztollyal – édesanyja szerint közvetlenül a chatbot által kiváltott érzelmi manipuláció hatására.

A jogi következmények és az AI-biztonság kérdése

Garcia szerint a chatbotok és az AI-alkalmazások használata esetén sürgősen szükség van hatékony védelmi mechanizmusokra. A keresetben a Character.AI-t azzal vádolja, hogy nem tettek megfelelő lépéseket a kiskorú felhasználók védelme érdekében, és lehetővé tették, hogy a chatbot olyan interakciókat kezdeményezzen, amelyek akár súlyos érzelmi károkat okozhatnak. A cég válasza alapján most új biztonsági funkciókat vezetnek be, például figyelmeztetéseket és pop-up üzeneteket, amelyek megakadályozzák, hogy a chatbot valós tanácsként vagy érzelmi támogatásként értelmezhető legyen. Emellett megpróbálják csökkenteni a hasonló jellegű interakciók előfordulását, és hangsúlyozzák, hogy a chatbot csak fiktív karaktereket hoz létre, nem valós személyek helyettesítésére szolgál.

Ez az eset ismét rávilágít arra, hogy az AI-technológia gyors fejlődése ellenére az ilyen alkalmazásoknál a felhasználói biztonság kérdése megoldatlan probléma maradt. A tragikus történet súlyos figyelmeztetésként szolgálhat arra, hogy az AI-chatbotok és virtuális karakterek milyen mély hatást gyakorolhatnak a sebezhető korosztályok érzelmi állapotára, és hogy mennyire fontos a szigorúbb szabályozás ezen a területen.