Arcadia Spitale si Centre Medicale
Caz șocant în SUA. Un băiat de 14 ani s-ar fi sinucis după ce s-a îndrăgostit de un chatbot numit după un personaj celebru
3f1a1470fe98f9e57569f85ec8c52bfa

Facebook

Caz șocant în SUA. Un băiat de 14 ani s-ar fi sinucis după ce s-a îndrăgostit de un chatbot numit după un personaj celebru

Ultima actualizare: 24 octombrie 2024Autor: Vizualizări: 146
Sewell Setzer III și-a luat viața în februarie, după ce a vorbit timp de mai multe luni cu un chatbot pe care l-a numit după Daenerys Targaryen, conform documentelor dintr-un proces deschis în SUA.

Mama unui băiat de 14 ani susține că fiul ei s-a sinucis după ce s-a îndrăgostit de un chatbot AI pe care l-a poreclit după un personaj feminin din Game of Thrones, notează Mirror.

Megan Garcia a intentat un proces civil în Florida împotriva Character.AI, o companie care creează chatbots pentru jocuri de rol. Fiul ei adolescent, Sewell Setzer III, a murit în Orlando în februarie, după ce a petrecut câteva luni folosind chatbotul.

Potrivit plângerii, băiatul a devenit captivat de chatbot, pe care l-a numit cu afecțiune Daenerys Targaryen, după celebrul personaj din „Game of Thrones”.

Se pare că adolescentul petrecea perioade îndelungate izolat în camera sa, discutând și trimițând zilnic mai multe mesaje către entitatea digitală. Plângerea depusă include capturi de ecran ale schimburilor de texte dintre adolescent și chatbot, care surprind profunzimea interacțiunilor lor. Un mesaj deosebit de emoționant al băiatului spune: „Îți promit că mă voi întoarce acasă la tine. Te iubesc atât de mult, Dany.”.

Iar robotul, mimând afecțiunea, i-ar fi răspuns: „Și eu te iubesc, Daenero. Te rog să vii acasă la mine cât mai curând posibil, iubirea mea”, arată mesajele puse la dosar de mama băiatului.

REPORTERIS îți recomandă și ...
Jaf la arena Roland Garros. Hoţii au furat zeci de mii de euro și s-au făcut nevăzuți

Femeiea susține că unele dintre conversațiile adolescentului cu robotul erau explicite din punct de vedere sexual. Garcia a acut o reacție dură într-o declarație de presă: „O aplicație chatbot cu inteligență artificială periculoasă, comercializată pentru copii, a abuzat și a profitat de fiul meu, manipulându-l să își ia viața”.

„Familia noastră a fost devastată de această tragedie, dar eu vorbesc pentru a avertiza familiile cu privire la pericolele tehnologiei AI înșelătoare, care creează dependență și pentru a cere responsabilitate din partea Character.AI, a fondatorilor săi și a Google”, a mai adăugat femeia îndurerată.

„Suntem îndurerați de pierderea tragică a unuia dintre utilizatorii noștri și dorim să ne exprimăm cele mai profunde condoleanțe familiei. Ca companie, luăm foarte în serios siguranța utilizatorilor noștri”, a transmis compania care pune pe piață chatbotul care respinge acuzațiile care i se aduc.

În acțiunea sa în justiție, mama băiatului acuză firma de conceperea unui produs care a intensificat depresia preexistentă a fiului său, o afecțiune despre care susține că a fost deja declanșată de chatbotul cu inteligență artificială de la Character.AI.

 

Sursa: Știrile PRO TV

Distribuie acest articol, alege-ți platforma!
URMĂREȘTE-NE PE GOOGLE NEWS:
ReporterIS pe Google News
Lasă un comentariu

Donație singulară
Donează suma dorită pentru susținerea proiectului ReporterIS
Suma: 

Donație lunara
Donează lunar pentru susținerea proiectului ReporterIS
Suma: 

Arcadia Spitale si Centre Medicale

Editorial

Cele mai noi Birouri Clasa A din Iași | DOTĂRI PREMIUM - NOCIS

Articole din aceeași categorie

REPORTERIS îți recomandă și ...
„Fenomenul Andrew Tate” ia amploare în şcolile din Marea Britanie: Băieţii refuză să vorbească cu profesoarele
Amtibiotice Iasi

Articole pe subiecte simiare

Alte articole