El chatbot creado en la citada aplicación de juegos de rol fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje.
Se desconoce si Sewell sabía que ‘Dany’, como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: «Recuerda: ¡Todo lo que dicen los personajes es inventado!».
Pero el chico le dijo a ‘Dany’ cuánto se «odiaba» a sí mismo y cómo se sentía de vacío y exhausto, publicó el diario New York Times.
El personaje creado se presentaba como «una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de c.ai», sostiene la acusación.
Como se explica en la demanda, los padres y amigos de Sewell notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023.
De hecho, sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con ‘Dany’.
Sewell escribió en su diario un día: «Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta «realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz».
Character.ai dijo hoy que lanzaría una serie de nuevas funciones de seguridad, incluida una «detección, respuesta e intervención mejoradas» relacionadas con los chats que violan sus términos de servicio y una notificación cuando un usuario haya pasado una hora en un chat.
Los padres de Sewell, preocupados por el comportamiento de su hijo, le llevaron en varias ocasiones a un terapeuta que le diagnosticó ansiedad y otros trastornos de la conducta y estados de ánimo, sumados a su síndrome de Asperger, según el NYT.
Clarín