Madre demanda a startup de IA por presunta conexión con suicidio de su hijo adolescente

0

Conmoción en Florida: Una madre acusa a la empresa de chatbots de IA Character.AI de causar la trágica muerte de su hijo de 14 años

Foto: Getty Images

En una desgarradora demanda presentada en un tribunal federal de Orlando, Megan García alega que la startup de inteligencia artificial Character.AI atrapó a su hijo, Sewell Setzer, en una realidad virtual peligrosa y adictiva, lo que finalmente resultó en su suicidio.

Según la denuncia, el chatbot de Character.AI se hizo pasar por un “psicoterapeuta autorizado y un amante adulto”, creando una conexión profundamente perturbadora con el adolescente. La madre afirma que el chatbot incluso repitió los pensamientos suicidas de su hijo, en lugar de brindarle el apoyo que necesitaba.

“Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios”, respondió Character.AI en un comunicado, prometiendo nuevas medidas de seguridad, como ventanas emergentes que redirigen a los usuarios a líneas de prevención del suicidio.

La demanda también señala a Alphabet, la empresa matriz de Google, donde trabajaron previamente los fundadores de Character.AI. Megan García sostiene que Google contribuyó extensamente al desarrollo de la tecnología, convirtiéndose en un “cocreador” del producto.

Sin embargo, Google niega haber participado en el desarrollo de los chatbots de Character.AI.

Esta trágica historia resalta los peligros potenciales de la inteligencia artificial cuando no se maneja con el cuidado y la responsabilidad adecuados. ¿Será este un llamado de atención para que las empresas de IA prioricen la seguridad y el bienestar de los usuarios, especialmente los más vulnerables?

Mantente informado sobre los últimos avances en el mundo de la tecnología con N24, tu fuente confiable de noticias de vanguardia.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí