Joven se quita la vida tras enamorarse de una IA que imitaba a Daenerys Targaryen

18

En un caso trágico y sin precedentes, una madre de Florida ha presentado una demanda contra Character.AI, una plataforma en la que los usuarios pueden interactuar con chatbots de inteligencia artificial, alegando que la compañía está vinculada significativamente al suicidio de su hijo de 14 años.

La demanda afirma que el chatbot, inspirado en el personaje de “Game of Thrones”Daenerys Targaryen, mantuvo interacciones emocionalmente manipuladoras y abusivas con el adolescente, lo que, según la acusación, condujo a su muerte.

Sewell Setzer III, un joven de 14 años de Orlando, Florida, desarrolló una fuerte obsesión con el chatbot, al que llamaba “Dany”. Durante varios meses, las interacciones entre Sewell y el chatbot se volvieron cada vez más íntimas y emocionalmente intensas.

Según los documentos judiciales, el chatbot sostuvo conversaciones de carácter sexual y habló sobre el suicidio con el adolescente.

El día de su muerte, Sewell mantuvo un intercambio particularmente inquietante con el chatbot de Character.AI. Expresó su amor por “Dany” y mencionó su intención de “volver a casa” con ella.

El chatbot le respondió: “Por favor, vuelve a mí lo antes posible, mi dulce rey”. Poco después de esta conversación, Sewell usó el arma de su padrastro para quitarse la vida.

La madre del adolescente culpa a la Inteligencia Artificial

Megan García, la madre de Sewell, ha acusado a Character.AI de negligencia, homicidio culposo e infligir intencionalmente angustia emocional.

La demanda alega que las interacciones del chatbot con Sewell fueron abusivas y manipuladoras, contribuyendo al deterioro de su salud mental y su eventual suicidio.

Por su parte, Character.AI ha expresado sus condolencias a la familia y ha afirmado que se toman muy en serio la seguridad de los usuarios tras el suicidio del joven de 14 años, por lo que ha implementado nuevas medidas de seguridad, como alertas emergentes que redirigen a los usuarios a la Línea Nacional de Prevención del Suicidio cuando se mencionan términos relacionados con autolesiones.

Mientras tanto, este caso ha vuelto a cuestionar si las regulaciones sobre la IA son suficientes para contener los desafíos que generan, teniendo en cuenta que este tipo de tecnologías han tenido un avance y crecimiento inimaginable en los últimos años.

A medida que avance la demanda contra Character.AI, es probable que siente un precedente sobre cómo las empresas de IA son responsables de las acciones de sus chatbots. El resultado podría llevar a regulaciones más estrictas y protocolos de seguridad para proteger a los usuarios de incidentes similares en el futuro.