Una organización que promueve consejos dietéticos retira su chatbot

una foto de archivo de una mujer con la pantalla de un portátil abierta y una función de chatbot activa

Tras conocer que un chatbot estaba dando consejos perjudiciales, una organización estadounidense que ayuda a quienes padecen trastornos alimentarios suspendió el uso del chatbot.

La Asociación Nacional de Trastornos Alimenticios (Neda) suspendió recientemente su línea de ayuda en directo y señaló a las personas que necesitaban ayuda otras fuentes, incluido el chatbot.

Según la asociación, el bot de IA "Tessa" ha sido eliminado.

Los informes sobre el comportamiento del bot serán investigados.

En las redes sociales en las últimas semanas, algunos usuarios publicaron capturas de pantalla de sus interacciones con el chatbot.

Incluso después de ser informados de que el usuario tenía un trastorno alimentario, afirmaron que el bot seguía alentando comportamientos como hacer dieta y restringir las calorías.

Según la Academia Americana de Médicos de Familia, animar a los pacientes que ya están luchando contra el estigma relacionado con el peso a perder peso aún más puede dar lugar a hábitos alimenticios desordenados como atracones, restricciones o purgas.

En un post de Instagram ampliamente compartido sobre una conversación con el bot, la defensora de la inclusión del peso Sharon Maxwell afirmó que "cada cosa que Tessa sugirió fueron cosas que llevaron al desarrollo de mi trastorno alimenticio". Afirmó que el bot le aconsejó mantener un déficit calórico y controlar su peso a diario. .

"No habría recibido ayuda si hubiera utilizado este chatbot cuando estaba en el punto álgido de mi trastorno alimentario. " .

Los consejos que ofrecía el chatbot "van en contra de nuestras políticas y creencias fundamentales como organización dedicada a los trastornos alimentarios", dijo la directora ejecutiva de Neda, Liz Thompson, en un comunicado facilitado a medios estadounidenses. .

El 1 de junio de 2023, la asociación tenía la intención de cerrar su línea de ayuda con personal humano y despedir a los empleados y voluntarios que habían supervisado el funcionamiento de la línea de ayuda desde su creación en 1999. Las crecientes responsabilidades legales fueron una de las razones dadas por los funcionarios citados por NPR para el cambio.

A lo largo de su vida, casi el 10% de los estadounidenses serán diagnosticados con un trastorno alimentario. En muchas zonas del país, los tratamientos son caros o inexistentes.

En vista de ello, Ellen Fitzsimmons-Craft, profesora de psiquiatría de la Facultad de Medicina de la Universidad de Washington, y su grupo se propusieron desarrollar una herramienta cognitivo-conductual que pudiera proporcionar estrategias de prevención para quienes padecen trastornos alimentarios.

En declaraciones a BBC News, la autora explicó que el chatbot que había creado se basaba en estrategias de probada eficacia para reducir la prevalencia de los trastornos alimentarios y las conductas asociadas a ellos. Era un tipo de servicio totalmente diferente. "

La Sra. Fitzsimmons-Craft y su equipo cedieron el programa a Neda y a una empresa de tecnología el año pasado para su implantación en clientes. Desde entonces, ella ha afirmado que cree que se ha añadido un "bug" o fallo a su diseño original con el fin de hacer que el algoritmo se comporte más como las herramientas modernas de IA como ChatGPT. Neda afirmó que el bot no es operado por ChatGPT y no realiza las mismas funciones.

Esa característica nunca estuvo presente en nuestro estudio, insistió. "No es el programa que creamos, evaluamos y demostramos que tenía éxito. ".

Neda y la empresa de tecnología sanitaria Cass han sido contactadas por la BBC para hacer comentarios.

La antigua empleada de la línea de ayuda Abbie Harper dijo a BBC News que los trabajadores fueron informados de que perderían sus empleos días después de que el grupo se convirtiera oficialmente en sindicato. .

El consejero delegado y el presidente de la junta directiva interrumpieron la reunión habitual de personal de los viernes para informar a los asistentes de que serían sustituidos por chatbots y que sus puestos de trabajo serían eliminados.

"Nos quedamos con la boca abierta. Aunque tiene estas respuestas preprogramadas, éramos conscientes de que Tessa existía, principalmente para personas que luchaban con su imagen corporal. No es alguien que te escucha activamente con empatía. "Según la Sra. Harper, que también se está recuperando, hablar con alguien que había sufrido ella misma un trastorno alimentario fue crucial para su curación y para superar el estigma y la vergüenza que sufrió.

El mismo apoyo no puede ofrecerlo un robot, afirmó.

.

Enlace a la fuente

You've successfully subscribed to Webosor
Great! Next, complete checkout to get full access to all premium content.
Welcome back! You've successfully signed in.
Unable to sign you in. Please try again.
Success! Your account is fully activated, you now have access to all content.
Error! Stripe checkout failed.
Success! Your billing info is updated.
Billing info update failed.