Alertan sobre el incremento de personas que recurren a la IA como apoyo sicológico

0

Jesús Abraham Hernández y Joshua Reyes Sámano

Periódico La Jornada

Lunes 27 de mayo de 2024, p. 6

Expertos analizan el uso de la inteligencia artificial (IA) debido a que diversos usuarios de plataformas como ChatGPT han recurrido a ellas en busca de apoyo sicológico, ya sea por el alto costo que implica pagar una terapia con un profesional o porque consideran que esas herramientas les brindan mayor privacidad.

En México, tres de cada 10 personas padecen algún trastorno mental a lo largo de su vida, y más de 60 por ciento de la población que sufre alguno de ellos no recibe tratamiento, según datos del Instituto Mexicano del Seguro Social (IMSS).

De acuerdo con estadísticas de 2021 proporcionadas por el Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (Issste), en México aproximadamente 25 millones de personas, lo que representa 18 por ciento de la población, experimenta algún tipo de trastorno mental, el cual a menudo pasa desapercibido incluso para ellas mismas.

A nivel mundial, en 2020 más de 80 por ciento de las personas con una enfermedad mental grave, incluida la sicosis, no recibió tratamiento, según datos de la Organización Panamericana de la Salud.

Sergio José Aguilar Alcalá, maestro en comunicación por la Universidad Nacional Autónoma de México y experto del Centro Lacaniano de Investigación en Sicoanálisis, en entrevista con La Jornada, señaló que el uso de ChatGPT como sicólogo responde, en primera instancia, a una demanda de ayuda.

“El problema no es que un sicólogo se pregunte qué podría responder a un paciente programando un algoritmo, sino el hecho de pensar que se pueden crear las condiciones para dar terapia por medio de inteligencia artificial y responder a una persona que le está diciendo a una máquina que está muy triste o que planea suicidarse como si se tratara de un interruptor de luz.

Una máquina no es un sujeto, no escucha. Solamente ofrece una respuesta al estímulo que se le dé. Lo que considero más grave de este tipo de seudoterapias es que tienen una concepción de la subjetividad humana muy poco profunda, excesivamente ingenua, caricaturizada y miope , enfatizó Aguilar Alcalá.

Por su parte, Edson Martínez, ingeniero en redes y telecomunicaciones y promotor de la IA, sostuvo: nadie va a aceptar que esta plataforma puede dar diagnósticos debido a que se trata de un modelo de IA y no de seres humanos, pese a que su base de datos la nutren millones de textos de sicología y medicina. Incluso hay casos en los que a través de ChatGPT se han diagnosticado enfermedades, puesto que la aplicación tiene el potencial de que cada persona la entrene de acuerdo con sus necesidades .

Si bien aclara que en la sicología es más complejo que se brinden diagnósticos como los de un especialista debido a lo subjetivo de la disciplina y la importancia de la comunicación cara a cara , no descarta que tenga el potencial de hacerlo en un futuro y que sean los especialistas los que lo usen como herramienta.

“Cada vez serán mayores las capacidades de esta plataforma, ya que su perfeccionamiento es muy acelerado. Ya existe la ChatGPT Store, en la cual los usuarios pueden entrenar el modelo de acuerdo con sus necesidades mediante los chatbots. Con esta función, diversos profesionistas pueden enseñar a la aplicación diversas pautas de cómo realizan su labor para que los usuarios compren el bot customizado”, agregó Martínez.