Especialistas alertan del uso de la inteligencia artificial para temas que pueden desencadenar riesgos. Por ejemplo, intentar reemplazar la experticia de un psicólogo con las respuestas que da ChatGTP.
En las redes sociales abundan testimonios de usuarios que aseguran utilizar este y otros chatbots de inteligencia artificial para "desahogarse" como si se tratara de un psicólogo o psicóloga, debido a su acceso gratuito y a la rapidez con que estas plataformas responden.
Sin embargo, esto hace saltar las alarmas en los especialistas en salud mental, quienes aseguran que estos sistemas pueden dar diagnósticos erróneos o consejos que pueden perjudicar a la persona que hace la consulta. Además, también replican sesgos o almacenan datos potencialmente sensibles.
Peligros de hablar con ChatGTP sobre salud mental
El médico psiquiatra Mariano H. Castelli dijo a Chequeado que la información que puede arrojar una plataforma de inteligencia artificial no tiene un criterio profesional. "Es fundamental tener en cuenta que ChatGPT no es un chatbot con finalidades terapéuticas", remarcó.
Y comparó esta nueva tendencia potenciada por influenciadores, como pretender "hacer autoterapia por leer libros".
"Se está utilizando un dispositivo que no tiene ni conciencia ni emociones, que no sabe de la experiencia interpersonal, del encuentro humano y de lo que está en juego", aseveró. Y sentenció que "carece de la escucha activa, la contención, el manejo de los tiempos, la lectura del lenguaje no verbal".
Piden medidas de protección
La Asociación Americana de Psicología (APA, por su sigla en inglés) ha instado a la Comisión Federal de Comercio y a los legisladores a implementar medidas de protección, ya que los usuarios recurren cada vez más a estas aplicaciones para obtener apoyo en materia de salud mental.
Vaile Wright, director sénior de innovación en atención médica de APA, dijo que son conscientes de que no pueden impedir que la gente las utilice, pero que buscan que los consumidores conozcan los riesgos cuando usan chatbots para la salud mental y conductual que no fueron creados para ese propósito.
También mencionaron problemas como diagnósticos inexactos, tratamientos inadecuados y violaciones de la privacidad, entre otros riesgos.