Ana Freire: "Alcanzamos un 85% de precisión para clasificar tuits de suicidio"

La ingeniera rabadense recibe el día 29 el premio Ada Byron del Colexio de Enxeñaría en Informática de Galicia "pola súa achega na aplicación da intelixencia artificial ao ben social e o seu impulso ao enfoque feminino da tecnoloxía"
Ana Freire (Rábade, 1983)
photo_camera Ana Freire (Rábade, 1983)

¿Cómo funciona el proyecto Stop?

El proyecto utiliza técnicas computacionales e inteligencia artificial para estudiar enfermedades mentales en redes sociales, en particular las tendencias suicidas, la depresión y los trastornos de la conducta alimentaria que, en casos graves, también pueden derivar en autolesiones y/o ideación suicida. Con el conocimiento experto de psicólogos y psiquiatras, filtramos de modo automático y completamente anónimo publicaciones de redes sociales que incluyen palabras o frases que habitualmente emplean pacientes con alto riesgo de suicidio, depresión o trastornos de la conducta alimentaria. Estas se etiquetan en función de si representan o no perfiles de riesgo. Luego se extraen determinadas características lingüísticas, de imagen o de actividad en redes. Esta información es la entrada a algoritmos de inteligencia artificial que aprenden cuáles son las características diferenciales entre los grupos de alto riesgo. Algunas son demográficas, como la edad y el sexo, y otras están relacionadas con los intereses de los usuarios. Por ejemplo, aquellos con trastornos alimentarios suelen tener intereses por dietas estrictas de adelgazamiento, dietas veganas o ejercicios intensos para una rápida pérdida de peso.

¿Qué se hace con esos datos?

Esta información permitió lanzar una campaña en Instagram y Facebook dirigida a usuarios que encajaban en los perfiles de alto riesgo. En colaboración con el Telèfon de l’Esperança y el Telèfon de Prevenció del Suïcidi, consistió en la publicación de anuncios a través del feed, con anuncios estáticos, o stories, con historias dinámicas, que presentaban teléfonos de ayuda activos 24 horas a colectivos con características similares a las destacadas por los algoritmos de inteligencia artificial en grupos de riesgo. Se ejecutó durante 24 días en torno a las fechas navideñas de 2020. Alcanzó a 667.655 personas y aumentó en un 60% el número de llamadas provenientes de redes sociales al Telèfon de l’Esperança.

¿Hasta qué punto puede ser fiel la interpretación que hace una tecnología predictiva de algo tan complejo como la psicología humana?

Obviamente tiene su margen de error a la hora de clasificar contenido. De hecho, para clasificar tuits de suicidio alcanzamos un 85% de precisión, así que aún tenemos margen de mejora. Para interpretar lo más fielmente posible esta realidad, el equipo es multidisciplinar, y lo integramos por una parte ingenieros y por la otra psicólogos, psiquiatras y terapeutas.

¿Cómo se conjuga este análisis de datos con la privacidad?

Antes de ejecutar el proyecto pasamos una revisión ética muy estricta. Todos nuestros datos son anonimizados y transformados antes de procesarlos para que, incluso si alguien accede a nuestras bases de datos, no pueda identificar a ningún usuario. En ese aspecto estamos tranquilos, porque el comité ético de nuestra universidad nos guía mucho en lo que podemos y no podemos hacer.

¿Las redes funcionan como un entorno tóxico, una realidad deformada o un espacio donde uno se expresa de forma más liberada?

Efectivamente, las redes pueden ser un entorno tóxico, especialmente para usuarios más vulnerables. Pero también son un medio en el que los usuarios, quizá debido a que pueden mantener cierto anonimato, expresan sentimientos o se comportan de un modo más natural, distinto a cómo se manifiestan en su vida real, y esto nos ayuda a detectar problemas como los que estudiamos.

¿Se ha percibido la influencia de la pandemia en los análisis?

Realizamos un estudio preliminar, comparando la afluencia de publicaciones relacionadas con estrés, ansiedad, depresión, soledad y preocupación, antes del covid, durante el confinamiento y después del confinamiento. Vimos un aumento considerable de publicaciones relacionadas con todos los términos estudiados, especialmente con "ansiedad" y "preocupación", durante el confinamiento, y notamos una disminución importante después.

¿Hay cada vez más desconfianza en las tecnologías de la información?

Hay desconfianza porque lo desconocido siempre da miedo. Si la población en general recibiese más formación en tecnología, su uso, sus riesgos y también sus beneficios, estoy segura de que confiarían mucho más en el poder transformador positivo que tiene.

El uso que se le da a la inteligencia artificial, ¿ahonda o palía los problemas de la sociedad analógica?

La inteligencia artificial, mal empleada, puede acrecentar las desigualdades, pues aprende en base a ejemplos. Si creamos un sistema de asignación de ayudas a directivos de startups, y este sistema se entrena con datos históricos que tengan algún tipo de sesgo, por ejemplo, que haya dado muy pocas ayudas a directivas mujeres porque no estaban tan presentes en el sector, probablemente interprete que no tiene que dar ayudas a mujeres. Pero esto no es culpa de los algoritmos, sino de quienes los diseñan y de que los datos de la sociedad presentan multitud de sesgos. Este problema se puede evitar entrenando los algoritmos con datos que no contengan sesgos, o involucrando en el desarrollo de la tecnología a expertos en el ámbito donde se vaya a aplicar para que ayuden a detectarlos y mitigarlos.

"Tardarán en resolverse los estereotipos y que la mujer sea minoría en el ámbito tecnológico"

¿Qué significan los premios en un campo profesional como el suyo?

Es todo un honor recibir premios en un campo profesional en el que la mujer es minoría, pues esto era impensable hace décadas. Cada uno de estos premios nos reconoce a nosotras y a todas esas mujeres científicas e ingenieras que vivieron en la sombra. Esta visibilidad ayudará a cambiar la percepción que se tiene de estos campos, típicamente asociados a hombres.

En este sentido, el premio Ada Byron es un galardón que destaca el papel de las mujeres. ¿Se va dejando atrás ese prejuicio o esa falta de presencia de la mujer en el ámbito de la tecnología?

Todavía la mujer es minoría en el ámbito tecnológico, sobre todo en puestos de alta responsabilidad. Hay muchas iniciativas efectivas dirigidas a niñas para que estos estereotipos no les afecten y sepan que no existen carreras de hombres o de mujeres, pero este problema tardará en resolverse. De todos modos, cada vez son más las mujeres adultas que, siendo de otros ámbitos profesionales, se reinventan por medio de cursos o estudios de máster o posgrado para iniciarse en el mundo tecnológico y no perder las oportunidades laborales que ofrece la revolución tecnológica. Esto puede ser muy efectivo a corto plazo para cambiar las cifras y para crear perfiles multidisciplinares.

Comentarios