"Es inviable analizar publicaciones en redes manualmente para bloquear el acoso"

La Universidade da Coruña ha reconocido el proyecto de Paulo Seoane sobre inteligencia artificial aplicada al ciberbullying con el premio al mejor trabajo de fin de grado de Enxeñaría Informática. Su sistema permite detectar casos entre los comentarios en redes sociales, incluso con un habla coloquial
Paulo Seoane Davila (Pontevedra, 1999). EP
photo_camera Paulo Seoane Davila (Pontevedra, 1999)

¿Por qué eligió el ciberacoso como tema? 

Me pareció superinteresante. Los jóvenes cada vez utilizan más las redes y hay un problema muy grande porque, cada vez que se sube una foto, un vídeo o un tuit con la mejor de las intenciones, se puede recibir mogollón de críticas negativas o insultos. Las investigaciones señalan que esto conlleva grandísimos problemas a corto y a largo plazo. Un chaval al que hacen ciberbullying va a tener problemas de autoestima, ansiedad, depresión... Consideré que una solución podría ser analizar estas publicaciones en busca de este acoso. Al día se hacen cientos de miles de publicaciones en las redes, y es inviable analizar manualmente todos esos comentarios para bloquear los de acoso. Automatizarlo puede mejorar la calidad de vida de muchos adolescentes. 

¿Conocía casos cercanos? 

Sí. Realmente tuvo también un toque personal. 

¿De dónde parte su trabajo? 

Lo primero que se necesita para entrenar a una inteligencia artificial es un conjunto de datos muy grandes. Había un trabajo previo de una universidad inglesa que recopiló cientos de miles de comentarios de Instagram y los mandó analizar con una encuesta en la que los participantes respondían sobre si el contenido tenía o no ciberacoso. Con ello consiguieron generar un conjunto de datos a partir del cual nosotros trabajamos. 

¿Cómo funciona entonces este modelo de inteligencia artificial? 

Antes de enseñarle a un ordenador a entender si un comentario tiene bullying o no, tienes que enseñarle a entender el comentario en sí. Yo no puedo decirte que diferencies si un comentario en japonés tiene bullying o no porque no sabes japonés. Lo primero que tuvimos que hacer entonces fue presentarle todos esos comentarios y utilizar modelos de aprendizaje no supervisado para que aprendiera el inglés y, sobre todo, el inglés de las redes sociales. El contexto. Una vez que obtuvimos un modelo que supiera entender inglés, lo usamos para entrenar a otro modelo al que ya le planteábamos "este comentario tiene bullying y este no; aprende por qué". 

O sea que trabaja en inglés. 

Sí. Si tuviéramos un conjunto de datos en español u otro idioma con la calidad suficiente podríamos entrenarlo con el mismo procedimiento y saldría un resultado muy similar. 

¿Cómo puede comprender la inteligencia artificial cuándo se bromea y cuándo se habla en serio? 

Las técnicas que utilizamos generan una especie de espacio multidimensional, por así decirlo, en el que representan cada comentario con un punto. A medida que lo vas entrenando, el ordenador consigue que aquellos comenta rios similares se encuentren en un punto cercano en el espacio. Una vez que tienes ese espacio, puedes intentar ver en qué zonas están los comentarios con ciberacoso y en qué zonas no. Esa es la forma que tienen las máquinas de entender el contexto en el lenguaje natural. 

¿En qué redes se puede aplicar? 

Podríamos haber analizado fotos o el contenido de vídeos y hubiéramos sacado también patrones para detectar ciberacoso. Pero un modelo que analizase vídeos no funcionaría en todas las publicaciones de Instagram, porque algunas son fotos, y si analizamos fotos, en TikTok costaría más. Y en Twitter, que puede no haber ni vídeo ni foto, no funcionaría. Como lo que analizamos nosotros son los comentarios, que son comunes a todas las redes sociales, podríamos crear un servicio que contratasen las plataformas para mandarle los comentarios y que diga cuáles tienen ciberbullying. Luego la red social se encargaría de gestionar esta información como quisiera: bloqueando la publicación, recortando al usuario... 

De hecho ya existen sistemas parecidos, como el Guardio. 

Que haya competencia es bueno; dice que la idea tiene potencial. 

Utilizamos modelos de aprendizaje no supervisado para que el ordenador entendiera el inglés que se usa en redes

¿En qué se puede mejorar el suyo? 

En el desarrollo multiidioma y quizás que sea capaz de trabajar con menos comentarios. Para considerar que una publicación contiene ciberbullying tiene que tener varios comentarios, porque la definición es que se trata de agresiones repetidas. Si yo te insulto una vez o en una publicación te comento que es una mierda, eso es una ciberagresión. Nuestro modelo no está entrenado contra ellas, a propósito. Necesita comentarios repetitivos para que determine que hay ciberbullying. Y a lo mejor puede trabajar con comentarios de diversas publicaciones. Luego, hemos utilizado 20.000 publicaciones, que generan cientos de miles de comentarios, pero podríamos tener un conjunto de datos mucho más extenso para que entrene con eso. También considero que el modelo debería ir actualizándose poco a poco, porque el lenguaje va cambiando: no es lo mismo cómo se hablaba en las redes hace unos meses que ahora. 

Y dentro de esa precisión, ¿cómo puede graduar lo que va desde una crítica hasta una ciberagresión? 

Hemos comprobado varias veces que si es solo una crítica no lo va a taggear como ciberacoso. Lo hemos comprobado con una confianza altísima, de casi el 100%. Si el modelo dice que una publicación es ciberacoso, la confianza es alta, pero también es importante que, si algo no es ciberacoso, el modelo lo diga. Si dijera que todo lo que le mandas es ciberacoso, obviamente va a detectar el 100% de los casos, pero también un 0% de los casos que no son ciberacoso. Hemos conseguido un balance muy alto. 

¿Qué perspectivas personales tiene después de esto? 

Ahora trabajo como desarrollador de iOS en una empresa de A Coruña, aunque lo hago desde Madrid, donde estoy haciendo un máster. Cuando lo termine... no lo sé. Lo que el futuro me depare. No me gusta predecir cosas a largo plazo.