Opinión

Cuando quien decide es una máquina

La humanidad está inmersa en una revolución tecnológica sin precedentes. En los últimos años, los algoritmos han pasado de ser abstracciones matemáticas a formar parte integrante de nuestras vidas y usarse cada vez más para sustituir la toma de decisiones. Los departamentos de recursos humanos los usan para contrataciones, los bancos para conceder créditos y hasta en Pensilvania las decisiones sobre la libertad condicional de los presos o sus fianzas se basan en algoritmos.

Estos pueden procesar en milésimas de segundo una cantidad ingente de información y ofrecernos una propuesta aparentemente limpia e imparcial. Sin embargo, esa decisión no tiene por qué ser objetiva y puede ser tan subjetiva como las propias empresas que los han programado. Tienden a la simplificación de las relaciones sociales y como no pueden procesar absolutamente todos los datos que acompañan nuestro devenir cotidiano, eliminan aquellos que no consideran relevantes sustituyendo los más difíciles de obtener por los más simples. Así aparecen los sesgos que ya se han detectado en plataformas como Facebook, que discriminaba a ciertos colectivos a través de su herramienta de anuncios. O Instagram, donde un estudio de la Universidad de Columbia concluía que era más probable que en la aplicación se diese a las mujeres menos visibilidad que a los hombres.

En el pasado, tecnología y sociedad caminaban a prudencial distancia, pero hoy la aplicación de las tecnologías de inteligencia artificial (IA) cada vez a más aspectos cotidianos, tiene evidentes implicaciones jurídicas, socio-económicas y éticas. El debate en torno a estas debe darse sobre cómo lograr que las máquinas inteligentes estén guiadas y orientadas hacia el bien común, lo que supondrá un reto no solo tecnológico sino filosófico.

Las máquinas amenazan con querer imitar a la inteligencia humana, pero como carecen de nuestro esquema de valores (no distingue entre el bien y el mal), actuarán teniendo en cuenta los datos que tengan y su propio aprendizaje. De ahí que los expertos sugieran poner el foco no tanto en estas, sino en las personas que las enseñan.

Mientras tanto, ¿qué podemos hacer los ciudadanos para exigir que la IA que afecta a nuestra vida cotidiana sea más justa? Pues lo primero tomando conciencia de que los algoritmos no son imparciales, sino que como dice Cathy O’Neil, son "opiniones encerradas en matemáticas". Segundo, sentando en el diván a su aprendizaje, para fijar criterios éticos sólidos, con la idea de prevenir asimetrías y buscar la equidad, la transparencia y la responsabilidad, sin sesgos, cajas negras o cualquier otro elemento que ponga en tela de juicio los beneficios que aporta.

El objetivo de los algoritmos no puede ser hacer obsoleta la inteligencia humana, sino potenciarla, porque un algoritmo podría ser superior a un humano, pero nada supera la combinación de humano y algoritmo. En cualquier caso, hay que mantener en nuestro poder el botón rojo de apagado por si se nos presenta la emergencia de tener que desactivar un robot desbocado.

Comentarios