Opinión

Una dependencia cada vez mayor del software seguro

En menos de cinco meses, dos aviones Boeing 737 MAX 8 han protagonizado accidentes fatales. Las autoridades investigan las causas, pero todo apunta al MCAS (Maneuvering Characteristics Augmentation System), un sistema de control de vuelo que no fue bien implementado. Este sistema fue desarrollado por Boeing expresamente para el 737 MAX 8 y el MAX 9. Según la propia compañía, el sistema "no controla la aeronave en vuelos normales", sino que "mejora una parte de su comportamiento en condiciones operativas no normales". Pero además del propósito inicial, parece que el cambio en los motores introducidos en estas aeronaves provocaba problemas de aerodinámica que Boeing quiso corregir electrónicamente con el MCAS. 

Por otra parte, la carrera entre Boeing (norteamericana) y Airbus (europea) hizo que, para certificar su 737 MAX, la Federal Aviation Administration (FAA ) acabara dejando que la propia Boeing realizara los controles de seguridad, aprobándolos de forma apresurada tras los resultados del análisis. Haciendo una analogía simplista, es como si en un puente construido para tráfico peatonal se nos ocurre construir nuevos carriles para el paso de vehículos, y las pruebas de carga se llevan a cabo de forma partidista, interesada y no exhaustiva. O como si sobre las antiguas vías del FE VE queremos hacer circular los modernos AVE. Además, a estos problemas se sumaron errores en el mantenimiento de los aviones e incluso de formación de los pilotos, que ni siquiera conocían la existencia de este sistema. 

Si a los pilotos se les exige una formación y capacitación exhaustiva, parece lógico establecer exigencias similares para aquellos que desarrollan sistemas críticos para la seguridad de las personas

El propio Donald Trump reconocía, a través de Twitter (¡cómo no!): "Los aviones se están volviendo demasiado complejos para volar. Ya no se necesitan pilotos, sino científicos informáticos del MIT. Lo veo todo el tiempo en muchos productos". Si a los pilotos se les exige una formación y capacitación exhaustiva, parece lógico establecer exigencias similares para aquellos que desarrollan sistemas críticos para la seguridad de las personas. Esto, por desgracia, en nuestro país no ocurre por la falta de regulación de una profesión —la ingeniería en informática—, que cada vez es más crítica, no solo para el desarrollo social y económico de nuestro país, sino para que este desarrollo sea con la mayor seguridad posible. 

En Galicia, por desgracia, no somos ajenos a problemas similares a los ocurridos con el sistema MCAS. Otras siglas son bastante más conocidas: ERTMS (en inglés, European Rail Traffic Management System), una infraestructura que garantiza la seguridad de la circulación y la gestión del tráfico ferroviario. Su correcto funcionamiento habría evitado el lamentable accidente ferroviario de Angrois, hace casi seis años.

Desde el CPEIG llevamos años intentando plantear una reflexión importante sobre la dependencia del software que tendremos, no solo en aviones y trenes, sino también en los futuros coches autónomos, por no mencionar muchas otras infraestructuras críticas. En todos los casos, parece evidente que una exhaustiva revisión de ese código y una formación adecuada de quienes lo utilizan es clave para evitar estas tragedias. Pero por encima de eso, es fundamental exigir competencias y conocimientos a las personas que desarrollan servicios en los que la integridad física (y jurídica) de las personas está en juego, para también poder exigir responsabilidades en caso de negligencia. De este modo, conseguiríamos solucionar el problema que estamos generando en la sociedad, la impresión de que el software falla, con la consiguiente incertidumbre y desconfianza sobre el uso del mismo.

Fernando Suárez es presidente del Colexio de Enxeñaría en Informática de Galicia (CPEIG)

Comentarios