Por Raúl Alonso.
No cabe duda de que el llamamiento de Isabel Fernández, rectora de la Universidad Alfonso X el Sabio, captó la atención de los abogados participantes en el Lab Emprendimiento Jurídico de Fundación Mutualidad Abogacía. Reunidos en esta clase maestra bajo una sugerente pregunta: Inteligencia artificial: ¿una amenaza o una oportunidad para los Objetivos de Desarrollo Sostenible (ODS)? El debate estaba servido.
La IA y los Objetivos de Desarrollos Sostenible
Fernández, también doctora en Informática y experta en Inteligencia Artificial desde hace 30 años, recuerda que queda mucho por hacer pero la IA (en sus siglas en español) ha alcanzado “un conjunto de tecnologías suficientemente robustas y maduras”.
La IA es capaz de observar el entorno de manera automática, pero además de entenderlo ya analiza riesgos y actúa sobre esa parte que controla. Dicho en palabras de Fernández, “es capaz de emprender acciones para conseguir un fin”.
Estas funciones objetivas pueden ser climatizar con eficiencia un medio de transporte masivo como Metro Madrid, o utilizar un algoritmo de optimización para que los vehículos de recogida de la basura urbana ahorren en emisión de CO2, pero también ayuda a elegir una serie en Netflix acorde a los gustos de la familia.
Esta omnipresencia no genera indiferencia. “Stephen Hawking advertía que uno de los problemas de la automatización de procesos, es la eliminación de puestos de trabajo”. Por lo que ODS como el 8 relacionado con el trabajo o el 1 con el fin de la pobreza, se ven impactados. Otros gurús como Elon Musk —“cuyas fábricas de baterías están automatizadas al 98%”— o Bill Gates, también han advertido sobre esa dualidad para acelerar o detener los ODS.
La IA amenazada por un nuevo invierno
“Llamamos invierno de una tecnología”, continúa la rectora, “cuando tras un crecimiento exponencial de su aplicación, de la inversión de empresas y gobiernos, por determinadas circunstancias se para. Puede ser por una guerra o un incidente internacional pero en este caso la aceleración de la IA ha sido propiciada por la pandemia, y ahora puede entrar en un nuevo invierno por falta de regulación”.
Para entender la advertencia, se puede acudir a uno de los ejemplos ofrecidos a los alumnos del Lab Emprendimiento Jurídico. Convertir el sistema de piloto automático de los aviones en un estándar de la aeronáutica requirió de una gran investigación e inversión, pero también de una regulación. En este caso está representada por un máximo organismo The International Air Transport Association (IATA) más dos regulaciones adaptadas: la de Europa y la de cada estado.
Esta regulación ha servido para garantizar que los sistemas de las naves reúnan calidad y garantía. De otro modo, si cualquier sistema hubiera llegado a una nave pilotada, más pronto que tarde se hubieran producido accidentes. Y esos accidentes hubieran paralizado la expansión de esta tecnología, de la no válida pero también de la válida.
Por ello, “si los juristas no son capaces de regular de la manera adecuada lo que afecta a la sociedad, todos los que trabajamos en inteligencia artificial viviremos un invierno”, vaticina Fernández.
Una demanda social
Sin embargo, la rectora se muestra optimista, “porque creo en la sociedad”. Una sociedad que impulsará esa regulación jurídica: “Y regular no significa limitar la IA, sino que los juristas digáis a la sociedad las normas que deben regir la buena construcción de una inteligencia artificial responsable, al igual que en su momento ayudasteis a saber qué condiciones debía de cumplir un sistema para el pilotaje automático de un avión confiable y garantista”.
En este contexto, la Unión Europea ya avanza: en abril de 2019, publicó un documento con las guías básicas de regulación, y en julio de 2020 la Comisión Europea presentó su primer texto.
Pero Fernández insiste en la labor de la propia ciudanía: “Aunque en un principio, una organización le haya podido engañar, cuando la sociedad sabe que una empresa no es ética, sus ventas caen”. Como justificación cita dos datos: el 75% de los clientes no compraría productos o servicios a compañías sin código ético, y el 86% declara ser más fiel a las que evidencian su comportamiento ético (Edelman Trust Barometer 2020).
Cómo debe funcionar un sistema de IA fiable
“Lo dice la UE y estoy de acuerdo al cien por cien”, anticipa la rectora antes de resumir los siete puntos que debe incluir un sistema de IA fiable.
- Exige la intervención y supervisión humana en la construcción del sistema.
- Debe incluir medidas que garanticen la robustez y seguridad técnica. Por ejemplo, para impedir el sesgo en los datos.
- Garantizar la privacidad y gestión de datos.
- Ser transparente. Por muy complejo que sea, el sistema debe ser auditable, mostrar las reglas con que se construyen y toman decisiones. Y además los usuarios deben saber si al contratar un servicio o producto están utilizando inteligencia artificial o humana.
- No discriminación, promover la diversidad y equidad.
- Promover el bienestar social y medioambiental.
- Permitir la rendición de cuentas. Debe ser auditable y contrastable en un periodo largo de tiempo, de manera que permita medir que está cumpliendo lo misión que prometió, permitiendo anticipar cualquier problema de sesgo o degradación del sistema.