Nuria Oliver es una de los integrantes de este escogido grupo que, entre otros aspectos, velará por los aspectos éticos, legales y humanos que resulten de la aplicación de la inteligencia artificial (IA) a los procesos de la Mutualidad.
Ingeniera de Telecomunicaciones y doctora por el MIT, Nuria Oliver es toda una referencia en el sector de la inteligencia artificial. Ha realizado diversas investigaciones y desempeñado cargos de relevancia en compañías como Microsoft o Telefónica I+D, además de recibir premios internacionales por su labor. Esta miembro de la Real Academia de la Ingeniería aboga por la regulación ética y la creación de comités para regular las implicaciones de la IA, así como por la apuesta clara de los países en este campo.
Es usted una de las autoridades más influyentes en la materia, ¿cómo ve el panorama de la Inteligencia Artificial (IA) en este momento y en el futuro?
En los últimos tres siglos, hemos vivido cuatro revoluciones industriales, desde la Primera Revolución Industrial en los siglos XVIII y XIX en Europa y América a la Cuarta Revolución Industrial de hoy en día. Esta Cuarta Revolución Industrial incorpora la ubiquidad de la tecnología digital en nuestras vidas y la unión creciente entre los mundos físico, biológico y digital. Avances tecnológicos clave incluyen a la robótica, el Big Data, la nanotecnología, la biotecnología, el internet de las cosas, la ingeniería genética, las impresoras en tres dimensiones, la informática cuántica y, como no, la Inteligencia Artificial.
La Inteligencia Artificial (IA) es la disciplina dentro de la informática o la ingeniería cuyo objetivo es el desarrollo de sistemas computacionales (no biológicos) inteligentes, tomando como referencia la inteligencia humana. Del mismo modo que nuestra inteligencia es múltiple y diversa, existen numerosas áreas de conocimiento dentro de la Inteligencia Artificial.
La presencia de la IA en nuestras vidas y su capacidad para tener impacto positivo en la sociedad son innegables. Según PwC, el mercado mundial de la Inteligencia Artificial superará los 15 millones de millones de euros a nivel mundial en 2030. En España, se estima que la adopción de la IA conllevaría un aumento de nuestro PIB en 0.8 puntos en los próximos años. El Foro Económico Mundial predice una transformación profunda del mercado laboral como resultado de la Cuarta Revolución Industrial y el desarrollo de la IA. En consecuencia, habrá una generación neta de 58 millones de puestos de trabajo en 2022. La clave es que dichos puestos serán de naturaleza muy distinta a los puestos que se verán desplazados por la IA, de manera que es crítico que invirtamos en la formación a los profesionales, sobre todo a aquellos cuyas profesiones se van a ver afectadas por la IA.
Las grandes potencias mundiales –-tanto empresas como gobiernos—han comprendido que el liderazgo en la IA conllevará un liderazgo no solo a nivel económico sino también político y social. De hecho, en los últimos 2 años, los gobiernos de una veintena de países –incluyendo EE.UU., China, Canadá, Francia, Singapur, México, Suecia, India, Australia o Finlandia– han elaborado estrategias nacionales de IA. Los líderes mundiales en IA hoy en día son China y EE.UU. Desgraciadamente, España todavía no ha publicado su estrategia nacional de Inteligencia Artificial.
¿Considera que la sociedad está preparada para entender bien la IA y su influencia en la vida de las personas? ¿Seremos capaces de aceptar con normalidad las decisiones que nos aconsejen las máquinas?
Considero que el conocimiento del ciudadano/a medio sobre IA es limitado. Lo que quizás es mas preocupante es que el conocimiento de los políticos también es muy limitado. Sera muy difícil tomar decisiones informadas como sociedad, legislar/regular, elaborar estrategias y liderar sin se carece del conocimiento técnico necesario para comprender la objeto de dichas decisiones, en este caso la Inteligencia Artificial. Por ello, hace más de cinco años que abogo y defiendo una inversión ambiciosa en educación y formación a todos los niveles: educación obligatoria (incluyendo una asignatura troncal de Pensamiento Computacional así como reforzando la creatividad y las inteligencias social y emocional de los estudiantes), educación a profesionales –sobre todo aquellos cuyas profesiones se van a ver afectadas por la IA, educación a la ciudadanía y educación a la clase política y miembros de la administración pública.
Hace un tiempo afirmó que China quiere ser la primera potencia del mundo gracias a la Inteligencia Artificial. ¿En qué punto cree usted se encuentra el gigante asiático? ¿Cuál es o debería ser el papel de Europa y la sociedad occidental?
La apuesta de China hacia la Inteligencia Artificial es la mas ambiciosa del planeta. Tanto el gobierno como grandes gigantes tecnológicos chinos como Tencent o Alibaba están invirtiendo agresivamente en Inteligencia Artificial. La apuesta China incluye una inversión inmensa en investigación e innovación. Los mejores congresos científicos internacionales sobre Inteligencia Artificial cuentan hoy en día con un elevado –y creciente– número de artículos científicos escritos por investigadores de universidades y centros de investigación chinos.
Estados Unidos es sin duda la otra gran potencia en el desarrollo de la Inteligencia Artificial, en parte impulsado por las grandes empresas tecnológicas americanas (Amazon, Facebook, Google, Microsoft, Apple….) que cuentan con equipos de cientos o miles de experto/as en Inteligencia Artificial. La inversión en startups de Inteligencia Artificial ha crecido exponencialmente en los últimos años, alcanzando los 9300 millones de USD en 2018 según un informe de Price Waterhouse Cooper.
En este contexto, Europa ha quedado rezagada. Por ello, la Comisión Europea publicó en abril de 2018 una comunicación sobre la Inteligencia Artificial y otra en diciembre de 2018 incluyendo un plan de coordinación sobre IA y la exigencia a todos los estados miembros que publicasen sus estrategias nacionales de IA antes de julio de 2019 . En junio de 2018, el grupo de expertos sobre IA creado por la Comisión Europea –del que soy miembro reserva– publicó un conjunto de guías éticas para la Inteligencia Artificial y unas recomendaciones sobre inversiones y políticas en IA. La Comisión Europea estima una inversión total –tanto pública como privada– en Europa en I+D dedicada a la IA de €20.000 millones anuales en el periodo 2021-2027. Esta inversión es necesaria para reducir la brecha de inversión en IA existente en Europa –de entre €3,000 y €15,000 millones, en comparación a la inversión en Asia y Norte América . La Comisión también ha propuesto invertir en programas de I+D, incluyendo el Programa Digital Europeo de IA (del que €2,500 millones están destinados a la adopción de la IA) y el programa Horizonte Europa (del que €700 millones están destinados a investigación en IA y otras tecnologías digitales).
Desde una perspectiva de los estados miembros, numerosos países europeos han publicado sus estrategias nacionales de IA, acompañadas de ambiciosos compromisos presupuestarios: Alemania ha comprometido €500 millones anuales entre 2019 y 2025, Finlandia €100 millones anuales a partir de 2019 y Francia €500 millones anuales en los próximos 5 años. Todavía no se ha publicado la estrategia española…
La Mutualidad de la Abogacía ha constituido el Comité de Ética de Inteligencia Artificial (CEIA) del que usted forma parte. ¿Cómo valora este tipo de iniciativas en el mundo de la empresa? ¿Cómo debería ser su desarrollo?
Creo que el establecimiento de Comités de Ética para el desarrollo y aplicación de la IA es una medida absolutamente necesaria en cualquier organización, publica o privada, que utilice la IA para tomar decisiones, automatizar procesos y proveer servicios inteligentes a personas. El desarrollo de estos comités debería ser obligatorio. Tendrían que tener el poder dentro de las organizaciones para vetar y reorientar proyectos o iniciativas que sean éticamente cuestionables así como para asesorar de manera experta a las organizaciones y a los gobiernos en el establecimiento de marcos regulatorios y legislativos apropiados a la realidad de la Cuarta Revolución Industrial, una Cuarta Revolución Industrial que debería estar centrada en las personas y el planeta. Solo si situamos a las personas y a nuestro planeta en el centro del desarrollo tecnológico podremos asegurarnos que dicho desarrollo realmente representa progreso. El potencial para tener impacto positivo es inmenso, pero también lo es para tener impacto negativo si no establecemos las provisiones adecuadas.
Gracias a la objetividad de la IA, ¿podrían llegar las máquinas a tomar decisiones más “éticas” que los propios humanos?
Efectivamente la aspiración es que la toma de decisiones algorítmicas basadas en datos y utilizando técnicas de IA supere las limitaciones de las decisiones humanas, incluyendo conflictos de interés, sesgos cognitivos, corrupción, egoísmo, etc…Sin embargo, las decisiones algorítmicas no están exentas de limitaciones que explico más adelante. Por ello, hemos de ser conscientes de dichas limitaciones para abordarlas y así conseguir el objetivo deseado: un modelo de gobernanza democrática basada en los datos y la Inteligencia Artificial por y para la sociedad.
Los algoritmos pueden reflejar los sesgos que están presentes en los datos.
¿Cómo se podría evitar que las máquinas inteligentes resulten xenófobas, machistas o racistas si los algoritmos estuviesen entrenados?
El desarrollo de algoritmos que tienen garantías de justicia (fairness) y no discriminación algorítmica es un área activa de investigación, con congresos específicos como FAT ML (https://www.fatml.org/) que existe desde 2014. Existen numerosas propuestas técnicas tanto para detectar la existencia de sesgos y discriminación el algoritmos como para evitarla.
¿Quién tendrá la última palabra sobre las decisiones de los robots? ¿Serán los humanos o los algoritmos?
Las decisiones algorítmicas basadas en algoritmos de IA entrenados con datos no necesariamente impactan a los robots. Están presentes en nuestro día a día. Algoritmos deciden que amigos/libros/películas/música/productos se nos recomiendan; que noticias leemos; la ruta que seguimos para llegar a nuestro destino; la información que encontramos en Internet…. Y también deciden (o decidirán) que diagnostico medico y/o tratamiento se nos aplica, que sentencia judicial se nos dictamina, si nos aceptan o no en un trabajo, si nos conceden o no un préstamo, etc… Mi visión personal es la del ‘aumento de la inteligencia humana’ en lugar de la sustitución de la misma. Tenemos una gran oportunidad para tomar mejores decisiones (es decir, decisiones que no adolecen de las limitaciones de las decisiones humanas como conflictos de interés, sesgos, egoísmo, corrupción, etc…) gracias a la existencia de la IA como aliada y apoyo en la toma de dichas decisiones.
¿La IA podrá trabajar con nuestro subconsciente? ¿Hasta qué punto se podría llegar a perder la libertad sobre la decisión consciente?
Me atrevería a decir que hoy en día nuestra autonomía que es un principio básico en la ética occidental se ve cuestionada por los servicios digitales que utilizamos (e.g. Google, Facebook, Amazon…) que infieren a partir de nuestras interacciones con los mismos nuestros gustos, intereses, necesidades, orientación política y sexual, nivel de educación, personalidad o incluso nuestra salud mental y utilizan dichas inferencias para influenciar nuestra toma de decisiones y nuestro comportamiento. Algunos ejemplos recientes que han recibido atención de la opinión publica ha sido la posible influencia de este tipo de tecnología en los procesos electorales americanos y en el referéndum del Brexit. Si bien es verdad que desde que existimos como especie los seres humanos utilizamos la persuasión como herramienta para influenciar el comportamiento humano, la gran diferencia hoy en día es la escala de dicha persuasión –pudiendo llegar a millones de personas– y la personalización de la misma, de manera que utilizaría diferentes estrategias dependiendo del perfil individual de cada persona.
El reconocimiento facial está creando problemas éticos en torno a la vigilancia y las noticias falsas se propagan para influir en las elecciones, caso de Cambridge Analytica. ¿Cómo se debería abordar la regulación normativa en un escenario internacional tan amplio y complejo?
La gobernanza de la IA y las decisiones algorítmicas es un tema que esta siendo debatido tanto a nivel nacional como supra-nacional (e.g. Comisión Europea). Justamente hace un par de meses contribuí con un capitulo sobre “El futuro de la gobernanza en la era de las decisiones algorítmicas basadas en datos” para el libro “Women Shaping Global Economic Governance” editado por Intracen: http://www.intracen.org/womengovernance/
En dicho capitulo propongo un marco de gobernanza que queda captado por el acrónimo FATEN en inglés, y que incluye algunos de los temas que ya hemos abordado en preguntas anteriores:
–La F de fairness o justicia, es decir sin discriminar. Las decisiones basadas en algoritmos pueden discriminar porque los datos utilizados para entrenar dichos algoritmos tengan sesgos que den lugar a decisiones discriminatorias; por el uso de un determinado algoritmo; o por el mal uso de ciertos modelos en diferentes contextos.
–La A es de autonomy o autonomía, valor central en la ética occidental, según la cual cada persona debería tener la capacidad de decidir sus propios pensamientos y acciones, asegurando por tanto la libre elección, la libertad de pensamiento y acción. Sin embargo, hoy en día podemos construir modelos computacionales de nuestros deseos, necesidades, personalidad y comportamiento con la capacidad de influenciar nuestras decisiones y comportamientos de manera subliminal.
Por ello, deberíamos garantizar que los sistemas inteligentes autónomos adapten su toma de decisiones preservando la autonomía y dignidad humanas. Es importante destacar la importancia de que todos los desarrolladores y profesionales que trabajen en el desarrollo de sistemas de Inteligencia Artificial que afecten o interaccionen con personas (por ejemplo, algoritmos para la toma de decisiones, sistemas de recomendación y personalización, chatbots…) se comporten de acuerdo con un claro Código de Conducta y de Ética definido por las organizaciones en las que trabajan. Como sabiamente dijo Disney “No es difícil tomar decisiones cuando tienes claro cuáles son tus valores”.
La A también es de accountability, es decir, con claridad respecto a la atribución de responsabilidad de las consecuencias de las decisiones algorítmicas.
Y de augmentation, de manera que los sistemas de Inteligencia Artificial se utilicen para aumentar o complementar la inteligencia humana, no para reemplazarla.
–La T de transparency o transparencia. Un modelo es transparente si una persona puede observarlo y entenderlo con facilidad. Las decisiones algorítmicas pueden ser no transparentes (opacas) por tres motivos: intencionalmente para proteger la propiedad intelectual de los creadores de dichos algoritmos; por la falta de conocimiento por parte de los usuarios que les impida entender cómo funcionan los algoritmos y modelos computacionales construidos a partir de los datos; e intrínsecamente dado que ciertos métodos de aprendizaje por ordenador (por ejemplo, modelos de deep learning o aprendizaje profundo) son extremadamente complejos.
Asimismo, es imprescindible que los sistemas de Inteligencia Artificial sean transparentes no solo con relación a qué datos captan y analizan sobre el comportamiento humano y para qué propósitos sino también respecto en qué situaciones los humanos están interaccionando con sistemas artificiales (por ejemplo, chatbots) vs con otros humanos.
–la E de education o educación, es decir, invirtiendo en educación a todos los niveles, desde la educación obligatoria a la ciudadanía en general, pasando por los profesionales y los decision makers y trabajadores del sector público;
Y la E de bEneficence o beneficiencia, es decir, maximizando el impacto positivo del uso de la Inteligencia Artificial, con sostenibilidad, diversidad, honestidad y veracidad
–La N de non-maleficence o no maleficiencia, es decir, minimizando el impacto negativo que pueda derivarse del uso de las decisiones algorítmicas. Para ello, es importante aplicar un principio de prudencia, garantizar la seguridad, fiabilidad y reproducibilidad de los sistemas, preservando siempre la privacidad de las personas. En este último punto, Europa ha asumido cierto liderazgo a nivel mundial con la reciente entrada en vigor del Reglamento General de Protección de Datos o RGPD, que se suma a derechos fundamentales como los derechos a establecer y desarrollar relaciones con otros seres humanos, a la desconexión tecnológica y a estar libre de vigilancia. En este contexto, otros derechos que podríamos/deberíamos agregar incluyen el derecho a un contacto humano significativo –por ejemplo, en servicios de atención operados exclusivamente por chatbots– y el derecho a no ser medido, analizado, perfilado, orientado o influenciado subliminalmente mediante algoritmos.
Considero que será solamente cuando respetemos estos principios que seremos capaces de avanzar y conseguir un modelo de gobernanza democrática basado en los datos y la inteligencia artificial, por y para las personas.
¿Podrían tener las máquinas responsabilidades jurídicas como seres autónomos, al margen de sus dueños y creadores?
Es una pregunta compleja que esta siendo debatida y estudiada entre los expertos en derecho. De hecho, a finales de septiembre participare en un congreso sobre propiedad intelectual e Inteligencia Artificial organizado por el World Intellectual Property Organization (WIPO). Como he mencionado anteriormente, los principios de accountability (es decir, claridad con respecto a la atribución de responsabilidad), transparencia (en este caso con respecto a quien esta tomando las decisiones y como están siendo tomadas) y de aumento de la inteligencia humana (en lugar de sustitución) son fundamentales. No podemos olvidar que los algoritmos de IA han sido escritos por humanos y por ello deberíamos exigir claridad con respecto a la atribución de responsabilidad de las consecuencias del uso de dichos algoritmos antes de aplicarlos.
En alguna ocasión se ha afirmado que la inteligencia emocional y social del ser humano está en peligro como consecuencia de la utilización masiva de las tecnologías de la comunicación. ¿Hasta qué punto cree que se trata de una amenaza real?
Sin duda nuestra manera de relacionarnos con otros humanos, de trabajar, de aprender y de pasar el tiempo ha cambiado y esta cambiando por la existencia de tecnología (y muy especialmente el móvil, compañero fiel desde que nos levantamos hasta que nos acostamos o incluso mientras estamos durmiendo). El Homo Sapiens es una especie social. Nuestra inteligencia social ha sido clave para permitirnos sobrevivir como especie, ya que hemos sido capaces de organizarnos en grupos de muchos individuos (cientos, miles, millones…), algo de lo que no han sido capaces otros primates. Hoy en día, un porcentaje creciente de nuestras interacciones son mediadas por la tecnología. Tecnología que, desgraciadamente, no es capaz de captar y transmitir la riqueza de la comunicación humana incluyendo el lenguaje no verbal. Esta habilidad para interpretar y responder al lenguaje no verbal es fundamental para garantizar nuestra capacidad para colaborar con otras personas, debatir, escuchar, compartir distintos puntos de vista, aprender etc… nadie sabe cuales pueden ser las consecuencias si cada vez mas vamos perdiendo dichas habilidades. Aunque no soy tan alarmista como la profesora Sherry Turkle de MIT en su libro “Reclaiming conversation” (https://www.mit.edu/~sturkle/), comparto su visión. Por ello, desde hace mas de 5 años llevo proponiendo el refuerzo de las habilidades sociales y emocionales en los niños y adolescentes, el cultivo de la creatividad y el desarrollo de tecnología que realmente este centrada en las personas y en nuestro bienestar. Por que no tenemos móviles que nos sugieren que los apaguemos si no estamos haciendo nada útil con ellos o estamos abusando de su uso? Algunas de estas ideas están captadas en el capitulo “Eruditos digitales” que escribir para el libro “Los nativos digitales no existen”.
La llamada “economía de los datos” está fundamentalmente en manos privadas. ¿Cuál es el reto del sector público en esta materia?
Hay varios retos importantes en este sentido. El primer reto, obviamente, corresponde a la dificultad para acceder a los datos privados que podrían tener valor en el sector público. El segundo reto es de naturaleza tecnológica ya que el nivel de desarrollo tecnológico del sector publico en general es inferior al nivel de desarrollo de las empresas tecnológicas que tienen los datos. Dentro del reto tecnológico incluyo no solo infraestructura tecnológica sino también y quizás de manera mas importante capacidades en los profesionales del sector publico para poder analizar y utilizar de manera efectiva las conclusiones derivadas del análisis de los datos. En tercer lugar, hay un reto legal/regulatorio, ya que en la mayoría de los casos los datos han sido captados para un uso distinto de su posible uso para el sector público. Además, no podemos obviar un reto económico. Necesitamos encontrar modelos de negocio sostenibles en el tiempo para conseguir un uso apropiado de datos que hoy en día son custodiados por empresas privadas por parte del sector publico para tener impacto positivo en la sociedad. Justamente la discusión y propuesta de soluciones para abordar estos y otros retos relacionados forman parte del trabajo que estamos haciendo en el High Level Expert Group de Business to Government Data Sharing –del que soy miembro– dentro de la Comisión Europea. Tenemos previsto publicar un primer borrador de nuestro informe en el otoño / invierno del 2019-2020. https://ec.europa.eu/digital-single-market/en/news/commission-appoints-expert-group-business-government-data-sharing
Finalmente nos gustaría pedirle una reflexión sobre el papel de la mujer en el contexto tecnológico. Ha afirmado en alguna ocasión que las chicas no eligen carreras tecnológicas y eso lastra de forma definitiva su participación en ese ámbito. Más allá del diagnóstico demoledor, ¿qué se puede y debe hacer para cambiar esta situación?
Desgraciadamente, el porcentaje de mujeres que estudian informática o que trabajan en posiciones técnicas dentro de empresas tecnológicas se encuentra entre un 10 y un 20%, resultado de una disminución progresiva de la presencia femenina en el sector tecnológico desde los años 80.
Sabemos, corroborado por numerosos estudios científicos, que la diversidad enriquece, tanto literal como metafóricamente. Es decir, conforme hay más diversidad en equipos e instituciones, mejores son los resultados económicos de dichas instituciones y más innovadoras e inclusivas son sus ideas y soluciones. Por ejemplo, el estudio del Centro Nacional para las Mujeres y la Tecnología de la Información de 2,360 comunidades en diversas industrias encontró que las empresas con mujeres en sus comités de dirección tuvieron mejores resultados que las empresas con comités de dirección masculinos. Los equipos de gestión diversos demostraron mejores retornos de la inversión y crecimiento que los no diversos. La presencia de las mujeres mejora tanto la productividad como la dinámica de los equipos, además de elevar la estabilidad financiera cuando están en posiciones de decisión.
Y aunque la diversidad es altamente deseable, no debemos olvidar que es mucho más difícil de gestionar que la homogeneidad. Los seres humanos tendemos a la homofilia, es decir, a sentirnos mucho más cómodos rodeados de personas similares a nosotros mismos. Los equipos homogéneos son por tanto mas sencillos de gestionar, porque no suele haber voces disonantes, porque sus miembros hablan el mismo idioma y comparten una visión similar. Por el contrario, los equipos diversos son equipos donde suelen cuestionarse las decisiones, donde hay diferentes puntos de vista, voces divergentes y personas con experiencias vitales muy diferentes. Esta diversidad es difícil de gestionar, pero si lo conseguimos, sabemos que los resultados serán muy superiores a los de los equipos homogéneos.
El factor clave es que no estamos hablando solo de justicia social, sino de crecimiento económico. Se estima que la falta de diversidad de genero en el sector tecnológico tiene un coste de 9 billones de euros anuales en el PIB europeo según un estudio de la Comisión Europea.
¿Por qué hay pocas mujeres en este campo? ¿Y qué podemos hacer para mejorar la situación, sobre todo dado el inmenso valor de la diversidad?
Las causas –y en consecuencia las soluciones– son múltiples, diversas y complejas. Entre todos los factores que juegan un papel importante, destacaría cuatro:
(1) una imagen errónea y fuertemente estereotipada sobre quién trabaja en puestos tecnológicos y en qué consiste dicho trabajo. En el caso tecnológico, la imagen –reforzada por las películas, series de televisión y medios de comunicación– es la de un chico con gafas, con unos niveles de inteligencia social y emocional muy bajos, con poca higiene personal, trabajando en un sótano sin ventanas, rodeado de “comida basura”, tecleando delante de una o varias pantallas de ordenador. Esta imagen es, sin duda, muy poco atractiva para las chicas y además lejana de la realidad; y una fuerte estereotipación de género en los juguetes, libros, ropa y películas/series que consumen nuestros niños y adolescentes;
(2) los sesgos –conscientes y subconscientes—de género que tanto hombres como mujeres tenemos y que conllevan una infravaloración de las mujeres frente a homólogos masculinos con cualificaciones idénticas;
(3) una falta sistemática de reconocimiento y visibilidad hacia las mujeres en todos los contextos y en particular en las carreras tecnológicas, ilustrada por la brecha salarial o la pobre presencia de las mujeres en los premios, distinciones y posiciones de poder en estos campos –por ejemplo, el Premio Turing (equivalente al Premio Nobel en Informática) ha sido otorgado únicamente a 3 mujeres en contraposición a 62 hombres desde su creación en 1966. Además, las mujeres fundadoras de startups solo recibieron un 2% de las inversiones de capital riesgo de EEUU en 2017 y los equipos femeninos fundadores de startups atraen en media 82$ de inversión por cada 100$ de inversión obtenidos por equipos masculinos, a pesar de que las startups fundadas por mujeres tienen mejores resultados que aquellas fundadas por hombres;
(4) la inexistencia de referentes femeninos en este campo que puedan inspirar a niñas y adolescentes a estudiar estas carreras; y
(5) una cultura marcadamente sexista y misógina en el sector tecnológico, llamada cultura brogrammer, que en un estudio reciente publicado por la revista Fortune fue el segundo motivo más frecuente –citado por un 68% de las mujeres—causante del abandono de su trabajo en el sector tecnológico (después de la maternidad).
Para fomentar la presencia de mujeres en el este campo han surgido –tanto a nivel nacional como internacional– decenas de iniciativas de apoyo, capacitación y sensibilización. Por ejemplo, la iniciativa de Mujer e Ingeniería de la Real Academia de Ingenieria, cuyo objetivo es, entre otros, dar apoyo a las chicas que están estudiando ingeniería a través de redes de tutorización. Otros ejemplos nacionales incluyen la iniciativa Wisibizalas de la UPF, concurso dirigido a colegios/institutos para generar reflexión sobre la visibilidad de las mujeres, dar visibilidad a mujeres que trabajan en tecnología y potenciar las referencias femeninas; la Asociación de Mujeres Investigadoras y Tecnólogas (AMIT), cuyo objetivo es promover la equidad de género; MujeresTech, una asociación sin ánimo de lucro que ofrece recursos y conocimiento con el objetivo de aumentar la presencia femenina en el sector digital; o el Premio Ada Byron a la Mujer Tecnóloga de la Universidad de Deusto (que tuve el honor de recibir en 2016), cuyo objetivo es premiar y visibilizar trayectorias excelentes de mujeres en diversos campos tecnológicos.
Estas iniciativas son necesarias para fomentar una mayor diversidad en la tecnología. Sin embargo, quizás sea necesario aunar esfuerzos para que las iniciativas tengan un mayor impacto y visibilidad.
La introducción de Pensamiento Computacional como asignatura troncal contribuiría asimismo a reducir la brecha de género en las carreras tecnológicas ya que todos los estudiantes (chicos y chicas por igual) adquirían con naturalidad competencias tecnológicas, derribando así el estereotipo de género asociado a la tecnología.
Otras acciones positivas para fomentar la atracción, retención y desarrollo del talento femenino en nuestros sectores incluyen:
–La incorporación de evaluaciones ‘ciegas al género’ en tanto y cuanto sean posibles, tal y como hacen las orquestas sinfónicas;
–La exigencia de que haya un mínimo porcentaje de candidatas competitivas en las promociones, posiciones de liderazgo y premios y reconocimientos;
–Incentivos a la diversidad
–La creación de redes de monitorización y tutorización diversas –es decir, formadas por hombres y mujeres– que ayuden a las mujeres a estar conectadas, a ayudarse mutuamente y a darse cuenta de que, a pesar de ser una minoría, no están solas.