En su instituto de Dublín, Jen Gennai tenía un profesor de matemáticas que no toleraba que sacase menos de un sobresaliente en su asignatura. Ella, le repetía, no podía permitirse una nota menor. “Fue una gran inyección de confianza. Sobre todo teniendo en cuenta que, por lo general, la sociedad dictaba que a las mujeres no se nos podían dar bien las matemáticas”.
En la universidad se matriculó en una doble licenciatura que combinaba ingeniería y negocios. En el Trinity College de entonces, recuerda, en las clases de ingeniería el 90% eran hombres. “Al principio sentí orgullo. A las chicas que estábamos ahí se nos reconocía como más fuertes que las demás, pero no tardé en darme cuenta de que no debería ser así: mis compañeros no tenían esa sensación de triunfo, ¿por qué nosotras sí? ¿No se supone que somos iguales? Mi orgullo se transformó en enfado por ser juzgada por mi condición femenina en lugar de por mis capacidades”.
En esa época empezaron sus lecturas en torno a género e igualdad. “Estaba claro que había diferencias, y yo, curiosa por naturaleza, quería entenderlas y tratar de encontrar soluciones”. Y precisamente ese es uno de los cometidos de su trabajo: Gennai lidera el equipo de innovación responsable en Google.
“Nuestro objetivo consiste en asegurarnos de que todos nuestro productos no tienen ningún tipo de sesgos de raza, género, orientación sexual, nivel adquisitivo… Nuestros usuarios son muy diversos y tenemos que velar por que esas diferencias no sean malinterpretadas por tecnologías nuevas que se basan en la recolección de datos del mundo real como el machine-learning y la inteligencia artificial”, resume. Por ejemplo, evitar que, en el caso de desarrollar una plataforma de empleo, se identifique solo como posibles candidatos a puestos directivos a hombres (dado que son quienes tradicionalmente han ocupado tales cargos) o que sus sistemas de reconocimiento de voz identifiquen distintos acentos o incluso a personas con trastornos de habla como la tartamudez.
Los esfuerzos de Google forman parte de un clamor que, a la vista de fake news, desmanes en la privacidad de los usuarios y otros efectos indeseados, recorre Silicon Valley: es hora de que la industria atienda las implicaciones éticas de sus productos.
“En la comunidad tecnológica hemos pecado de ingenuidad. Hemos actuado convencidos de que todo lo que hacíamos iba a ser fantástico para todos, y eso no siempre ha sido verdad. Debemos responsabilizarnos de aquello que creamos”, razona Gennai. En su opinión, las universidades deben reaccionar de inmediato para que la ética sea una disciplina fundamental en los estudios tecnológicos. “En mi época no se hablaba de ética en el aula, pero ahora conocemos el impacto de los avances de la industria en la sociedad y debe ser un asunto central, no un mero accesorio a programas tan demandados como los de machine-learning”.
En Google hicieron públicos en junio de 2018 sus principios de inteligencia artificial, concebidos para regular la investigación y el desarrollo de esa tecnología en la compañía. Ahora la tarea de Gennai y su equipo consiste en garantizar que esos siete mandamientos se cumplen y en formar a los usuarios.
“Nuestros ingenieros no han estudiado filosofía y no entienden qué significa la ética en su trabajo. Tenemos que ayudarles a que interioricen una serie de nociones sobre la materia para que sean capaces de aplicarlas a su día a día”.