La creación en Granada del centro de IA de Emiratos provoca dimisiones en el grupo de expertos del Gobierno por discrepancias éticas
El acuerdo para crear en Granada la sede europea de un centro de Emiratos Árabes Unidos para el desarrollo de la Inteligencia Artificial (IA) y la computación avanzada ha provocado por discrepancias éticas la dimisión de tres de los 18 miembros del Consejo Asesor de Inteligencia Artificial, un organismo consultivo constituido en 2020 por el Gobierno para “garantizar un uso seguro y ético de la IA”.
Según informó 'El País', el primero en renunciar al puesto fue Carles Serra, director del Instituto de la IA del CSIC. Posteriormente dimitieron Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología y fundadora de centros como Algorithm Watch o The Ethical Society y Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experimental de Northwestern University, en Silicon Valley (San Francisco), catedrático de la Universidad Pompeu Fabra (Barcelona) y Premio Nacional de Informática
Según informó El País, el primero en renunciar al puesto fue Carles Serra, director del Instituto de la IA del CSIC. Posteriormente dimitieron Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología y fundadora de centros como Algorithm Watch o The Ethical Society y Ricardo Baeza-Yates, director de Investigación en el Instituto de IA Experimental de Northwestern University, en Silicon Valley (San Francisco), catedrático de la Universidad Pompeu Fabra (Barcelona) y Premio Nacional de Informática.
La razón, detalla el diario, fue la firma del convenio de colaboración el pasado día 21 de marzo entre el Gobierno de España, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial (Sedia), dependiente del Ministerio de Asuntos Económicos y Transformación Digital, y el instituto de investigación de Emiratos Árabes Unidos, ADIA Lab, por el que se creaba en Granada el centro europeo de este instituto de Emiratos.
La discrepancia de fondo que ha generado las dimisiones en el seno del grupo de expertos españoles de reconocido prestigio internacional se centra en que el acuerdo firmado en Granada “causa gran preocupación, pues contradice los principios de ética y seguridad con los que el Gobierno español se comprometió a desarrollar nuevas tecnologías”.
"La IA encubre y oscurece esas teorías con una espesa capa de lenguaje matemático que dificulta la comprensión del impacto de los sistemas creados”
Así, en una carta publicada en El País, firmada por cuatro destacados investigadores en IA, entre ellos, dos de los que han presentado su dimisión dos del Consejo Asesor, y titulada Una decisión que ignora los principios éticos en inteligencia artificial señala que ADIA Lab es un centro científico “financiado por un Gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes”.
“El uso de la IA de manera indiscriminada para resolver cualquier problema ha convertido esta disciplina en un espacio en el que antiguas teorías pseudocientíficas, racistas, sexistas y capacitistas, avaladas en su día por políticas del mismo talante, han reaparecido embebidas en sistemas con los que oprimir a gente pobre, personas negras y racializadas, discapacitadas, inmigrantes o mujeres. La IA encubre y oscurece esas teorías con una espesa capa de lenguaje matemático que dificulta la comprensión del impacto de los sistemas creados”, señalan los firmantes de la Tribuna.
Y, aunque aseveran, que “es loable que el gobierno español reconociera en su día dichos riesgos y para afrontarlos creara, en el año 2020, un consejo asesor para la IA cuyo objetivo era ‘proporcionar asesoramiento y recomendaciones independientes sobre las medidas a adoptar para garantizar un uso seguro y ético de la Inteligencia Artificial’”, no obstante, tras la revisión de la Estrategia Nacional de IA (ENIA), “el Consejo Asesor no ha sido consultado para analizar ‘las implicaciones que estas tecnologías disruptivas supondrán en ámbitos diversos’ en la mayoría de los casos, incluyendo el acuerdo entre el ADIA Lab y la Sedia (Secretaría de Estado de Digitalización e Inteligencia Artificial) para instaurar su sede europea en Granada. Un acuerdo que causa gran preocupación, pues contradice los principios de ética y seguridad con los que el gobierno español se comprometió a desarrollar nuevas tecnologías”.
"La Sedia ha acordado una agenda de investigación centrada, entre otros, en el desarrollo de una modelización económica del cambio climático y sus políticas de mitigación, así como el desarrollo de infraestructuras computacionales éticas con un centro científico financiado por un gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo
“En los EAU, la ciencia no es independiente del gobierno, según documentan organizaciones como Human Rights Watch. El gobierno influye sobre las decisiones de personal y agenda de los centros de investigación, incluyendo ADIA Lab. Por tanto, la Sedia ha acordado una agenda de investigación centrada, entre otros, en el desarrollo de una modelización económica del cambio climático y sus políticas de mitigación, así como el desarrollo de infraestructuras computacionales éticas con un centro científico financiado por un gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petróleo”.
“Es decir, investigaciones sobre la transición climática serán financiadas por entidades cuya riqueza proviene de combustibles fósiles y estudios sobre principios éticos serán financiados por un gobierno que cuestiona la dignidad y los derechos de determinadas personas. (…). En resumen, la credibilidad de los resultados de esta colaboración podría ser equiparable a la de informes sobre los efectos del tabaco en la salud que en su día hicieron las compañías tabacaleras”.
“La decisión de la Sedia ignora los principios éticos en la economía, en la ciencia en general y en la IA en concreto. El acuerdo con ADIA Lab reduce la ética en la IA a consideraciones técnicas simplistas e ignora que la ética en la IA también se extiende al contexto político y las condiciones bajo las que se desarrollan y financian sus resultados”."
"En resumen, la credibilidad de los resultados de esta colaboración podría ser equiparable a la de informes sobre los efectos del tabaco en la salud que en su día hicieron las compañías tabacaleras”
Y añaden en la Tribuna publicada en El País: “Esta alianza no hará de España un país más puntero en IA ni permite afirmar que “impulsa el desarrollo de una IA ética”, como aseguró la secretaria de Estado, Carme Artigas, en la firma del acuerdo.
La carta la firman, junto a Ricardo Baeza-Yates y Lorena Jaume-Palasí, que han dimitido del Consejo Asesor, Ramon López de Mántaras es uno de los pioneros de la IA en Europa y Premio Nacional de Investigación “Julio Rey Pastor” en Matemáticas y TIC por sus contribuciones a la IA, y Carmela Troncoso, profesora adjunta y jefa del Laboratorio de Ingeniería de Seguridad y Privacidad (SPRING) de la Escuela de Ciencias de la Computación y la Comunicación (IC) de la EPFL, Suiza. Es Premio CNIL-INRIA a la Protección de la Privacidad (2017).
Información de referencia:
También te puede interesar: