Controversia porque Reino Unido ya aplica inteligencia artificial en la toma de decisiones gubernamentales
Según una investigación de The Guardian, ciertos algoritmos usados por órganos estatales propician discriminación en procedimientos oficiales
Algunos casos destacados incluyen un algoritmo del Departamento de Trabajo y Pensiones (DWP) que, de acuerdo a un miembro del Parlamento, condujo erróneamente a que varias personas perdieran sus beneficios.
Además, una herramienta de reconocimiento facial empleada por la Policía Metropolitana demostró cometer más errores al reconocer rostros negros que blancos en ciertos escenarios. Asimismo, se usa un algoritmo del Ministerio del Interior para identificar matrimonios falsos, el cual ha seleccionado de manera desproporcionada a personas de determinadas nacionalidades.
Especialistas advierten que si los datos muestran evidencia de discriminación, es probable que la herramienta de IA también genere resultados discriminatorios. A pesar de ello, Rishi Sunak, Ministro de Hacienda del Reino Unido, ha elogiado recientemente cómo la tecnología podría transformar los servicios públicos, desde ahorrar tiempo a los maestros en la planificación de lecciones hasta ayudar a los pacientes del Servicio Nacional de Salud (NHS) a obtener diagnósticos más rápidos y pruebas más precisas.
Sin embargo, The Guardian señaló que la utilización de IA en el sector público no está exenta de controversias. En Países Bajos, por ejemplo, las autoridades fiscales la emplearon para detectar posibles fraudes en beneficios de atención infantil, pero fueron multados con €3,7 millones después de equivocarse repetidamente en las decisiones, sumiendo en la pobreza a decenas de miles de familias.
Shameem Ahmad, director ejecutivo del Proyecto de Ley Pública, señaló que la IA posee un gran potencial para el bien social pero no se pueden ignorar los riesgos. Marion Oswald, profesora de derecho en la Universidad de Northumbria y ex miembro del consejo asesor del gobierno sobre ética de datos, añadió que hay una falta de coherencia y transparencia en la forma en que se está utilizando la IA en el sector público.
Próximamente, Sunak convocará a jefes de estado en Bletchley Park para una cumbre internacional sobre seguridad en IA. Se espera que la cumbre defina los términos para el desarrollo de esta tecnología en el mundo en los años venideros, centrándose en la amenaza potencial que los modelos algorítmicos avanzados representan para toda la humanidad.
Durante años, los funcionarios han dependido de herramientas algorítmicas menos sofisticadas para ayudar a tomar decisiones sobre la vida cotidiana de las personas. En algunos casos, estas son sencillas y transparentes, como las puertas de pasaportes electrónicas o las cámaras de reconocimiento de matrículas, ambas impulsadas por software de reconocimiento visual alimentado por IA. No obstante, otros casos presentan software más potente y menos obvio para quienes se ven afectados por él.
La Oficina del Gabinete lanzó recientemente un “estándar de informes de transparencia algorítmica”, que alienta a los departamentos y a las autoridades policiales a revelar voluntariamente donde usan la IA para ayudar a tomar decisiones que podrían tener un impacto material en el público en general. Seis organizaciones han enumerado proyectos según este nuevo estándar de transparencia.
La investigación de The Guardian mostró que al menos ocho departamentos de Whitehall usan la IA de una forma u otra, siendo algunos mucho más dependientes que otros. Por ejemplo, el NHS ha usado la IA en varios contextos, incluyendo durante la pandemia de coronavirus, cuando las autoridades la utilizaron para identificar a pacientes en riesgo a quienes se debía recomendar aislamiento.
El Ministerio del Interior dijo que utiliza la IA para la lectura de pasaportes en aeropuertos, para ayudar con la presentación de solicitudes de pasaportes y en la “herramienta de cribado de matrimonios falsos”, que señala posibles uniones ilegítimas para una investigación más profunda. Una evaluación interna de este órgano estatal vista por The Guardian muestra que la herramienta marca desproporcionadamente a personas de Albania, Grecia, Rumania y Bulgaria.
Por otro lado, el DWP tiene un “servicio de inteligencia y riesgo integrado”, que utiliza un algoritmo para ayudar a detectar fraudes y errores entre los beneficiarios de las prestaciones. La parlamentaria laborista Kate Osamor cree que el uso de este algoritmo puede haber contribuido a que decenas de búlgaros vieran suspendidos sus beneficios en los últimos años tras ser señalados falsamente como autores de posibles reclamaciones fraudulentas. El DWP insiste en que el algoritmo no tiene en cuenta la nacionalidad.
Ni el DWP ni el Ministerio del Interior proporcionaron detalles de cómo funcionan los procesos automatizados, pero ambos afirmaron que los procesos que utilizan son justos porque las decisiones finales las toman las personas. Sin embargo, muchos expertos temen que algoritmos sesgados conduzcan a decisiones finales sesgadas, porque los funcionarios solo pueden revisar los casos que se les señalan y a menudo tienen tiempo limitado para hacerlo.