Governments around the world are exploring how to leverage artificial intelligence (AI) and algorithms for decision-making and public service delivery. As these technologies increasingly become a part of civic life, it’s important that those working to incorporate these systems in government have the capacity to assess whether AI is an appropriate tool, and if so, to ensure that it’s implemented in a way that is effective (achieves their objectives) and legitimate (are fair, non discriminatory, transparent, and the product of participatory processes).
Our new report, Algorithms and Artificial Intelligence in Latin America, builds on a background paper by the Latin American Open Data Initiative (ILDA) to explore four cases in Argentina and Uruguay where AI technology has been introduced in areas as varied as predicting teenage pregnancy and identifying areas in a city that are promising for business development.
AI for the public interest
AI technologies dramatically alter the way that governments engage with the people. To make sure these tools maximise the benefits and minimise potential risks to people, governments must embed them within frameworks of transparency, public participation, and accountability.
The use of AI in Latin America is only now beginning to gain traction. These governments, at an early stage in their AI journeys, have an opportunity to develop clear policies and practices that will help public officials decide whether to deploy AI, and where AI is used, to ensure technologies are implemented in a way that is both effective and legitimate — ultimately working towards the promotion of people's rights and interests.
Building for effectiveness and legitimacy
Currently, officials pursuing AI technologies are faced with many vendors but few mechanisms to evaluate the effectiveness or the legitimacy of tools. As enthusiasm grows for the adoption of these technologies, there is a risk that governments implement useless, inefficient, and even harmful systems. They urgently need to build mechanisms and skills to properly assess the growing suite of tools available. This report offers government leaders a framework to think through the key dimensions that ought to be discussed as AI policy is being developed and AI systems are being considered.
An open and closed case
The examples examined in the report show that tools and their implementation vary wildly in delivering legitimacy and effectiveness. For instance, an algorithm used by the City Government in Buenos Aires was used to power dashboards that outlined commercial opportunities in the city’s neighbourhoods, as a way to efficiently direct investment. As the report explains, the algorithm is simple and implemented in a transparent way.
Meanwhile, the government in Uruguay acquired predictive policing software Predpol, with the goal of anticipating where crimes would occur and deploying police officers more effectively. The system’s high degree of opacity and its potential to reinforce discrimination and exclusion makes it a problematic case. The Ministry of the Interior scrapped the system in under three years, replacing it with retrospective statistical tools developed by the Ministry's own teams which proved more effective.
Recommendations for governments using AI
The report provides three main recommendations to governments:
- Develop infrastructure and government expertise for the use of AI techniques
- Ensure transparency, public participation and accountability in the development and implementation of AI techniques
- Establish actionable criteria for evaluating the risks of different models and their implementation
As these AI systems have the power to fundamentally alter societies, how do we make sure that this transformation is for better, not worse? Spaces for critical discussion between civil society, technologists and government can operate as a sounding board for decision-makers, and provide an informal set of checks and balances that are much needed, given the technology’s novelty and lack of regulation.
We hope this report is useful to public officials who are considering the value of introducing AI-powered technologies in the public sector. In the spirit of collaboration, we welcome your feedback and ideas on this report. Let’s work together to ensure that new technologies lead to a fairer world.
Download the report (available in Spanish) to explore the case studies and read the recommendations in full.
Informe: ¿Cómo utilizan los gobiernos de América Latina la inteligencia artificial?
Los gobiernos de todo el mundo están explorando cómo aprovechar la inteligencia artificial (IA) y los algoritmos para la toma de decisiones y la prestación de servicios públicos. A medida que estas tecnologías se incorporan más y más a la vida cívica, es importante que quienes trabajan para incorporar estos sistemas en el gobierno tengan la capacidad de evaluar si la IA es una herramienta adecuada para una tarea en cuestión y, de ser así, garantizar que se implemente de manera efectiva (logra sus objetivos) y legítimos (son justos, no discriminatorios, transparentes y el producto de procesos participativos).
Nuestro informe, Algoritmos e Inteligencia Artificial en Latinoamérica, se apoya en un informe de contexto de la Iniciativa Latinoamericana para los Datos Abiertos (ILDA) para explorar cuatro casos en Argentina y Uruguay donde funcionarios intentan aprovechar en estas tecnologías para tareas tan diversas como predecir casos de embarazo adolescente e identificar áreas de una ciudad que son prometedoras para el desarrollo comercial.
IA de interés público
Las tecnologías de inteligencia artificial alteran drásticamente la forma en que los gobiernos se relacionan con las personas. Para asegurarse de que estas herramientas maximicen los beneficios y minimicen los riesgos potenciales para las personas, los gobiernos deben integrarlos dentro de marcos de transparencia, participación pública y rendición de cuentas.
El uso de la IA en América Latina está comenzando a ganar tracción. Los gobiernos de la región, aún en una etapa temprana, tienen la oportunidad de desarrollar políticas y prácticas claras que ayuden a los funcionarios públicos a decidir si implementar IA, y dónde se aprovecha la IA, crear mecanismos que garanticen implementaciones efectivas y legítimas, que tiendan a la promoción de los derechos e intereses de los habitantes.
Construyendo para la efectividad y la legitimidad
Actualmente los y las funcionarios y funcionarias encargadas de definir si se aprovecharán sistemas de IA se enfrentan a muchos proveedores y pocos mecanismos para evaluar la efectividad o la legitimidad de las herramientas que se ofrecen. A medida que aumenta el entusiasmo por la adopción de estas tecnologías, aumenta también el riesgo de que los gobiernos implementen sistemas inútiles, ineficientes e incluso dañinos. Por lo tanto, se vuelve urgente la creación de mecanismos para evaluar las herramientas disponibles. Este informe propone un marco para pensar y debatir las dimensiones que deberían considerarse en este proceso.
Casos abiertos y cerrados
Los ejemplos examinados en el informe muestran que las herramientas y su implementación varían enormemente en materia de efectividad y legitimidad. Por ejemplo, un algoritmo creado por el gobierno de la Ciudad Autónoma de Buenos Aires se utiliza para visibilizar oportunidades comerciales en los distintos barrios de la ciudad, reduciendo así la brecha informativa entre grandes empresas y pequeños inversores. Como explica el informe, el algoritmo es simple y se han tomado pasos en implementación que lo vuelven sumamente transparente.
Mientras tanto, el gobierno uruguayo adquirió el software predictivo Predpol, con el objetivo de anticipar dónde ocurrirían crímenes y así administrar el despliegue de agentes de policía de manera más efectiva. El alto grado de opacidad del sistema y su potencial para reforzar la discriminación y la exclusión lo convierten en un caso problemático. El Ministerio del Interior dio de baja el sistema en menos de tres años, reemplazandolo con un mapa estático creado a partir de estadísticas retrospectivas desarrolladas por los propios equipos del Ministerio.
Recomendaciones para gobiernos que usan IA
El informe proporciona tres recomendaciones principales:
- Desarrollar la infraestructura y experticia del gobierno necesarias para el análisis crítico y aprovechamiento efectivo de técnicas de IA
- Garantizar la transparencia, la participación pública y la rendición de cuentas en el desarrollo y la implementación de las técnicas de IA
- Establecer criterios accionables para evaluar los riesgos de diferentes modelos y su implementación
En tanto la implementación de técnicas de IA podrían alterar fundamentalmente las dinámicas sociales y políticas, ¿cómo nos aseguramos de que esta transformación sea positiva? Los espacios de discusión crítica entre la sociedad civil, tecnólogos, y el gobierno pueden funcionar como una caja de resonancia para los tomadores de decisiones, y proporcionar un conjunto informal de controles y contrapesos que son muy necesarios dada la novedad de la tecnología y la falta de regulación.
Esperamos que el documento sea útil para las funcionarias y funcionarios públicos que actualmente están considerando el valor de introducir estas tecnologías en el sector público. En línea con el espíritu de colaboración que impulsa este informe, agradecemos sus comentarios e ideas. Trabajemos juntos para garantizar que las nuevas tecnologías conduzcan a un mundo más justo.
Descargue el informe (disponible también en inglés) para explorar los casos de estudio y leer las recomendaciones en su totalidad.
For more updates, follow us on Twitter at @webfoundation and sign up to receive our newsletter.
To receive a weekly news brief on the most important stories in tech, subscribe to The Web This Week.