| |
← NODOS Entrega No. 3

La IA y el Gobierno: El Estado que se perpetúa a sí mismo

Gobernar sin inteligencia no es neutralidad. Gobernar sin inteligencia es una decisión de permanecer en el siglo XX.

Hay una escena que se repite en cualquier oficina de gobierno del mundo: la fila. La persona que espera, el funcionario que teclea sin mirar, el formulario que pide datos que ya se proporcionaron tres ventanillas atrás. La viví en Siria. La viví en Beirut. La vivo en México. No es un tema local, sino global.

La burocracia no es un accidente. Es un diseño. Y en muchos países, ese diseño tiene un objetivo que rara vez se nombra en los documentos oficiales: proteger la discrecionalidad de quien está detrás del escritorio.

Eso es lo que encontramos —junto con los doctores Zacarías Torres y Edgar Cardoso Espinosa, del IPN— al revisar sistemáticamente la literatura sobre inteligencia artificial y administración pública. El resultado es un paper que publicamos en Urban Governance (una prestigiosa revista de Shanghai), en 2025. El argumento central no es tecnológico. Es político: la IA no es una herramienta de eficiencia. Es una herramienta de poder. Y su adopción —o su rechazo— en el sector público no es un asunto técnico. Es una decisión sobre quién controla qué.

El Estado que se perpetúa a sí mismo

Los gobiernos modernos operan con modelos administrativos que tienen décadas, algunos siglos. El modelo burocrático weberiano —jerarquía clara, procedimiento estandarizado, funcionario neutral— fue un avance enorme cuando se formuló. Eliminó el favoritismo hereditario y puso reglas donde había capricho. Sin embargo, ese modelo tiene un defecto que Weber no anticipó: es extraordinariamente eficiente para reproducirse a sí mismo.

México es un caso de manual. La administración pública mexicana combina elementos del modelo burocrático con lo que los académicos llamamos clientelismo: la distribución de bienes y servicios públicos como mecanismo de fidelidad política. Los trámites no siempre son lentos por ineficiencia. A veces son lentos por diseño. La demora es palanca. El funcionario que puede acelerar un permiso tiene poder. Quitarle esa demora es quitarle ese poder.

¿Qué puede hacer la IA ante esto?

La respuesta depende de qué tipo de IA y para qué propósito. No es lo mismo automatizar un trámite que transformar la lógica del Estado.

El Machine Learning puede predecir demanda de servicios, detectar patrones de fraude en licitaciones públicas y optimizar la asignación de recursos con una precisión que ningún funcionario puede alcanzar manualmente. El Procesamiento del Lenguaje Natural puede leer millones de documentos gubernamentales y extraer información accionable en minutos. Los modelos de lenguaje (LLM) pueden responder a ciudadanos en múltiples idiomas, guiarlos por procesos administrativos complejos y reducir la fricción burocrática sin horario de oficina.

Todo eso es real. Todo eso ya ocurre en algún lugar del mundo.

Pero hay una trampa.

La caja negra con sello oficial

El problema más profundo de la IA en la administración pública no es técnico. Es de accountability.

Cuando un algoritmo niega una solicitud de vivienda, ¿quién responde? Cuando un modelo predictivo señala a una persona como riesgo de evasión fiscal y el fisco actúa sobre esa señal, ¿quién puede apelar? Cuando un sistema de contratación pública puntúa automáticamente las ofertas, ¿quién verifica que los criterios no favorecen a ciertos proveedores?

La opacidad de los modelos complejos, el llamado problema de la caja negra, no es un inconveniente menor. En el contexto gubernamental, es una amenaza directa a los derechos de los ciudadanos.

Por eso, uno de los pilares de nuestra investigación es la IA Explicable, o XAI. Las técnicas de XAI (LIME, SHAP, modelos interpretables por diseño, auditorías de decisiones) tienen un propósito que va más allá de la transparencia técnica: permiten que un ciudadano entienda por qué el sistema tomó la decisión que tomó, y que un juez pueda revisarla.

Sin explicabilidad, la IA en el gobierno no democratiza. Opaca.

Hay un segundo problema: el sesgo en los datos de entrenamiento. Los algoritmos aprenden de datos históricos. Si esos datos reflejan décadas de discriminación (en acceso al crédito, en servicios de salud, en asignación de contratos) el modelo aprenderá a perpetuar esa discriminación con mayor velocidad y menor visibilidad.

Un modelo entrenado con datos de contratación pública en México aprenderá, entre otras cosas, que ciertas empresas tienen más probabilidad de ganar licitaciones. No porque sean mejores. Sino porque históricamente ganaron más, y el modelo no distingue mérito de red de influencia.

La mitigación de ese sesgo requiere intervenir en el proceso completo: en los datos antes del entrenamiento, en el algoritmo durante el entrenamiento, y en los resultados después. No es un problema que se resuelva con un ajuste técnico. Requiere auditorías, equipos diversos, y marcos de gobernanza que la mayoría de los gobiernos de América Latina no tienen todavía.

Lo que México necesita y lo que tenemos

El diagnóstico de la investigación para países como México es claro en cuatro puntos.

Primero: la infraestructura. Los modelos de IA requieren capacidad de cómputo, conectividad y energía estable. México tiene déficits en los tres. Un gobierno que no puede garantizar electricidad continua en sus oficinas regionales no puede operar sistemas de IA en tiempo real. El nodo energético —que discutimos en entregas anteriores de NODOS— no es separable del nodo digital.

Segundo: el talento. México forma ingenieros y científicos de datos. También los exporta. Sin condiciones de trabajo competitivas en el sector público, los mejores perfiles van al sector privado o cruzan la frontera.

Tercero: los datos. La administración pública mexicana tiene datos. Muchos. Pero en silos. Cada dependencia guarda su información, en formatos distintos, con estándares distintos, sin interoperabilidad.

Cuarto: el marco jurídico. México no tiene una ley de IA. No tiene una estrategia nacional vinculante. No tiene un organismo con mandato claro para coordinar la adopción de estas tecnologías en el Estado.

La propuesta que formulamos en el paper es concreta: una Secretaría Federal de Tecnología de la Información y Ciberseguridad, con mandato transversal. Y una red de instituciones públicas de investigación en IA, articuladas con universidades como la Anáhuac y el IPN, orientadas a desarrollar modelos adaptados a la realidad mexicana.

El nodo que conecta todo

En las dos entregas anteriores de NODOS hablamos de energía y de IA como instrumentos de poder global. Esa discusión parecía ubicarse en Teherán, en el Golfo, en los centros de datos de Amazon. Pero el mismo principio opera a escala nacional.

Un Estado que no adopta IA no permanece neutral. Cede terreno. Las decisiones que no toma el algoritmo las sigue tomando el intermediario, el gestor, el funcionario con discrecionalidad no regulada. La pregunta no es si la IA reemplaza a los burócratas. La pregunta es qué tipo de Estado queremos construir.

Lo que encontramos en la investigación es que la IA, bien implementada, puede erosionar el clientelismo no por decreto sino por diseño: si el trámite es automático, si el criterio es público, si la decisión es auditable, el espacio para el favor discrecional se contrae. No desaparece. Pero se contrae.

Eso es más que eficiencia. Es una transformación del contrato entre el Estado y el ciudadano.

El camino no es sencillo. Los países que van adelante (Singapur, Corea del Sur, la Unión Europea) llevan años construyendo esa infraestructura. México tiene capacidad de hacer lo mismo. Tiene universidades, investigadores, instituciones. Lo que falta no es inteligencia. Lo que falta es decisión política.

← NODOS Issue No. 3

AI and Government: The State that perpetuates itself

Governing without intelligence is not neutrality. Governing without intelligence is a decision to remain in the 20th century.

There is a scene that repeats itself in any government office in the world: the line. The person waiting, the clerk typing without looking up, the form requesting data already provided three windows ago. I lived it in Syria. I lived it in Beirut. I live it in Mexico. It is not a local issue — it is global.

Bureaucracy is not an accident. It is a design. And in many countries, that design has an objective rarely named in official documents: to protect the discretion of the person behind the desk.

That is what we found — together with Drs. Zacarías Torres and Edgar Cardoso Espinosa from IPN — when we systematically reviewed the literature on artificial intelligence and public administration. The result is a paper we published in Urban Governance (a prestigious Shanghai journal) in 2025. The central argument is not technological. It is political: AI is not an efficiency tool. It is a tool of power. And its adoption — or rejection — in the public sector is not a technical matter. It is a decision about who controls what.

The State that perpetuates itself

Modern governments operate with administrative models that are decades, some centuries, old. The Weberian bureaucratic model — clear hierarchy, standardized procedure, neutral official — was a huge advance when it was formulated. It eliminated hereditary favoritism and put rules where there was whim. However, that model has a flaw Weber did not anticipate: it is extraordinarily efficient at reproducing itself.

Mexico is a textbook case. Mexican public administration combines elements of the bureaucratic model with what academics call clientelism: the distribution of public goods and services as a mechanism of political loyalty. Procedures are not always slow due to inefficiency. Sometimes they are slow by design. Delay is leverage. The official who can expedite a permit has power. Removing that delay means removing that power.

What can AI do about this?

The answer depends on what type of AI and for what purpose. Automating a procedure is not the same as transforming the logic of the State.

Machine Learning can predict service demand, detect fraud patterns in public procurement, and optimize resource allocation with precision no official can achieve manually. Natural Language Processing can read millions of government documents and extract actionable information in minutes. Large Language Models (LLMs) can respond to citizens in multiple languages, guide them through complex administrative processes, and reduce bureaucratic friction without office hours.

All of that is real. All of that already happens somewhere in the world.

But there is a trap.

The black box with an official seal

The deepest problem with AI in public administration is not technical. It is about accountability.

When an algorithm denies a housing application, who answers? When a predictive model flags a person as a tax evasion risk and the tax authority acts on that signal, who can appeal? When a public procurement system automatically scores bids, who verifies the criteria don't favor certain suppliers?

The opacity of complex models — the so-called black box problem — is not a minor inconvenience. In a government context, it is a direct threat to citizens' rights.

That is why one of the pillars of our research is Explainable AI, or XAI. XAI techniques (LIME, SHAP, interpretable-by-design models, decision audits) serve a purpose beyond technical transparency: they allow a citizen to understand why the system made the decision it made, and a judge to review it.

Without explainability, AI in government does not democratize. It obscures.

There is a second problem: bias in training data. Algorithms learn from historical data. If that data reflects decades of discrimination (in credit access, health services, contract allocation), the model will learn to perpetuate that discrimination faster and less visibly.

A model trained on Mexican public procurement data will learn, among other things, that certain companies are more likely to win bids. Not because they are better. But because they historically won more, and the model cannot distinguish merit from influence networks.

Mitigating that bias requires intervening in the entire process: in the data before training, in the algorithm during training, and in the results afterward. It is not a problem solved with a technical tweak. It requires audits, diverse teams, and governance frameworks that most Latin American governments do not yet have.

What Mexico needs and what we have

The research diagnosis for countries like Mexico is clear on four points.

First: infrastructure. AI models require computing capacity, connectivity, and stable energy. Mexico has deficits in all three. A government that cannot guarantee continuous electricity in its regional offices cannot operate real-time AI systems. The energy node — discussed in previous NODOS issues — is inseparable from the digital node.

Second: talent. Mexico trains engineers and data scientists. It also exports them. Without competitive working conditions in the public sector, the best profiles go to the private sector or cross the border.

Third: data. Mexican public administration has data. A lot. But in silos. Each agency stores its information in different formats, with different standards, without interoperability.

Fourth: the legal framework. Mexico has no AI law. No binding national strategy. No agency with a clear mandate to coordinate the adoption of these technologies in government.

The proposal we formulate in the paper is concrete: a Federal Secretariat of Information Technology and Cybersecurity, with cross-cutting authority. And a network of public AI research institutions, linked with universities like Anáhuac and IPN, oriented toward developing models adapted to Mexico's reality.

The node that connects everything

In the two previous NODOS issues we discussed energy and AI as instruments of global power. That discussion seemed to take place in Tehran, in the Gulf, in Amazon's data centers. But the same principle operates at the national scale.

A State that does not adopt AI does not remain neutral. It cedes ground. The decisions not made by the algorithm continue to be made by the intermediary, the broker, the official with unregulated discretion. The question is not whether AI replaces bureaucrats. The question is what kind of State we want to build.

What we found in the research is that AI, well implemented, can erode clientelism not by decree but by design: if the procedure is automatic, if the criteria are public, if the decision is auditable, the space for discretionary favor contracts. It does not disappear. But it contracts.

That is more than efficiency. It is a transformation of the contract between the State and the citizen.

The path is not easy. The countries that are ahead (Singapore, South Korea, the European Union) have spent years building that infrastructure. Mexico has the capacity to do the same. It has universities, researchers, institutions. What is lacking is not intelligence. What is lacking is political will.

← NODOS Numéro 3

L'IA et le Gouvernement : L'État qui se perpétue lui-même

Gouverner sans intelligence n'est pas de la neutralité. Gouverner sans intelligence, c'est choisir de rester au XXe siècle.

Il y a une scène qui se répète dans n'importe quel bureau gouvernemental du monde : la file d'attente. La personne qui attend, le fonctionnaire qui tape sans lever les yeux, le formulaire qui demande des données déjà fournies trois guichets plus tôt. Je l'ai vécue en Syrie. Je l'ai vécue à Beyrouth. Je la vis au Mexique. Ce n'est pas un problème local — c'est mondial.

La bureaucratie n'est pas un accident. C'est un design. Et dans de nombreux pays, ce design a un objectif rarement nommé dans les documents officiels : protéger le pouvoir discrétionnaire de celui qui est derrière le bureau.

C'est ce que nous avons trouvé — avec les docteurs Zacarías Torres et Edgar Cardoso Espinosa de l'IPN — en examinant systématiquement la littérature sur l'intelligence artificielle et l'administration publique. Le résultat est un article que nous avons publié dans Urban Governance (une prestigieuse revue de Shanghai) en 2025. L'argument central n'est pas technologique. Il est politique : l'IA n'est pas un outil d'efficacité. C'est un outil de pouvoir.

L'État qui se perpétue lui-même

Les gouvernements modernes fonctionnent avec des modèles administratifs vieux de décennies, parfois de siècles. Le modèle bureaucratique wébérien — hiérarchie claire, procédure standardisée, fonctionnaire neutre — a été une avancée énorme. Cependant, ce modèle a un défaut que Weber n'avait pas anticipé : il est extraordinairement efficace pour se reproduire lui-même.

Le Mexique est un cas d'école. L'administration publique mexicaine combine des éléments du modèle bureaucratique avec ce que les universitaires appellent le clientélisme : la distribution de biens et services publics comme mécanisme de fidélité politique. Les démarches ne sont pas toujours lentes par inefficacité. Parfois, elles sont lentes par conception. Le retard est un levier. Le fonctionnaire qui peut accélérer un permis a du pouvoir.

Que peut faire l'IA face à cela ?

Le Machine Learning peut prédire la demande de services, détecter des schémas de fraude dans les marchés publics et optimiser l'allocation des ressources. Le traitement du langage naturel peut lire des millions de documents gouvernementaux et en extraire des informations exploitables en minutes. Les grands modèles de langage (LLM) peuvent répondre aux citoyens en plusieurs langues et réduire la friction bureaucratique sans horaires de bureau.

La boîte noire avec un sceau officiel

Le problème le plus profond de l'IA dans l'administration publique n'est pas technique. C'est une question de responsabilité (accountability).

Quand un algorithme refuse une demande de logement, qui répond ? Quand un modèle prédictif signale une personne comme risque d'évasion fiscale, qui peut faire appel ? L'opacité des modèles complexes — le problème de la boîte noire — est une menace directe aux droits des citoyens.

C'est pourquoi l'un des piliers de notre recherche est l'IA explicable, ou XAI. Les techniques de XAI (LIME, SHAP, modèles interprétables par conception) permettent à un citoyen de comprendre pourquoi le système a pris la décision qu'il a prise, et à un juge de la réviser.

Sans explicabilité, l'IA dans le gouvernement ne démocratise pas. Elle opacifie.

Il y a un second problème : le biais dans les données d'entraînement. Les algorithmes apprennent à partir de données historiques. Si ces données reflètent des décennies de discrimination, le modèle apprendra à perpétuer cette discrimination plus rapidement et moins visiblement.

Ce dont le Mexique a besoin et ce que nous avons

Le diagnostic est clair sur quatre points : l'infrastructure, le talent, les données et le cadre juridique. Le Mexique a des déficits dans les quatre domaines.

La proposition que nous formulons est concrète : un Secrétariat fédéral de la technologie de l'information et de la cybersécurité, avec un mandat transversal. Et un réseau d'institutions publiques de recherche en IA, articulées avec des universités comme l'Anáhuac et l'IPN.

Le nœud qui relie tout

Un État qui n'adopte pas l'IA ne reste pas neutre. Il cède du terrain. Ce que nous avons trouvé dans la recherche, c'est que l'IA, bien mise en œuvre, peut éroder le clientélisme non par décret mais par conception : si la démarche est automatique, si le critère est public, si la décision est auditable, l'espace pour la faveur discrétionnaire se contracte.

C'est plus que de l'efficacité. C'est une transformation du contrat entre l'État et le citoyen.

Le chemin n'est pas simple. Les pays en avance (Singapour, la Corée du Sud, l'Union européenne) construisent cette infrastructure depuis des années. Le Mexique a la capacité de faire de même. Ce qui manque, ce n'est pas l'intelligence. Ce qui manque, c'est la décision politique.