Gobernar sin inteligencia no es neutralidad. Gobernar sin inteligencia es una decisión de permanecer en el siglo XX.
Hay una escena que se repite en cualquier oficina de gobierno del mundo: la fila. La persona que espera, el funcionario que teclea sin mirar, el formulario que pide datos que ya se proporcionaron tres ventanillas atrás. La viví en Siria. La viví en Beirut. La vivo en México. No es un tema local, sino global.
La burocracia no es un accidente. Es un diseño. Y en muchos países, ese diseño tiene un objetivo que rara vez se nombra en los documentos oficiales: proteger la discrecionalidad de quien está detrás del escritorio.
Eso es lo que encontramos —junto con los doctores Zacarías Torres y Edgar Cardoso Espinosa, del IPN— al revisar sistemáticamente la literatura sobre inteligencia artificial y administración pública. El resultado es un paper que publicamos en Urban Governance (una prestigiosa revista de Shanghai), en 2025. El argumento central no es tecnológico. Es político: la IA no es una herramienta de eficiencia. Es una herramienta de poder. Y su adopción —o su rechazo— en el sector público no es un asunto técnico. Es una decisión sobre quién controla qué.
El Estado que se perpetúa a sí mismo
Los gobiernos modernos operan con modelos administrativos que tienen décadas, algunos siglos. El modelo burocrático weberiano —jerarquía clara, procedimiento estandarizado, funcionario neutral— fue un avance enorme cuando se formuló. Eliminó el favoritismo hereditario y puso reglas donde había capricho. Sin embargo, ese modelo tiene un defecto que Weber no anticipó: es extraordinariamente eficiente para reproducirse a sí mismo.
México es un caso de manual. La administración pública mexicana combina elementos del modelo burocrático con lo que los académicos llamamos clientelismo: la distribución de bienes y servicios públicos como mecanismo de fidelidad política. Los trámites no siempre son lentos por ineficiencia. A veces son lentos por diseño. La demora es palanca. El funcionario que puede acelerar un permiso tiene poder. Quitarle esa demora es quitarle ese poder.
¿Qué puede hacer la IA ante esto?
La respuesta depende de qué tipo de IA y para qué propósito. No es lo mismo automatizar un trámite que transformar la lógica del Estado.
El Machine Learning puede predecir demanda de servicios, detectar patrones de fraude en licitaciones públicas y optimizar la asignación de recursos con una precisión que ningún funcionario puede alcanzar manualmente. El Procesamiento del Lenguaje Natural puede leer millones de documentos gubernamentales y extraer información accionable en minutos. Los modelos de lenguaje (LLM) pueden responder a ciudadanos en múltiples idiomas, guiarlos por procesos administrativos complejos y reducir la fricción burocrática sin horario de oficina.
Todo eso es real. Todo eso ya ocurre en algún lugar del mundo.
Pero hay una trampa.
La caja negra con sello oficial
El problema más profundo de la IA en la administración pública no es técnico. Es de accountability.
Cuando un algoritmo niega una solicitud de vivienda, ¿quién responde? Cuando un modelo predictivo señala a una persona como riesgo de evasión fiscal y el fisco actúa sobre esa señal, ¿quién puede apelar? Cuando un sistema de contratación pública puntúa automáticamente las ofertas, ¿quién verifica que los criterios no favorecen a ciertos proveedores?
La opacidad de los modelos complejos, el llamado problema de la caja negra, no es un inconveniente menor. En el contexto gubernamental, es una amenaza directa a los derechos de los ciudadanos.
Por eso, uno de los pilares de nuestra investigación es la IA Explicable, o XAI. Las técnicas de XAI (LIME, SHAP, modelos interpretables por diseño, auditorías de decisiones) tienen un propósito que va más allá de la transparencia técnica: permiten que un ciudadano entienda por qué el sistema tomó la decisión que tomó, y que un juez pueda revisarla.
Sin explicabilidad, la IA en el gobierno no democratiza. Opaca.
Hay un segundo problema: el sesgo en los datos de entrenamiento. Los algoritmos aprenden de datos históricos. Si esos datos reflejan décadas de discriminación (en acceso al crédito, en servicios de salud, en asignación de contratos) el modelo aprenderá a perpetuar esa discriminación con mayor velocidad y menor visibilidad.
Un modelo entrenado con datos de contratación pública en México aprenderá, entre otras cosas, que ciertas empresas tienen más probabilidad de ganar licitaciones. No porque sean mejores. Sino porque históricamente ganaron más, y el modelo no distingue mérito de red de influencia.
La mitigación de ese sesgo requiere intervenir en el proceso completo: en los datos antes del entrenamiento, en el algoritmo durante el entrenamiento, y en los resultados después. No es un problema que se resuelva con un ajuste técnico. Requiere auditorías, equipos diversos, y marcos de gobernanza que la mayoría de los gobiernos de América Latina no tienen todavía.
Lo que México necesita y lo que tenemos
El diagnóstico de la investigación para países como México es claro en cuatro puntos.
Primero: la infraestructura. Los modelos de IA requieren capacidad de cómputo, conectividad y energía estable. México tiene déficits en los tres. Un gobierno que no puede garantizar electricidad continua en sus oficinas regionales no puede operar sistemas de IA en tiempo real. El nodo energético —que discutimos en entregas anteriores de NODOS— no es separable del nodo digital.
Segundo: el talento. México forma ingenieros y científicos de datos. También los exporta. Sin condiciones de trabajo competitivas en el sector público, los mejores perfiles van al sector privado o cruzan la frontera.
Tercero: los datos. La administración pública mexicana tiene datos. Muchos. Pero en silos. Cada dependencia guarda su información, en formatos distintos, con estándares distintos, sin interoperabilidad.
Cuarto: el marco jurídico. México no tiene una ley de IA. No tiene una estrategia nacional vinculante. No tiene un organismo con mandato claro para coordinar la adopción de estas tecnologías en el Estado.
La propuesta que formulamos en el paper es concreta: una Secretaría Federal de Tecnología de la Información y Ciberseguridad, con mandato transversal. Y una red de instituciones públicas de investigación en IA, articuladas con universidades como la Anáhuac y el IPN, orientadas a desarrollar modelos adaptados a la realidad mexicana.
El nodo que conecta todo
En las dos entregas anteriores de NODOS hablamos de energía y de IA como instrumentos de poder global. Esa discusión parecía ubicarse en Teherán, en el Golfo, en los centros de datos de Amazon. Pero el mismo principio opera a escala nacional.
Un Estado que no adopta IA no permanece neutral. Cede terreno. Las decisiones que no toma el algoritmo las sigue tomando el intermediario, el gestor, el funcionario con discrecionalidad no regulada. La pregunta no es si la IA reemplaza a los burócratas. La pregunta es qué tipo de Estado queremos construir.
Lo que encontramos en la investigación es que la IA, bien implementada, puede erosionar el clientelismo no por decreto sino por diseño: si el trámite es automático, si el criterio es público, si la decisión es auditable, el espacio para el favor discrecional se contrae. No desaparece. Pero se contrae.
Eso es más que eficiencia. Es una transformación del contrato entre el Estado y el ciudadano.
El camino no es sencillo. Los países que van adelante (Singapur, Corea del Sur, la Unión Europea) llevan años construyendo esa infraestructura. México tiene capacidad de hacer lo mismo. Tiene universidades, investigadores, instituciones. Lo que falta no es inteligencia. Lo que falta es decisión política.