El debate sobre la gobernanza de la inteligencia artificial ha madurado considerablemente en los últimos años. Hoy en día ya existe un conjunto relevante de referencias que tratan sobre gestión de riesgos, supervisión humana, transparencia, documentación, monitoreo y mejora continua. El NIST AI RMF — el marco del Instituto Nacional de Estándares y Tecnología de los Estados Unidos para la gestión de riesgos en inteligencia artificial — fue creado para ayudar a las organizaciones a identificar, medir, tratar y monitorear los riesgos asociados con los sistemas de IA. La Ley Europea de IA (AI Act) adopta una lógica basada en el riesgo y exige, para los sistemas de mayor criticidad, medidas como documentación, registros de operación, información adecuada para el usuario final y una supervisión humana apropiada. La ISO/IEC 42001, la norma internacional de sistemas de gestión para la inteligencia artificial, organiza el tema en torno a la política, el riesgo, la gobernanza de datos, la transparencia, el monitoreo y la mejora continua.
Todo esto es importante — y aún así no agota el problema.
El punto es que gran parte del debate sigue centrado en el sistema de IA y su ciclo de vida, o como mucho en su uso responsable, mientras que la pregunta decisiva suele surgir un paso después:
"¿La decisión que usó inteligencia artificial fue buena, explicable, responsable y conectada con valor?"
Es exactamente aquí donde surge la idea de la gobernanza de la última milla de la IA.
Aquí, “última milla” no es una nueva etiqueta regulatoria. Es una lente práctica. Se refiere al tramo que hay entre la salida producida por un sistema de IA y la decisión efectivamente asumida por una persona, un área o una organización. Es el punto donde la recomendación se convierte en elección, la elección se convierte en ejecución, y la ejecución comienza a producir consecuencias económicas, regulatorias, operativas y reputacionales.
En términos sencillos: no basta con gobernar el modelo. No basta con gobernar el uso de la IA. También es necesario gobernar la decisión que usa la IA.
Esta formulación no contradice lo que ya existe en el debate actual. Por el contrario, se deriva de él. La propia OCDE — Organización para la Cooperación y el Desarrollo Económicos — aborda la transparencia en sus directrices recientes como la obligación de informar cuando se está utilizando inteligencia artificial en un pronóstico, recomendación, decisión o interacción. Y trata la explicabilidad como la capacidad de permitir que las partes interesadas comprendan cómo se produjo un resultado y, cuando corresponda, puedan cuestionarlo.
Es decir: el propio debate ya apunta a la decisión. Lo que aún falta, en muchos casos, es tratarla como un objeto explícito de gobernanza.
Dónde se materializa realmente el riesgo
Un modelo puede ser técnicamente aceptable y, aun así, la decisión construida a partir de él ser deficiente.
Esto puede suceder por varias razones. Puede haber contexto incompleto. Los datos pueden ser inadecuados para el caso concreto. Pueden no haberse considerado alternativas reales. Podría haber un exceso de confianza (over-reliance) en la recomendación producida por la IA. Podría no estar claro quién responde por la decisión. Podría no existir la capacidad de explicar, después, por qué se optó por ese camino de esa forma.
En entornos regulados, esto se vuelve aún más evidente. El Banco de Pagos Internacionales (BIS), al debatir los efectos de la IA en el sector financiero, llama la atención sobre temas como la explicabilidad, la gobernanza de datos y la gestión del riesgo de modelos. El desafío no es solo hacer que el sistema funcione. Es garantizar que su uso en decisiones relevantes no produzca opacidad indebida, fragilidad en la responsabilidad o deterioro de los controles prudenciales.
Por tanto, la última milla no debería ser tratada como un detalle de implementación. Es el punto donde convergen cuatro preguntas al mismo tiempo:
- ✦ Epistémica: ¿con qué calidad de evidencia se sustentó esta decisión?
- ✦ Fiduciaria: ¿quién responde por ella?
- ✦ Regulatoria: ¿este resultado puede ser explicado, auditado y contestado cuando sea necesario?
- ✦ Económica: ¿esta decisión preservó o destruyó valor?
El debate contemporáneo sobre la gobernanza de la IA ya aporta piezas importantes de este rompecabezas. Lo que aún debe madurar es la unión de estas piezas en el momento en que la organización actúa sobre la salida de la IA.
Qué intenta resolver la gobernanza de la última milla
La gobernanza de la última milla no pretende sustituir la gobernanza de modelos. Tampoco los programas de uso responsable de la inteligencia artificial. Opera en otra capa.
Su foco está en preguntas como:
- ¿Cuál fue el papel de la IA en esta decisión?
- ¿Entró como contexto, recomendación, priorización o evidencia?
- ¿Hubo alternativas reales antes de la elección?
- ¿La calidad de los datos fue suficiente para esta decisión específica?
- ¿La cadena de responsabilidad quedó clara?
- ¿Será posible dar una explicación posterior al auditor, regulador, cliente, paciente, ciudadano o a junta directiva?
- ¿La decisión fue monitoreada después de ser ejecutada?
- ¿El resultado generó aprendizaje, o solo un efecto inmediato?
Estas preguntas no son meramente filosóficas. Tienen consecuencias operativas. En decisiones sobre precios, crédito, fraude, logística, clasificación, compras, salud, políticas públicas o asignación de recursos, la ausencia de respuestas claras suele dar paso a tres problemas clásicos: exceso de confianza en la automatización, opacidad sobre la responsabilidad y dificultad para demostrar diligencia a posteriori.
Tres objeciones que deben ser tratadas
Una tesis como esta solo se sostiene si aborda de entrada las objeciones más previsibles.
1. "Pero esto ya está cubierto por la supervisión humana"
En parte, sí. Pero la supervisión humana, por sí sola, no resuelve el problema de la gobernanza de la decisión. Un ser humano puede supervisar mal. Puede validar formalmente algo que, en realidad, no comprendió. El NIST subraya la necesidad de hacer más explícitos los procesos de decisión y los roles humanos. En otras palabras: la supervisión humana es una condición necesaria. Pero, aisladamente, no es suficiente.
2. "Esto sustituye la gobernanza del modelo"
No la sustituye. La gobernanza de modelos sigue siendo indispensable. El desarrollo, la validación, el monitoreo y la explicabilidad técnica siguen siendo centrales. La guía SR 11-7 de la Reserva Federal conserva su vigencia. La cuestión es otra: aun con buena gobernanza del modelo, sigue haciendo falta gobernar la decisión construída a partir de él.
3. "Más gobernanza solo va a paralizar la operación"
Es un miedo comprensible, pero solo cuando la gobernanza está mal diseñada. La respuesta seria es la proporcionalidad. No toda decisión requiere el mismo nivel de rigor o revisión. La buena gobernanza debe seguir la misma lógica que la Ley Europea de IA: más rigor donde hay más impacto; menos fricción donde el riesgo es menor. El problema no es gobernar de más; el problema es gobernar mal.
Lo que cambia en el debate actual
El aporte de la idea de “última milla” no es crear una disputa artificial con el debate existente. Es mostrar que todavía está incompleto cuando se detiene en el sistema.
Hoy ya hemos avanzado mucho respecto al riesgo, la transparencia y la responsabilidad. El siguiente paso es preguntar, con más precisión operativa: ¿cómo se gobierna la decisión que utiliza inteligencia artificial?
- ¿Quién la firma?
- ¿Con qué evidencias?
- ¿Con qué alternativas?
- ¿Bajo qué criterios?
- ¿Con qué posibilidad de explicación posterior?
- ¿Con qué vínculo hacia un resultado real?
Quizá esta sea la capa menos espectacular del debate — y una de las más importantes. Porque no es en el modelo donde finalmente se resuelve el riesgo económico, fiduciario y regulatorio.
Es en la decisión.
Conclusión
Gobernar la inteligencia artificial es necesario.
Gobernar la decisión que utiliza inteligencia artificial se está volviendo indispensable.
Porque el riesgo no se agota en el sistema. No se agota en la recomendación. Ocurre cuando alguien decide. Y es precisamente ahí donde la gobernanza de la última milla adquiere su relevancia.
Referencias
1. NIST. AI RMF — marco de gestión de riesgos en inteligencia artificial. nist.gov
2. Comisión Europea. Ley Europea de IA (AI Act). digital-strategy.ec.europa.eu
3. ISO. ISO/IEC 42001 — Norma de sistemas de gestión de inteligencia artificial. iso.org
4. OCDE. Principios sobre Inteligencia Artificial y Directrices de diligencia debida. oecd.org
5. Reserva Federal. SR 11-7 — Orientación sobre la gestión del riesgo de modelos. federalreserve.gov
6. BIS. Desafíos regulatorios y prudenciales de la IA en el sector financiero. bis.org