ÚLTIMA HORA

Cobertura global las 24 hs. • jueves, 11 de diciembre de 2025 • Noticias actualizadas al minuto.

Menú

Funcionarios públicos de Colombia usan Inteligencia Artificial para responder derechos de petición, pero sin políticas claras

Funcionarios públicos de Colombia usan Inteligencia Artificial para responder derechos de petición, pero sin políticas claras

Ante la avalancha de trabajo, con toneladas de documentos públicos y respuestas oficiales por dar, una cantidad indeterminada de servidores públicos colombianos aprovecha la Inteligencia Artificial para ser más eficientes, pero usarla, sobre todo en sus versiones gratis, conlleva riesgos. Aparte de alucinar e inventar respuestas, pueden estar entregando datos que luego son utilizados para reentrenar al modelo y llegar a terceros.

Las alertas ya están sobre la mesa. El 5 de noviembre, la Corte Suprema de Justicia anuló un fallo porque el Tribunal de Sincelejo basó su argumentación en dos sentencias inexistentes, y aprovechó para reafirmar lo que había dicho la Corte Constitucional en 2024 sobre las alucinaciones. Tras la anulación del fallo, los funcionarios de la Rama Judicial -que ya tiene unos lineamientos sobre el uso de IA- recibieron por correo un manual de uso. "La IA es solo una herramienta que puedes usar, pero no puede reemplazar tu criterio", se lee en un texto, que pide "descartar herramientas gratuitas".

Son advertencias que funcionan para todo el Estado. EL PAÍS habló con 42 funcionarios públicos y radicó más de 20 derechos de petición para entender cómo usan herramientas de IA generativa como ChatGPT, Gemini o Deepseek, conocer sus lineamientos de uso y saber si están capacitando a sus funcionarios. Algunas entidades han desarrollado herramientas propias, como Watson en la Fiscalía o PretorIA en la Corte Constitucional, y otras han capacitado sobre IA. Pero lo más usual es que funcionarios usen herramientas comerciales como ChatGPT para todo tipo de acciones, desde responder derechos de petición hasta hacer ilustraciones. En la mayoría de los casos no hacen explícito ese uso, porque lo ven innecesario si solo le pidieron apoyo o porque puede poner en duda su trabajo. Es una opacidad que también se nota en que casi ninguna fuente consultada se deja citar y que impide que los ciudadanos sepan qué datos reciben los modelos, qué decisiones se toman a partir de ellos y cuáles interacciones con el Estado están mediadas por IA.

"La gente ha apelado a la IA para alivianar la sobrecarga laboral de forma rudimentaria o instintiva porque no hay una política institucional", dice un contratista de la Unidad Nacional de Gestión del Riesgo. "Elaborar un acta con ella ahorra horas de vida", agrega, y explica que en la UNGRD muchos contratistas pasan varios meses del año sin contrato, lo que sobrecarga a quienes se quedan.

En varias entidades nacionales y locales, la IA se ha vuelto clave para responderles a los ciudadanos y a otras entidades. No solo facilita el trabajo, dicen los entrevistados, sino que opinan que la redacción de muchos documentos ha mejorado. Pero el uso es desigual, lo mismo que los resultados. "Encuentro respuestas que obviamente las hizo ChatGPT", dice un funcionario de la Alcaldía de Bogotá sobre oficios que envían otras entidades. Tres asesores legislativos concuerdan en que encuentran ponencias e intervenciones que, dicen, es claro que escribió la IA.

A lo largo y ancho del Estado, el uso de ChatGPT va mucho más allá de investigar y escribir. Un contratista de Parques Nacionales Naturales Amazonas la utilizó para que un proyecto de avistamiento de aves tuviera en cuenta la forma en la que las comunidades indígenas se relacionan con los pájaros. "Ese conocimiento ancestral se lo vamos subiendo a la IA", cuenta. En la secretaría de Gobierno de Cali, Gemini ayuda a conectar la oferta de programas sociales con las necesidades identificadas por líderes de los territorios.

Sin embargo, la falta de capacitación se nota en que solo uno de los más de 40 entrevistados sabía que ChatGPT y la mayoría de modelos de IA generativa tienen activada una opción que, si no se apaga, permite "mejorar el modelo para todos". Eso significa entrenarlo con los datos y documentos que sube cualquier usuario, y permite que la herramienta use y pueda revelar esa información en interacciones con otros usuarios. "El chatbot siempre te va a responder con una colcha de retazos y uno de esos retazos puede ser textos con los cuales fue entrenado", dice Gutiérrez, el profesor de los Andes.

Además de las pocas capacitaciones, hay muy pocas políticas de uso para las herramientas de IA, y menos para las comerciales. Solo seis de las 18 entidades anunciaron estar trabajando en unos lineamientos, mientras las otras 12 sencillamente no tienen. Por eso, los funcionarios toman precauciones por su cuenta. "Intento no dar información de expedientes, de nombres de los accionantes o de nombres de los juzgados", dice una abogada que trabaja con un magistrado de la Corte Constitucional. "Algunos hacen un resumen de los autos, y han recibido llamados de atención por eso", cuenta una persona que trabaja en Jurisdicción Especial para la Paz.

¿Te gusta estar informado?

Recibe las noticias más importantes de Latinoamérica directamente en Telegram. Sin Spam, solo realidad.

Unirme Gratis