Tecnología
La ministra de Albania creada con IA también puede ser corrupta
Según el Gobierno de ese país, la asistente garantizaría que “las licitaciones públicas estén 100% libres de corrupción”, pero expertos cuestionan la afirmaciónSin embargo, expertos en IA y derecho han manifestado escepticismo sobre la efectividad y objetividad de esta herramienta. Argumentan que el éxito de una IA depende de la calidad de sus datos de entrenamiento, los cuales en este caso son desconocidos. Expertos como Jorge Vilas Díaz Cordero y Gastón Pérez Alfaro señalan que la falta de transparencia sobre cómo se entrenó a Diella, qué criterios de decisión utiliza y cómo se supervisa, podría perpetuar o incluso amplificar los sesgos existentes. Además, se destaca que la IA carece de la capacidad para comprender el contexto humano y político, y no tiene personalidad jurídica para asumir responsabilidades por decisiones injustas. La conclusión de los especialistas es que, si bien la IA puede ser útil para optimizar procesos, no es una solución mágica. Para que sea efectiva, debe haber transparencia, auditoría y una supervisión humana constante que complemente las decisiones del algoritmo.
Hace unos días, un pequeño país del sudeste de Europa fue noticia por un suceso insólito: su primer ministro, Edi Rama, anunció el jueves pasado el nombramiento de una ministra generada por inteligencia artificial. Y lo que prometía innovación no tardó en despertar debates en varios puntos, en torno a la utilidad y objetividad de esta herramienta.
Sí, la nueva funcionaria, bautizada con el nombre de Diella (que significa “sol” en albanés), no existe físicamente. Sin embargo, estará a cargo de todas las decisiones sobre las licitaciones de contratación pública para garantizar que estén “100% libres de corrupción” y que todos los fondos públicos sometidos a este procedimiento sean “perfectamente transparentes”, según información difundida por AP. La noticia se dio a conocer por el propio ministro al anunciar cómo estaría compuesto su cuarto gobierno consecutivo.
Según expertos consultados, Albania enfrenta desafíos estructurales de corrupción en contrataciones públicas, vínculos político-empresariales y baja confianza institucional. Rama lleva más de 10 años como primer ministro y busca que el país pueda ingresar a la Unión Europea, que tiene estándares altos de lucha contra la corrupción. Esta herramienta justamente examinaría cada licitación en la que el gobierno contrate empresas privadas y “evaluaría objetivamente los méritos de cada una”, según compartió The Guardian.

“En principio, la idea resulta atractiva: un ente totalmente objetivo e incorruptible que tome decisiones basadas en la información de las licitaciones. Sin embargo, este ideal no se sostiene en la práctica”, apunta Jorge Vilas Díaz Cordero, director del Observatorio de IA de la Escuela de Gobierno de la Universidad Austral.
Los expertos consultados coinciden en que, para entender si esta herramienta puede mejorar los procesos de transparencia, es importante preguntarse quién y cómo entrenó esta inteligencia artificial. Ahora bien, uno de los puntos más polémicos de la noticia es que justamente no se ha informado de forma clara y pública con qué datos se capacitó a Diella, qué criterios de decisión sigue, ni qué mecanismos de control externo la supervisan. “La opacidad en procesos de compras públicas puede seguir existiendo, porque tal vez la entrenaron para que favorezca alguna empresa particular y deje otra afuera; son todas situaciones que no se pueden saber si no hay transparencia en ese proceso”, explica Gastón Pérez Alfaro, profesor de UCEMA.
En otras palabras, toda inteligencia artificial es construida, entrenada y calibrada por humanos, con valores, prioridades y visiones del mundo. “El peligro está en creer que los algoritmos son imparciales cuando en realidad reflejan —y a veces amplifican— los sesgos del poder que los crea. No hay IA aséptica, no es objetiva ni neutral, siempre tiene una cosmovisión; la objetividad no se garantiza con máquinas, sino con pluralismo, auditoría y control ciudadano", agrega Vilas Díaz Cordero.
Mariana Olier, abogada especialista en derecho internacional e inteligencia artificial, coincide y señala: “Si el sistema se alimenta de información histórica que contiene sesgos, existe el riesgo de que estos sean perpetuados o incluso amplificados por el modelo”.
Otro punto importante a tener en cuenta que señalan los expertos es que la inteligencia artificial no tiene capacidad de entender el contexto. “Si la IA se entrena con datos locales, por ejemplo, patrones de las contrataciones, puede identificar irregularidades o anomalías propias de ese entorno. Puede ayudar a reconocer patrones contextuales, pero no comprende el contexto como una persona humana”, explica Antonella Stringhini, abogada especialista en administración pública y en inteligencia artificial; directora académica de proyectos de Inteligencia Artificial UBATEC.
Los expertos coinciden en que lo mejor es la combinación de los dos mundos: eficientizar procesos y ahorrar tiempo con el uso de la inteligencia artificial, porque a veces los recursos son escasos, pero contar con el criterio humano como un elemento esencial de la ecuación y con transparencia en los datos que se usaron para entrenarla. “Es bueno que el ser humano revise, constate y coloque otro tipo de variables que la inteligencia artificial no puede incluir, porque están vinculadas a la dimensión de lo humano. Pero que la inteligencia artificial acelere un proceso de licitación no implica que quede exento de corrupción”, señala Lourdes Puente, politóloga, doctora en Relaciones Internacionales y directora de la Escuela de Política y Gobierno de la UCA. Al mismo tiempo, explica que, dado que no se sabe cómo se entrenó a la herramienta, se desconoce si carga con otros sesgos. “Cualquier otra cosa que se le sume, tiene el peligro de incorporar sesgo. Y no hay que olvidar que las mismas normas tienen el sesgo político de quienes las hacen”, agrega Puente.
Vilas Díaz Cordero coincide con Puente y explica que la digitalización puede ayudar a transparentar procesos, pero sin reformas profundas y sin una ciudadanía activa, acompañada de juicios humanos, la tecnología sola corre el riesgo de ser “cosmética o marketinera”. “La IA puede ser una herramienta útil para detectar irregularidades en grandes volúmenes de datos, pero no puede, por sí sola, erradicar la corrupción. Incluso puede volverse una fachada tecnocrática que simula control, mientras oculta nuevas formas de opacidad”, agrega.
Stringhini sugiere que, para garantizar la transparencia, se podrían realizar auditorías del código, los modelos, los datos de entrenamiento y los criterios de decisión. También anima a que los datos usados para entrenar a Diella sean documentados, públicos o al menos disponibles para organismos de control y que exista supervisión humana de las decisiones que adopta.
“Si bien la IA puede ayudar a optimizar procesos y aumentar la eficiencia, no es una solución mágica: requiere transparencia, auditoría y control humano constante para evitar nuevos riesgos”, coincide Olier y agrega: “Para que el sistema genere confianza, el gobierno debería garantizar la apertura de los conjuntos de datos utilizados, permitir auditorías y garantizar la supervisión humana en todo momento. De lo contrario, correría el riesgo de trasladar la corrupción al algoritmo, sin resolver el problema de fondo y generando nuevas fuentes de opacidad”.
Además, la especialista pone un nuevo dilema sobre la mesa: se abren dudas acerca de quién asume la responsabilidad de las decisiones que tome. En otras palabras, explica que la IA no tiene personalidad jurídica, por lo que deja abierto el interrogante acerca de quién asume cualquier decisión que arroje un resultado injusto o lesione los derechos de los ciudadanos.