Deloitte Australia ofreció devolver parte del dinero al gobierno tras descubrirse que un informe suyo incluía citas y estudios inventados por inteligencia artificial.
El reporte, llamado Targeted Compliance Framework Assurance Review, fue publicado por el Departamento de Empleo y Relaciones Laborales en agosto, y costó unos 440,000 dólares australianos.
El documento analizaba cómo el gobierno automatiza sanciones dentro del sistema de asistencia social. Pero pronto surgieron sospechas sobre su contenido.
Sospechas
Chris Rudge, subdirector de Derecho de la Salud en la Universidad de Sídney, notó que varias referencias citaban trabajos que no existían. Entre ellas, se mencionaban informes falsos atribuidos a la profesora Lisa Burton Crawford, una académica real de la misma universidad.
“Es preocupante ver investigaciones atribuidas a mí de esta manera”, dijo Crawford. “Quisiera saber cómo generaron esas citas”.
Deloitte y el departamento publicaron una versión actualizada del informe, explicando que solo corregían “algunas referencias y notas al pie”.
Sin embargo, en la nueva versión, de 273 páginas, Deloitte añadió una nota reveladora: había usado una herramienta basada en Azure OpenAI GPT-4o para parte del trabajo técnico.
Esa IA sirvió para evaluar si el código del sistema cumplía con los requisitos legales y de cumplimiento. Pero nadie lo mencionó antes. De las 141 fuentes citadas originalmente, solo 127 permanecen en el nuevo informe. Las demás desaparecieron.
Se eliminaron las referencias falsas a investigaciones inexistentes y una cita inventada atribuida erróneamente a una jueza federal. Ante la polémica, Deloitte prometió devolver la última parte del pago recibido, aunque no se sabe cuánto representa del contrato total.
Reacciones
El Departamento de Empleo afirmó que el contenido principal del informe y sus recomendaciones “se mantienen intactas”. Pero Rudge fue claro: no se puede confiar en las conclusiones de un informe construido sobre una metodología defectuosa y no revelada.
Añadió que Deloitte usó inteligencia artificial para una tarea central del análisis, sin advertirlo desde el inicio. El caso ha despertado dudas sobre la transparencia y el control del uso de IA en consultorías gubernamentales.
También deja en evidencia la necesidad de revisar cómo las grandes firmas tecnológicas integran estas herramientas en trabajos públicos. Y, sobre todo, plantea una pregunta incómoda: si las máquinas ya pueden escribir informes, ¿quién se asegura de que digan la verdad?
