Ni Deloitte se salva.
¿Qué pasó?
En diciembre de 2024, el Department of Employment and Workplace Relations de Australia contrató a Deloitte para realizar un informe.
El informe se publicó en julio de 2025 con un valor de 290 mil dolares.
Después de su publicación, se identificaron múltiples errores: citas académicas inexistentes, referencias falsas, una sentencia de tribunal mal citada con una cita fabricada atribuida a un juez federal.
(Si, ChatGPT lo que no sabe, frecuentemente se lo inventa).
Deloitte confirmó que algunas “footnotes y referencias estaban incorrectas”.
La versión revisada del informe eliminó las referencias falsas, corrigió la lista de bibliografía y añadió una aclaración de que se había usado un modelo de inteligencia artificial generativa (un LLM) en la metodología.
Y claro, no pudo cobrar parte del contrato.
Que pienso yo que se hizo mal:
Simple: uso de inteligencia artificial para redactar sin control humano suficiente.
Solución: control humano!
Qué dice el mismo ChatGPT sobre cómo prevenirlo:
💡Revisión humana obligatoria antes de publicar cualquier contenido generado con IA.
💡Verificar todas las fuentes citadas (existencia, validez y contexto).
💡Transparencia total sobre el uso de IA en los proyectos.
💡Protocolos de control de calidad y auditoría previos a la entrega final.
💡Usar la IA solo como apoyo, nunca como sustituto de la investigación o validación humana.
Agregaría: usar varios puertos LLM (no tragar entero).
En conclusión
Deloitte incurrió en fallos importantes al entregar un informe para el gobierno australiano que contenía numerosas inexactitudes y referencias que no existían, implicando una “alucinación” de IA.
Aunque el núcleo del análisis podría mantenerse, la credibilidad del documento se vio afectada.
El caso sirve como alerta: el uso de IA generativa puede acelerar el trabajo, pero sin el control humano adecuado, puede introducir errores graves.

