Volver a los proyectos

Asistente de IA para Análisis de Informes Corporativos

Proyecto conceptual de módulo de IA para resumen automático de informes en entornos de gran volumen, explorando Vertex AI, BigQuery y arquitectura asincrónica.

JavaSpring BootVertex AIBigQueryPub/Sub

El Problema

En las empresas que generan un gran volumen de datos diariamente (informes de ventas, comentarios de clientes, métricas operativas, registros de sistemas), los equipos suelen pasar horas leyendo e interpretando documentos de forma manual para extraer tendencias, anomalías e información procesable.

La pregunta central: ¿cómo transformar datos brutos en análisis estructurados de forma automática y escalable?

Este proyecto explora una arquitectura genérica para este tipo de solución, aplicable a diversos dominios (e-commerce, SaaS, operaciones, etc.).

Decisiones Arquitectónicas

¿Por qué Vertex AI y no OpenAI?

La elección de Vertex AI tiene sentido en escenarios donde:

  • Los datos confidenciales deben permanecer dentro del ecosistema de GCP
  • Ya existe infraestructura en BigQuery, lo que elimina el ETL adicional
  • Los acuerdos de nivel de servicio (SLA) y el cumplimiento corporativo son requisitos

Procesamiento Síncrono vs Asíncrono

Un enfoque síncrono (el usuario solicita y espera en la pantalla) funciona para volúmenes bajos. A medida que aumenta la demanda, migrar a Pub/Sub es una evolución natural:

  1. El usuario solicita el análisis
  2. La solicitud se pone en cola en Pub/Sub
  3. Un trabajador procesa con el modelo de IA
  4. El resultado se persiste y se notifica al usuario

Esto reduce los tiempos de espera y permite el procesamiento paralelo.

Estrategia de Caché

El almacenamiento en caché en dos capas suele ser decisivo para la viabilidad de costos:

  • Caché de datos: consultas frecuentes de BigQuery en caché para evitar reprocesamiento
  • Caché de análisis: las entradas idénticas devuelven el resultado anterior

En escenarios reales, esto puede reducir los costos de llamadas a la API de IA en más del 60 %.

Ingeniería de Prompts

La calidad del análisis depende directamente de la ingeniería de prompts. Patrones útiles:

  • Contexto estructurado: datos en JSON con esquema definido
  • Instrucciones orientadas a decisiones: en lugar de "resumir", pida "identificar anomalías y sugerir acciones"
  • Restricciones de salida: formato de respuesta esperado para un análisis (parsing) consistente

Stack Tecnológico

  • Backend: Java 17 con Spring Boot
  • IA: Vertex AI (Gemini) para la generación de análisis
  • Datos: BigQuery para almacenamiento y consultas analíticas
  • Mensajería: Pub/Sub para procesamiento asíncrono
  • CI/CD: Jenkins (o equivalente) con canalizaciones automatizadas
  • Monitoreo: Cloud Logging y alertas

Lecciones Aprendidas

  1. La IA generativa en producción requiere barandillas (guardrails). La validación de salida, la limitación de velocidad (rate limiting) y los respaldos (fallbacks) son esenciales.
  2. La memoria caché no es una optimización prematura cuando se usa IA. Es un requisito para la viabilidad financiera.
  3. La ingeniería de prompts es ingeniería de software. Los prompts deben estar versionados, probados y con métricas de calidad.