caso-de-uso

Caso de uso — Retail con modernización analytics vía Connect CDC

Caso narrado: cadena de retail con core en IBM i; el equipo de datos quiere Snowflake en tiempo real sin tocar la app legacy.

ComercialPreventa

Caso de uso — Retail con modernización analytics vía Connect CDC

Contexto

Industria: cadena de retail con ~400 puntos de venta físicos + e-commerce. Plataforma central: IBM Power S1024 con IBM i 7.5 TR3. Core de gestión de inventario, ventas, clientes y proveedores en RPG + DB2 for i, ~5 TB. Plataforma analytics: Snowflake corporativo; equipo de data engineering nuevo, sin experiencia en IBM i. Volumen: ~200.000 transacciones/día, picos de 50/seg en horas pico.

Situación inicial

El equipo de data engineering quiere construir un data warehouse moderno en Snowflake. Hoy hacen un dump nocturno desde IBM i:

El CDO (Chief Data Officer) pide soluciones. La conversación con preventa empieza así: "¿Cómo metemos los datos del IBM i en Snowflake en tiempo real sin que mi equipo tenga que aprender RPG?".

Discovery

Preguntas aplicadas

(Ver Connect CDC — Para Comercial.)

| Pregunta | Respuesta | |---|---| | ¿Qué fuentes prioritarias? | IBM i (core), MySQL (e-commerce), Salesforce (CRM). Hoy sólo se carga IBM i. | | ¿Qué destino tienen operativo? | Snowflake con varias bases corporativas. Quieren consolidar todo ahí. | | ¿Qué herramientas usan? | Hoy un script SQL + sftp + Snowpipe nocturno. Frágil. | | ¿Qué herramientas evaluaron? | Algunos ETL (Talend, Informatica), nada CDC todavía. | | ¿Quieren near-real-time? | Sí, idealmente latencia < 5 minutos para reporting intraday. | | ¿IBM i es la fuente "difícil"? | "Nadie en mi equipo entiende qué es DSPFFD". | | ¿Tienen iniciativa de data lake? | Snowflake hace de lake + warehouse para ellos. |

Datos técnicos relevados

Solución propuesta

Arquitectura

[IBM i — core retail]
    journals DB2 for i (*AFTER)
        ↓
    Agente Connect CDC en IBM i
        ↓
    IBM i Data Queues
        ↓
    Motor Connect (Linux VM en sitio principal)
        ↓
    [Snowflake corporativo — base RETAIL_LAKE]

(Fuente arquitectura: Precisely Help — Connect CDC IBM i Installation Guide)

Productos en scope

Diseño de pipelines

Sizing

Plan de implementación (alto nivel)

  1. Fase 0 — Validación de prerequisitos (1 semana)
    • Confirmar journaling con imagen *AFTER en las 50 tablas.
    • Setup del motor.
  2. Fase 1 — Pipeline piloto (3 semanas)
    • Una subscription (Ventas) end-to-end.
    • Carga inicial.
    • CDC operando.
    • Validaciones de count y hash con el equipo de data.
  3. Fase 2 — Roll-out de las 5 subscriptions (4 semanas)
    • Una subscription nueva por semana.
    • Cada una con su validación.
  4. Fase 3 — Cutover del proceso nocturno (2 semanas)
    • Dashboards apuntan a Snowflake actualizado en tiempo real.
    • Apagado del proceso nocturno legacy.
  5. Fase 4 — Operación + capacitación (2 semanas)
    • Capacitación del equipo de data en troubleshooting básico (track L1 acotado).
    • Runbook para soporte.

Tiempo total estimado: 12 semanas.

Riesgos y mitigaciones

| Riesgo | Mitigación | |---|---| | Equipo del cliente sin experiencia IBM i | Capacitación específica + runbook de incidentes típicos | | Schema evolution mal coordinada | Proceso formal con ventana acordada | | Picos de carga > 5.000/seg sostenidos | Sizing del motor con margen + paralelismo en subscriptions | | Cambios de credenciales Snowflake sin aviso | Vault corporativo + rotación coordinada | | EBCDIC mal traducido | Validación end-to-end con muestreo en piloto |

Resultado al cierre del proyecto

Lecciones para preventa

Productos relacionados

Recursos