Arquitecto jefe de datos de AWS
Nuestro cliente, un proveedor líder mundial de servicios de TI, busca un arquitecto jefe de datos de AWS para trabajar en la oficina de su cliente en Londres, Reino Unido.
Se trata de un puesto híbrido: puedes trabajar a distancia en el Reino Unido y acudir a la oficina de Londres dos días a la semana.
Se trata de un contrato temporal de más de 6 meses que comenzará lo antes posible.
Tarifa diaria: Tarifa competitiva del mercado
Como arquitecto práctico de datos de AWS, te encargarás de diseñar, desarrollar y mejorar continuamente nuestra plataforma de datos de pagos mediante la ingesta de eventos ISO 20022 en un «lakehouse» basado en AWS. Garantizarás la mejor gobernanza de datos, observabilidad y optimización de costes de su clase, al tiempo que te harás cargo del producto de datos de principio a fin en los ámbitos de CX, Pagos y CPO. Esto incluye gestionar el backlog del producto, los SLA y los contratos de datos, así como elaborar guías operativas, definir los SLO y elaborar informes trimestrales de costes y calidad.
Responsabilidades clave
- Productos de datos (futuros): Channel Ops Warehouse (capa de alto rendimiento de unos 30 días) y Channel Analytics Lake (más de 7 años). Poner a disposición API de estado y de informes con acuerdos de nivel de servicio (SLA) claros.
- Arquitectura de la plataforma: S3/Glue/Athena/Iceberg Lakehouse; Redshift para BI y operaciones. QuickSight para paneles de control de PO y operaciones. Lambda/Step Functions para la coordinación del procesamiento de flujos.
- Transmisión e ingesta: Kafka (K4/K5/Confluent) y AWS MSK/Kinesis; conectores/CDC a DW/Lake. Partición, retención, reproducción, idempotencia. EventBridge para el enrutamiento de eventos nativo de AWS.
- Contratos de eventos: Avro/Protobuf, Schema Registry, reglas de compatibilidad, estrategia de control de versiones.
- Situación actual → Situación futura: API de inventario, archivos y fuentes SWIFT, y sistemas de almacenamiento (Aurora Postgres, Kafka). Definir fases de migración y guías de ejecución para la transición.
- Gobernanza y calidad: titularidad de los datos como producto, trazabilidad, controles de acceso, normas de calidad y conservación.
- Observabilidad y FinOps: Grafana/Prometheus/CloudWatch para TPS, tasa de éxito, retraso y gasto por cada millón de eventos. Guías de procedimientos + alertas con medidas concretas.
- Escalabilidad y resiliencia: decenas de millones de pagos al día, configuraciones con varias zonas de disponibilidad y regiones, RPO y RTO realistas.
- Seguridad: clasificación de datos, cifrado KMS, tokenización cuando sea necesario, gestión de identidades y accesos (IAM) basada en el principio del privilegio mínimo, auditoría inmutable.
- Experiencia práctica en desarrollo: Python/Scala/SQL; Spark/Glue; Step Functions/Lambda; IaC (Terraform); CI/CD (GitLab/Jenkins); pruebas automatizadas.
Requisitos clave
Habilidades esenciales:
- Transmisión de datos en tiempo real y EDA: Kafka (Confluent) y AWS MSK/Kinesis; Kinesis Firehose; ordenación, reproducción y semántica «exactamente al menos una vez»; EventBridge para el enrutamiento y el filtrado de eventos.
- Gestión de esquemas: Avro/Protobuf + Registro de esquemas (compatibilidad, estrategia de gestión, evolución).
- Pila de datos de AWS: S3/Glue/Athena, Redshift, Step Functions, Lambda; Kinesis y canalizaciones de streaming de S3 a Glue; Glue Streaming; patrones DLQ.
- Pagos e ISO 20022: PAIN/PACS/CAMT, modelización del ciclo de vida, reconstrucción, conocimientos sobre los canales SWIFT y de archivos.
- Gobernanza: mentalidad orientada a los macrodatos, titularidad, acuerdos de nivel de servicio (SLA) de calidad, acceso, conservación y trazabilidad.
- Observabilidad y FinOps: crea paneles de control, alertas e indicadores clave de rendimiento (KPI) de costes; resuelve problemas de bajo rendimiento a gran escala.
- Entrega: código de producción, análisis del rendimiento, revisiones de código, pruebas automatizadas, seguridad desde el diseño.
Fundamentos de la arquitectura de datos (imprescindible):
- Modelado lógico de datos: diagramas entidad-relación, normalización (de la 1.ª NF a la BCNF de Boyce-Codd), ventajas e inconvenientes de la desnormalización; dependencias funcionales y anomalías.
- Modelado de datos físicos: diseño de tablas, estrategias de partición, índices; patrones de almacenamiento para OLTP frente a análisis.
- Normalización y diseño: normalización a 3NF/BCNF para OLTP; saber cuándo desnormalizar para las consultas; Data Vault, esquemas en estrella.
- CQRS: Separación de lectura y escritura; Event Sourcing; reconstrucción: cuándo se justifica el uso de CQRS y cuándo resulta excesivo.
- Arquitectura basada en eventos (EDA): diseño centrado en los eventos; límites de agregación; patrones de publicación/suscripción; orquestación; idempotencia; entrega «al menos una vez».
- Contextos delimitados y modelado de dominios: capas anticorrupción, núcleo compartido, lenguaje publicado, lenguaje ubicuo.
- Entidades, objetos de valor y repositorios: identidad de las entidades de dominio; inmutabilidad; abstracción del repositorio sobre la persistencia; registros temporales o versionados.
- Eventos y contratos de dominio: control de versiones de esquemas (Avro/Protobuf); compatibilidad con versiones anteriores y futuras; reproducción de eventos; asignación de eventos de dominio a temas de Kafka y tablas de Aurora.
Habilidades deseables:
- QuickSight/Tableau, optimización de Redshift; ksqlDB/Flink; funcionamiento interno de Aurora Postgres.
- Restricciones de Edge/API (Apigee/API-GW), patrones mTLS/webhook.
Debido al volumen de solicitudes recibidas, lamentablemente no podemos responder a todas ellas.
Si no recibe respuesta por nuestra parte en un plazo de 7 días tras enviar su solicitud, considere que, en esta ocasión, su solicitud no ha sido aceptada.
Por favor, permanezca atento a nuestra página web https://projectrecruit.com/jobs/ para futuras vacantes.

