Leitender AWS-Datenarchitekt

  • Vorübergehend
  • London
  • Verhandelbar GBP / Jahr

Leitender AWS-Datenarchitekt

Unser Kunde, ein weltweit führender Anbieter von IT-Dienstleistungen, sucht einen Lead AWS Data Architect für den Einsatz am Standort seines Kunden in London, Großbritannien.

Dies ist eine hybride Position – Sie können von einem beliebigen Ort in Großbritannien aus arbeiten und an zwei Tagen pro Woche im Londoner Büro erscheinen.

Dies ist ein befristeter Vertrag für mindestens 6 Monate, der so bald wie möglich beginnen soll.

Tagessatz: Wettbewerbsfähiger Marktpreis

Als AWS Data Hands-On Architect entwerfen, entwickeln und optimieren Sie kontinuierlich unsere Zahlungsdatenplattform, indem Sie ISO 20022-Ereignisse in ein AWS-basiertes Lakehouse einspeisen. Sie sorgen für erstklassige Daten-Governance, Observability und Kostenoptimierung und sind gleichzeitig für das Datenprodukt über die Bereiche CX, Payments und CPO hinweg durchgängig verantwortlich. Dazu gehören die Verwaltung des Produkt-Backlogs, der SLAs und der Datenverträge sowie die Erstellung von Betriebshandbüchern, die Definition von SLOs und die Erstellung vierteljährlicher Kosten- und Qualitätsberichte.

Hauptaufgaben

  • Datenprodukte (Zukunftspläne): Channel Ops Warehouse (Hochleistungsschicht mit ca. 30 Tagen) und Channel Analytics Lake (7+ Jahre). Bereitstellung von Status- und Bericht-APIs mit klaren SLAs.
  • Plattformarchitektur: S3/Glue/Athena/Iceberg Lakehouse, Redshift für BI und Betrieb. QuickSight für PO- und Betriebs-Dashboards. Lambda/Step Functions für die Orchestrierung der Stream-Verarbeitung.
  • Streaming und Datenaufnahme: Kafka (K4/K5/Confluent) und AWS MSK/Kinesis; Konnektoren/CDC zum Data Warehouse/Data Lake. Partitionierung, Aufbewahrungsdauer, Wiedergabe, Idempotenz. EventBridge für AWS-natives Ereignis-Routing.
  • Ereignisverträge: Avro/Protobuf, Schema-Registry, Kompatibilitätsregeln, Versionsstrategie.
  • Ist-Zustand → Soll-Zustand: Bestands-APIs/Dateien/SWIFT-Feeds und -Speicher (Aurora Postgres, Kafka). Migrationsphasen und Cutover-Runbooks definieren.
  • Governance und Qualität: Verantwortung für Daten als Produkt, Datenherkunft, Zugriffskontrollen, Qualitätsregeln, Aufbewahrungsfristen.
  • Observability & FinOps: Grafana/Prometheus/CloudWatch für TPS, Erfolgsquote, Verzögerung, Kosten pro 1 Mio. Ereignisse. Runbooks + umsetzbare Warnmeldungen.
  • Skalierbarkeit und Ausfallsicherheit: Millionen von Zahlungen pro Tag, Multi-AZ-/Multi-Region-Konfigurationen, pragmatische RPO-/RTO-Ziele.
  • Sicherheit: Datenklassifizierung, KMS-Verschlüsselung, Tokenisierung bei Bedarf, IAM nach dem Prinzip der geringsten Berechtigungen, unveränderliche Protokollierung.
  • Praktische Umsetzung: Python/Scala/SQL; Spark/Glue; Step Functions/Lambda; IaC (Terraform); CI/CD (GitLab/Jenkins); automatisierte Tests.

Wichtige Anforderungen

Wesentliche Fähigkeiten:

  • Streaming & EDA: Kafka (Confluent) und AWS MSK/Kinesis; Kinesis Firehose; Reihenfolge, Wiedergabe, „Exactly-at-least-once“-Semantik; EventBridge für das Weiterleiten und Filtern von Ereignissen.
  • Schema-Verwaltung: Avro/Protobuf + Schema-Registry (Kompatibilität, Schema-Strategie, Weiterentwicklung).
  • AWS-Datenstack: S3/Glue/Athena, Redshift, Step Functions, Lambda; Kinesis- und S3→Glue-Streaming-Pipelines; Glue Streaming; DLQ-Muster.
  • Zahlungsverkehr & ISO 20022: PAIN/PACS/CAMT, Lebenszyklusmodellierung, Rekonstruktion, Kenntnisse im Bereich SWIFT- und Datei-Kanäle.
  • Governance: Umgang mit großen Datenmengen, Verantwortlichkeiten, Qualitäts-SLAs, Zugriff, Aufbewahrung, Datenherkunft.
  • Observability & FinOps: Erstellen Sie Dashboards, Warnmeldungen und Kosten-KPIs; beheben Sie Probleme mit geringem Durchsatz in großem Maßstab.
  • Lieferumfang: Produktionscode, Leistungsanalyse, Code-Reviews, automatisierte Tests, Secure-by-Design.

Grundlagen der Datenarchitektur (unverzichtbar):

  • Logische Datenmodellierung: Entity-Relationship-Diagramme, Normalisierung (1NF bis Boyce-Codd/BCNF), Abwägungen bei der Denormalisierung; funktionale Abhängigkeiten und Anomalien.
  • Modellierung physischer Daten: Tabellendesign, Partitionierungsstrategien, Indizes; Speichermuster für OLTP im Vergleich zu Analysen.
  • Normalisierung und Design: Normalisierung auf 3NF/BCNF für OLTP; Verständnis dafür, wann für Abfragen eine Denormalisierung erforderlich ist; Data Vault, Sternschemata.
  • CQRS: Trennung von Lese- und Schreibvorgängen; Event Sourcing; Rekonstruktion – wann ist CQRS gerechtfertigt und wann übertrieben?
  • Ereignisgesteuerte Architektur (EDA): Ereignisorientiertes Design; Aggregatgrenzen; Pub/Sub-Muster; Orchestrierung; Idempotenz; „At-Least-Once“-Zustellung.
  • Abgegrenzte Kontexte und Domänenmodellierung: Anti-Korruptionsschichten, gemeinsamer Kern, veröffentlichte Sprache, allgegenwärtige Sprache.
  • Entitäten, Wert-Objekte und Repositorys: Identität von Domänenentitäten; Unveränderlichkeit; Repository-Abstraktion über die Persistenz; zeitliche/versionierte Datensätze.
  • Domänenereignisse und Verträge: Schema-Versionierung (Avro/Protobuf); Abwärts- und Aufwärtskompatibilität; Wiedergabe von Ereignissen; Zuordnung von Domänenereignissen zu Kafka-Themen und Aurora-Tabellen.

Wünschenswerte Fähigkeiten:

  • QuickSight/Tableau, Redshift-Optimierung; ksqlDB/Flink; Interna von Aurora Postgres.
  • Edge-/API-Einschränkungen (Apigee/API-GW), mTLS-/Webhook-Muster.

Aufgrund der Vielzahl der eingegangenen Bewerbungen können wir leider nicht jedem antworten.

Wenn Sie innerhalb von 7 Tagen nach Einreichen Ihrer Bewerbung keine Rückmeldung von uns erhalten haben, gehen Sie bitte davon aus, dass Ihre Bewerbung diesmal nicht erfolgreich war.

Bitte besuchen Sie regelmäßig unsere Website https://projectrecruit.com/jobs/, um sich über zukünftige Stellenangebote zu informieren.

Laden Sie Ihren Lebenslauf oder andere relevante Dateien hoch. Maximale Dateigröße: 50 MB.

Projekt Global
Überblick über den Datenschutz

Diese Website verwendet Cookies, damit wir Ihnen die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in Ihrem Browser gespeichert und dienen dazu, Sie wiederzuerkennen, wenn Sie auf unsere Website zurückkehren, und unserem Team zu helfen, zu verstehen, welche Bereiche der Website Sie am interessantesten und nützlichsten finden.