Leitender AWS-Datenarchitekt
Unser Kunde, ein weltweit führender Anbieter von IT-Dienstleistungen, sucht einen Lead AWS Data Architect für den Einsatz am Standort seines Kunden in London, Großbritannien.
Dies ist eine hybride Position – Sie können von einem beliebigen Ort in Großbritannien aus arbeiten und an zwei Tagen pro Woche im Londoner Büro erscheinen.
Dies ist ein befristeter Vertrag für mindestens 6 Monate, der so bald wie möglich beginnen soll.
Tagessatz: Wettbewerbsfähiger Marktpreis
Als AWS Data Hands-On Architect entwerfen, entwickeln und optimieren Sie kontinuierlich unsere Zahlungsdatenplattform, indem Sie ISO 20022-Ereignisse in ein AWS-basiertes Lakehouse einspeisen. Sie sorgen für erstklassige Daten-Governance, Observability und Kostenoptimierung und sind gleichzeitig für das Datenprodukt über die Bereiche CX, Payments und CPO hinweg durchgängig verantwortlich. Dazu gehören die Verwaltung des Produkt-Backlogs, der SLAs und der Datenverträge sowie die Erstellung von Betriebshandbüchern, die Definition von SLOs und die Erstellung vierteljährlicher Kosten- und Qualitätsberichte.
Hauptaufgaben
- Datenprodukte (Zukunftspläne): Channel Ops Warehouse (Hochleistungsschicht mit ca. 30 Tagen) und Channel Analytics Lake (7+ Jahre). Bereitstellung von Status- und Bericht-APIs mit klaren SLAs.
- Plattformarchitektur: S3/Glue/Athena/Iceberg Lakehouse, Redshift für BI und Betrieb. QuickSight für PO- und Betriebs-Dashboards. Lambda/Step Functions für die Orchestrierung der Stream-Verarbeitung.
- Streaming und Datenaufnahme: Kafka (K4/K5/Confluent) und AWS MSK/Kinesis; Konnektoren/CDC zum Data Warehouse/Data Lake. Partitionierung, Aufbewahrungsdauer, Wiedergabe, Idempotenz. EventBridge für AWS-natives Ereignis-Routing.
- Ereignisverträge: Avro/Protobuf, Schema-Registry, Kompatibilitätsregeln, Versionsstrategie.
- Ist-Zustand → Soll-Zustand: Bestands-APIs/Dateien/SWIFT-Feeds und -Speicher (Aurora Postgres, Kafka). Migrationsphasen und Cutover-Runbooks definieren.
- Governance und Qualität: Verantwortung für Daten als Produkt, Datenherkunft, Zugriffskontrollen, Qualitätsregeln, Aufbewahrungsfristen.
- Observability & FinOps: Grafana/Prometheus/CloudWatch für TPS, Erfolgsquote, Verzögerung, Kosten pro 1 Mio. Ereignisse. Runbooks + umsetzbare Warnmeldungen.
- Skalierbarkeit und Ausfallsicherheit: Millionen von Zahlungen pro Tag, Multi-AZ-/Multi-Region-Konfigurationen, pragmatische RPO-/RTO-Ziele.
- Sicherheit: Datenklassifizierung, KMS-Verschlüsselung, Tokenisierung bei Bedarf, IAM nach dem Prinzip der geringsten Berechtigungen, unveränderliche Protokollierung.
- Praktische Umsetzung: Python/Scala/SQL; Spark/Glue; Step Functions/Lambda; IaC (Terraform); CI/CD (GitLab/Jenkins); automatisierte Tests.
Wichtige Anforderungen
Wesentliche Fähigkeiten:
- Streaming & EDA: Kafka (Confluent) und AWS MSK/Kinesis; Kinesis Firehose; Reihenfolge, Wiedergabe, „Exactly-at-least-once“-Semantik; EventBridge für das Weiterleiten und Filtern von Ereignissen.
- Schema-Verwaltung: Avro/Protobuf + Schema-Registry (Kompatibilität, Schema-Strategie, Weiterentwicklung).
- AWS-Datenstack: S3/Glue/Athena, Redshift, Step Functions, Lambda; Kinesis- und S3→Glue-Streaming-Pipelines; Glue Streaming; DLQ-Muster.
- Zahlungsverkehr & ISO 20022: PAIN/PACS/CAMT, Lebenszyklusmodellierung, Rekonstruktion, Kenntnisse im Bereich SWIFT- und Datei-Kanäle.
- Governance: Umgang mit großen Datenmengen, Verantwortlichkeiten, Qualitäts-SLAs, Zugriff, Aufbewahrung, Datenherkunft.
- Observability & FinOps: Erstellen Sie Dashboards, Warnmeldungen und Kosten-KPIs; beheben Sie Probleme mit geringem Durchsatz in großem Maßstab.
- Lieferumfang: Produktionscode, Leistungsanalyse, Code-Reviews, automatisierte Tests, Secure-by-Design.
Grundlagen der Datenarchitektur (unverzichtbar):
- Logische Datenmodellierung: Entity-Relationship-Diagramme, Normalisierung (1NF bis Boyce-Codd/BCNF), Abwägungen bei der Denormalisierung; funktionale Abhängigkeiten und Anomalien.
- Modellierung physischer Daten: Tabellendesign, Partitionierungsstrategien, Indizes; Speichermuster für OLTP im Vergleich zu Analysen.
- Normalisierung und Design: Normalisierung auf 3NF/BCNF für OLTP; Verständnis dafür, wann für Abfragen eine Denormalisierung erforderlich ist; Data Vault, Sternschemata.
- CQRS: Trennung von Lese- und Schreibvorgängen; Event Sourcing; Rekonstruktion – wann ist CQRS gerechtfertigt und wann übertrieben?
- Ereignisgesteuerte Architektur (EDA): Ereignisorientiertes Design; Aggregatgrenzen; Pub/Sub-Muster; Orchestrierung; Idempotenz; „At-Least-Once“-Zustellung.
- Abgegrenzte Kontexte und Domänenmodellierung: Anti-Korruptionsschichten, gemeinsamer Kern, veröffentlichte Sprache, allgegenwärtige Sprache.
- Entitäten, Wert-Objekte und Repositorys: Identität von Domänenentitäten; Unveränderlichkeit; Repository-Abstraktion über die Persistenz; zeitliche/versionierte Datensätze.
- Domänenereignisse und Verträge: Schema-Versionierung (Avro/Protobuf); Abwärts- und Aufwärtskompatibilität; Wiedergabe von Ereignissen; Zuordnung von Domänenereignissen zu Kafka-Themen und Aurora-Tabellen.
Wünschenswerte Fähigkeiten:
- QuickSight/Tableau, Redshift-Optimierung; ksqlDB/Flink; Interna von Aurora Postgres.
- Edge-/API-Einschränkungen (Apigee/API-GW), mTLS-/Webhook-Muster.
Aufgrund der Vielzahl der eingegangenen Bewerbungen können wir leider nicht jedem antworten.
Wenn Sie innerhalb von 7 Tagen nach Einreichen Ihrer Bewerbung keine Rückmeldung von uns erhalten haben, gehen Sie bitte davon aus, dass Ihre Bewerbung diesmal nicht erfolgreich war.
Bitte besuchen Sie regelmäßig unsere Website https://projectrecruit.com/jobs/, um sich über zukünftige Stellenangebote zu informieren.

