GenAI Data Engineer

GenAI Data Engineer

Our client, a leading global supplier for IT services, requires experienced GenAI Data Engineer to be based at their client’s offices in London or Edinburgh.

Dies ist eine hybride Position – Sie können von Großbritannien aus remote arbeiten und an zwei Tagen pro Woche das Büro in London oder Edinburgh besuchen.

Dies ist ein befristeter Vertrag für mindestens 6 Monate, der so bald wie möglich beginnen soll.

Tagessatz: Wettbewerbsfähiger Marktpreis

Hauptaufgaben:

  • Design and maintain scalable data pipelines using PySpark, Python, and distributed computing frameworks to support high‑volume data processing.
  • Architect and optimise AWS-based data and AI infrastructure, ensuring secure, performant, and cost‑efficient ingestion, transformation, and storage.
  • Develop, finetune, benchmark, and evaluate GenAI/LLM models, including custom training and inference optimization.
  • Implement and maintain RAG pipelines, vector databases, and document-processing workflows for enterprise GenAI applications.
  • Build reusable frameworks for prompt management, evaluation, and GenAI operations.
  • Collaborate with cross-functional teams to integrate GenAI capabilities into production systems and ensure high-quality data, governance, and operational reliability

Wichtige Anforderungen:

  • Strong experience with PySpark, distributed data processing, and largescale ETL/ELT pipelines.
  • Strong SQL expertise including star/snowflake schema design, indexing strategies, writing optimized queries, and implementing CDC, SCD Type 1/2/3 patterns for reliable data warehousing.
  • Advanced proficiency in Python for data engineering, automation, and ML/GenAI integration.
  • Hands on expertise with AWS services (S3, Glue, Lambda, EMR, Bedrock / custom model hosting).
  • Practical experience with GenAI/LLM model creation, finetuning, benchmarking, and evaluation.
  • Solid understanding of RAG architectures, embeddings, vector stores, and LLM evaluation methods.
  • Experience working with structured and unstructured datasets (documents, logs, text, images).
  • Familiarity with scalable data storage solutions (Delta Lake, Parquet, Redshift, DynamoDB).
  • Understanding model optimisation techniques (quantisation, distillation, inference optimisation).
  • Strong capability to debug, tune, and optimise distributed systems and AI pipelines.

Aufgrund der Vielzahl der eingegangenen Bewerbungen können wir leider nicht jedem antworten.

Wenn Sie innerhalb von 7 Tagen nach Einreichen Ihrer Bewerbung keine Rückmeldung von uns erhalten haben, gehen Sie bitte davon aus, dass Ihre Bewerbung diesmal nicht erfolgreich war.

Bitte behalten Sie unsere Website im Auge https://projectrecruit.com/jobs/ im Auge, um über zukünftige Stellenangebote informiert zu bleiben.

Laden Sie Ihren Lebenslauf oder andere relevante Dateien hoch. Maximale Dateigröße: 50 MB.

Projekt Global
Überblick über den Datenschutz

Diese Website verwendet Cookies, damit wir Ihnen die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in Ihrem Browser gespeichert und dienen dazu, Sie wiederzuerkennen, wenn Sie auf unsere Website zurückkehren, und unserem Team zu helfen, zu verstehen, welche Bereiche der Website Sie am interessantesten und nützlichsten finden.