GenAI Data Engineer

GenAI Data Engineer

Our client, a leading global supplier for IT services, requires experienced GenAI Data Engineer to be based at their client’s offices in London or Edinburgh.

นี่เป็นตำแหน่งงานแบบผสมผสาน คุณสามารถทำงานจากระยะไกลในสหราชอาณาจักร และเข้าทำงานที่สำนักงานในลอนดอนหรือเอดินบะระ สัปดาห์ละ 2 วัน

นี่คือสัญญาจ้างชั่วคราวระยะเวลา 6 เดือน ขึ้นไป เริ่มงานได้ทันที

อัตราค่าบริการรายวัน: อัตราตามกลไกตลาด

หน้าที่ความรับผิดชอบหลัก:

  • Design and maintain scalable data pipelines using PySpark, Python, and distributed computing frameworks to support high‑volume data processing.
  • Architect and optimise AWS-based data and AI infrastructure, ensuring secure, performant, and cost‑efficient ingestion, transformation, and storage.
  • Develop, finetune, benchmark, and evaluate GenAI/LLM models, including custom training and inference optimization.
  • Implement and maintain RAG pipelines, vector databases, and document-processing workflows for enterprise GenAI applications.
  • Build reusable frameworks for prompt management, evaluation, and GenAI operations.
  • Collaborate with cross-functional teams to integrate GenAI capabilities into production systems and ensure high-quality data, governance, and operational reliability

ข้อกำหนดสำคัญ:

  • Strong experience with PySpark, distributed data processing, and largescale ETL/ELT pipelines.
  • Strong SQL expertise including star/snowflake schema design, indexing strategies, writing optimized queries, and implementing CDC, SCD Type 1/2/3 patterns for reliable data warehousing.
  • Advanced proficiency in Python for data engineering, automation, and ML/GenAI integration.
  • Hands on expertise with AWS services (S3, Glue, Lambda, EMR, Bedrock / custom model hosting).
  • Practical experience with GenAI/LLM model creation, finetuning, benchmarking, and evaluation.
  • Solid understanding of RAG architectures, embeddings, vector stores, and LLM evaluation methods.
  • Experience working with structured and unstructured datasets (documents, logs, text, images).
  • Familiarity with scalable data storage solutions (Delta Lake, Parquet, Redshift, DynamoDB).
  • Understanding model optimisation techniques (quantisation, distillation, inference optimisation).
  • Strong capability to debug, tune, and optimise distributed systems and AI pipelines.

เนื่องจากมีผู้สมัครจำนวนมาก เราจึงไม่สามารถตอบกลับทุกคนได้

หากคุณไม่ได้รับการติดต่อกลับจากเราภายใน 7 วันหลังจากส่งใบสมัคร โปรดถือว่าคุณไม่ได้รับการคัดเลือกในครั้งนี้

โปรดติดตามเว็บไซต์ของเรา ที่ https://projectrecruit.com/jobs/ เพื่อดูตำแหน่งงานว่างในอนาคต

กรุณาอัปโหลดประวัติส่วนตัว/เรซูเม่ หรือไฟล์อื่นๆ ที่เกี่ยวข้อง ขนาดไฟล์สูงสุด: 50 MB

โครงการระดับโลก
ภาพรวมความเป็นส่วนตัว

เว็บไซต์นี้ใช้คุกกี้เพื่อให้เราสามารถมอบประสบการณ์การใช้งานที่ดีที่สุดแก่คุณ ข้อมูลคุกกี้จะถูกเก็บไว้ในเบราว์เซอร์ของคุณและทำหน้าที่ต่างๆ เช่น จดจำคุณเมื่อคุณกลับมาที่เว็บไซต์ของเรา และช่วยให้ทีมของเราเข้าใจว่าส่วนใดของเว็บไซต์ที่คุณพบว่าน่าสนใจและมีประโยชน์มากที่สุด