Compartilhe esta vaga

Engenheiro de Dados Sr.

Compartilhe esta vaga

São Paulo, SP, Brasil e Remoto (Híbrido)

Compartilhe esta vaga

Descrição da vaga

Descrição:

Estamos em busca de um(a) Engenheiro(a) de Dados com sólida experiência em ambientes de nuvem, especialmente na Google Cloud Platform (GCP). Procuramos alguém com forte conhecimento técnico para estruturar, operar e evoluir Data Lakes de forma eficiente.

O(a) profissional será responsável por projetar, desenvolver e manter pipelines de dados robustas e escaláveis, garantindo a ingestão, o processamento e a disponibilização de dados por meio das camadas Bronze, Prata e Ouro. Esperamos alguém que atue com foco em performance, qualidade dos dados e boas práticas de arquitetura em nuvem.

Atuação híbrida na Av. Paulista / SP (2x na semana)

Responsabilidades:

  • Projetar e implementar a arquitetura de um Data Lake em múltiplas camadas (Raw/Staging, Trusted/Refined e Curated/Business Layer).
  • Desenvolver, orquestrar e monitorar pipelines de dados usando ferramentas como Apache Spark, PySpark, Airflow ou equivalentes.
  • Trabalhar com GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub) para construção de soluções escaláveis e seguras.
  • Criar processos eficientes de ingestão de dados em batch e streaming, integrando múltiplas fontes.
  • Garantir o versionamento, segurança e catalogação dos dados.
    Atuar na otimização de performance, controle de custos e boas práticas em ambientes cloud.

Requisitos:

  • Experiência comprovada com Google Cloud Platform (GCP).
  • Experiência na construção de Data Lakes com arquitetura Medallion.
  • Domínio em Python, SQL, Big Query e frameworks como Spark / PySpark.
  • Conhecimento em DataOps e CI/CD para pipelines de dados.
  • Experiência com ferramentas de orquestração de pipelines (Airflow, Cloud Composer).
  • Familiaridade com ferramentas de versionamento de código (Git, GitHub/GitLab).
  • Boas práticas de governança, qualidade e segurança de dados.

Diferenciais:

  • Certificações em GCP e/ou AWS.
  • Conhecimento em Data Mesh e arquiteturas orientadas a domínio.
  • Experiência com lakehouse architectures.

Requisitos Comportamentais:

  • Visão sistêmica e foco em performance e escalabilidade.
  • Boa comunicação com áreas técnicas e de negócio.
  • Proatividade e espírito colaborativo.
  • Capacidade de atuar em ambientes ágeis e com múltiplas prioridades. 

Regime de Contratação

Pessoa Jurídica

Salário

De R$12000 até R$15000 por Mês

Conhecimentos e Habilidades necessárias

Python
PySpark
GCP
Azure
AWS
Data Mesh
Big Query
Dataflow
PubSub
Data Lake
Não encontrou a vaga que queria?
Faça parte do nosso Banco de Talentos

Outras vagas de

Carregando vagas relacionadas...

Desenvolvido por

Todos os Direitos Reservados - Recrutei © 2025