Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro de Dados (GCP/Databricks) Especialista

* Salário: R$ 11.000 a R$ 20.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Senior

A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes.

Isso não poderia ser diferente com o nosso principal combustível: as pessoas!

Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.

Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.

Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!

>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro.

Cadastre-se agora mesmo em nossas vagas!

Responsabilidades e atribuições

Sobre a oportunidade

Estamos em busca de um(a) Engenheiro(a) de Dados Sênior para liderar tecnicamente a evolução da nossa plataforma de dados. Essa pessoa será responsável por desenhar arquiteturas escaláveis, orientar o time e garantir a entrega de soluções robustas em ambiente cloud.

Buscamos alguém com visão estratégica, forte capacidade de resolução de problemas e experiência prática em ambientes modernos de dados, especialmente com GCP e Databricks.


Responsabilidades

  • Liderar o desenho e a evolução da arquitetura de dados (Data Lake, Data Warehouse, Lakehouse)
  • Projetar, desenvolver e otimizar pipelines de dados (ETL/ELT) de alta escala
  • Atuar como referência técnica para o time de engenharia de dados
  • Trabalhar com processamento distribuído utilizando Databricks (Spark/PySpark)
  • Definir boas práticas de desenvolvimento, testes e deploy (DataOps)
  • Garantir governança, qualidade, segurança e confiabilidade dos dados
  • Otimizar performance e custos em ambientes GCP
  • Integrar múltiplas fontes de dados (batch e streaming)
  • Apoiar times de BI, Analytics e Data Science na disponibilização de dados
  • Participar de decisões estratégicas relacionadas a dados e tecnologia

Requisitos e qualificações

Requisitos obrigatórios

Especialista em múltiplos projetos e liderança de time Técnico.


  • Experiência mínima de 5 anos como Engenheiro(a) de Dados
  • Experiência sólida com Google Cloud Platform (BigQuery, Dataflow, Cloud Storage, Pub/Sub)
  • Experiência avançada com Databricks e Apache Spark (PySpark)
  • Domínio de Python e SQL
  • Experiência com modelagem de dados (relacional, dimensional e Lakehouse)
  • Experiência com orquestração de pipelines (Airflow/Cloud Composer ou similares)
  • Vivência com versionamento de código e práticas de CI/CD
  • Experiência com ambientes de dados em larga escala

Requisitos desejáveis

  • Experiência com Delta Lake e arquitetura Lakehouse
  • Conhecimento em infraestrutura como código (Terraform)
  • Experiência com Docker/Kubernetes
  • Conhecimento em streaming de dados (Kafka, Pub/Sub)
  • Certificações (GCP Professional Data Engineer, Databricks)
  • Experiência com ferramentas de observabilidade e monitoramento

Diferenciais

  • Experiência liderando times técnicos ou projetos de dados
  • Forte capacidade de comunicação com áreas de negócio
  • Conhecimento em governança de dados, LGPD e segurança da informação
  • Experiência com ferramentas de BI (Looker, Power BI, Tableau)
  • Inglês avançado

Requisitos obrigatórios

  • Experiência mínima de 5 anos como Engenheiro(a) de Dados
  • Experiência prática com Google Cloud Platform (BigQuery, Cloud Storage, Dataflow ou similares)
  • Experiência com Databricks e processamento distribuído com Spark
  • Domínio de Python e SQL
  • Experiência com modelagem de dados (relacional e dimensional)
  • Vivência com orquestração de pipelines (Airflow ou similares)
  • Conhecimento em versionamento de código (Git)


Requisitos desejáveis

  • Experiência com Delta Lake
  • Conhecimento em infraestrutura como código (Terraform)
  • Experiência com Docker
  • Conhecimento em streaming de dados (Kafka, Pub/Sub)
  • Certificações em GCP ou Databricks

Diferenciais

  • Experiência com arquitetura Lakehouse
  • Conhecimento em ferramentas de BI (Power BI, Looker, Tableau)
  • Familiaridade com governança de dados e LGPD
  • Inglês intermediário ou avançado



Informações adicionais

100 % Remoto

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Mapeamento Comportamental
  3. Etapa 3: Avaliação de Perfil
  4. Etapa 4: Entrevista Gestor
  5. Etapa 5: Entrevista Cliente
  6. Etapa 6: Contratação

Onde a inteligência humana amplifica o poder dos dados

Na Leega, não entregamos apenas linhas de código ou dashboards. Transformamos desafios tecnológicos complexos em impacto real. Com mais de 15 anos de estrada, unimos a profundidade da experiência humana à velocidade da Inteligência Artificial para criar soluções que mudam negócios e, acima de tudo, melhoram a vida das pessoas.

Somos uma consultoria de tecnologia, agnóstica e estratégica. Com escritórios no Brasil e na Europa, nosso time de mais de 580 talentos multidisciplinares vive e respira o ecossistema de Data Analytics, Cloud e IA. Dominamos a base, da Governança à Engenharia, para garantir que a tecnologia não seja apenas uma ferramenta, mas uma vantagem competitiva sustentável para os maiores players do mercado.