Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro(a) de Dados Pleno

CLT (Efetivo)Presencial (Local)São Paulo-SPEmpresa Confidencial (Cadastre-se)

* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Pleno

Description:

Sobre a posição:

Buscamos uma pessoa Engenheira de Dados Pleno para atuar no desenvolvimento e evolução de pipelines de dados ponta a ponta, garantindo integração entre fontes, qualidade, confiabilidade e performance das soluções. Essa pessoa será responsável por estruturar fluxos de ingestão e transformação de dados, apoiar a modelagem analítica e contribuir com boas práticas de engenharia de dados em ambientes escaláveis.

Principais responsabilidades:


  • Desenvolver e manter pipelines de dados ponta a ponta em processos de ETL/ELT.
  • Integrar novas fontes de dados, como APIs, bancos relacionais, arquivos e sistemas diversos.
  • Modelar dados para consumo analítico, incluindo estruturas dimensionais e/ou orientadas a negócio.
  • Garantir qualidade, consistência e integridade dos dados ao longo do fluxo.
  • Implementar testes e rotinas de validação de dados.
  • Atuar na otimização de consultas, performance de cargas e confiabilidade dos pipelines.
  • Trabalhar em conjunto com times de analytics, BI, ciência de dados e produto para disponibilização de dados confiáveis.
  • Apoiar a evolução da arquitetura de dados, observabilidade e governança técnica.

Requirements:

Requisitos obrigatórios técnicos:


  • Experiência prática com engenharia de dados e construção de pipelines em produção.
  • Domínio de SQL para transformação, consulta e otimização de dados.
  • Experiência com pelo menos uma linguagem para dados, como Python ou Scala.
  • Vivência com processos de ETL/ELT.
  • Conhecimento em modelagem de dados analítica, incluindo modelo dimensional.
  • Experiência com bancos relacionais e/ou data warehouses.
  • Experiência com integração de dados via APIs, arquivos e múltiplas fontes.
  • Conhecimento em qualidade de dados, validações, tratamento de erros e monitoramento de pipelines.
  • Vivência com ambientes em nuvem, preferencialmente AWS, Azure ou GCP.
  • Conhecimento em versionamento com Git e boas práticas de desenvolvimento.


Diferenciais técnicos:


  • Experiência com ferramentas como Airflow, DBT, Spark, Databricks, Glue, BigQuery, Snowflake ou Redshift.
  • Conhecimento em arquitetura Lakehouse ou Data Vault.
  • Vivência com observabilidade de dados e monitoramento de pipelines.
  • Experiência com testes automatizados de dados e frameworks de qualidade.
  • Conhecimento em CI/CD aplicado a projetos de dados.
  • Vivência com ambientes de alta volumetria e baixa latência.
  • Experiência com governança, catálogo e linhagem de dados.


Entenda as etapas do processo:

  • Candidatura
  • Mapeamento de Perfil
  • Entrevista com RH
  • Entrevista Técnica/Gestão
  • Contratação