* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)
* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.
Área: Tecnologia da Informação
Nível: Pleno
Description:
Sobre a posição:
Buscamos uma pessoa Engenheira de Dados Pleno para atuar no desenvolvimento e evolução de pipelines de dados ponta a ponta, garantindo integração entre fontes, qualidade, confiabilidade e performance das soluções. Essa pessoa será responsável por estruturar fluxos de ingestão e transformação de dados, apoiar a modelagem analítica e contribuir com boas práticas de engenharia de dados em ambientes escaláveis.
Principais responsabilidades:
- Desenvolver e manter pipelines de dados ponta a ponta em processos de ETL/ELT.
- Integrar novas fontes de dados, como APIs, bancos relacionais, arquivos e sistemas diversos.
- Modelar dados para consumo analítico, incluindo estruturas dimensionais e/ou orientadas a negócio.
- Garantir qualidade, consistência e integridade dos dados ao longo do fluxo.
- Implementar testes e rotinas de validação de dados.
- Atuar na otimização de consultas, performance de cargas e confiabilidade dos pipelines.
- Trabalhar em conjunto com times de analytics, BI, ciência de dados e produto para disponibilização de dados confiáveis.
- Apoiar a evolução da arquitetura de dados, observabilidade e governança técnica.
Requirements:
Requisitos obrigatórios técnicos:
- Experiência prática com engenharia de dados e construção de pipelines em produção.
- Domínio de SQL para transformação, consulta e otimização de dados.
- Experiência com pelo menos uma linguagem para dados, como Python ou Scala.
- Vivência com processos de ETL/ELT.
- Conhecimento em modelagem de dados analítica, incluindo modelo dimensional.
- Experiência com bancos relacionais e/ou data warehouses.
- Experiência com integração de dados via APIs, arquivos e múltiplas fontes.
- Conhecimento em qualidade de dados, validações, tratamento de erros e monitoramento de pipelines.
- Vivência com ambientes em nuvem, preferencialmente AWS, Azure ou GCP.
- Conhecimento em versionamento com Git e boas práticas de desenvolvimento.
Diferenciais técnicos:
- Experiência com ferramentas como Airflow, DBT, Spark, Databricks, Glue, BigQuery, Snowflake ou Redshift.
- Conhecimento em arquitetura Lakehouse ou Data Vault.
- Vivência com observabilidade de dados e monitoramento de pipelines.
- Experiência com testes automatizados de dados e frameworks de qualidade.
- Conhecimento em CI/CD aplicado a projetos de dados.
- Vivência com ambientes de alta volumetria e baixa latência.
- Experiência com governança, catálogo e linhagem de dados.
Entenda as etapas do processo:
- Candidatura
- Mapeamento de Perfil
- Entrevista com RH
- Entrevista Técnica/Gestão
- Contratação
