Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro de Dados Sênior

CLT (Efetivo)Presencial (Local)VIPSão Paulo-SPEmpresa Confidencial (Cadastre-se)

* Salário: R$ 11.000 a R$ 20.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Senior

Quem é o candidato que buscamos:

Buscamos um(a) Data Engineer Sênior com forte capacidade técnica e visão estratégica, capaz de conduzir iniciativas de dados ponta a ponta e transformar grandes volumes de dados em valor tangível para o negócio da Rock Encantech.

Este(a) profissional será responsável por tomar decisões arquiteturais, garantir a escalabilidade, confiabilidade e eficiência das soluções de dados, além de atuar com alto nível de autonomia na resolução de problemas complexos.

Esperamos alguém com postura de dono(a), pensamento crítico, foco em resultados e habilidade para atuar de forma próxima a diferentes áreas da companhia.

Principais atividades:

  • Definir e evoluir a arquitetura de dados (Lakehouse, Medallion, streaming/batch), garantindo escalabilidade, governança e eficiência de custos;
  • Tomar decisões de design técnico, promovendo boas práticas de engenharia de dados.
  • Projetar, desenvolver e otimizar pipelines robustos e escaláveis utilizando PySpark, SQL e Python;
  • Garantir ingestão, transformação e integração de dados de múltiplas fontes (APIs, bancos transacionais, arquivos, eventos);
  • Atuar na resolução de problemas complexos de performance e processamento distribuído.
  • Definir e implementar modelos de dados performáticos e confiáveis no Lakehouse;
  • Garantir padrões de qualidade, governança, versionamento (ex: Delta/Iceberg) e evolução de schema;
  • Trabalhar com práticas de Data Governance e catalogação (ex: Unity Catalog, Glue).
  • Implementar e evoluir práticas de DataOps, CI/CD e automação de pipelines;
  • Evoluir processos de deploy, versionamento e observabilidade;
  • Otimizar custos de infraestrutura (FinOps), garantindo uso eficiente de recursos.
  • Implementar e evoluir monitoramento, alertas e métricas de confiabilidade (SLAs/SLOs);
  • Atuar proativamente na prevenção e resolução de incidentes em produção;
  • Garantir alta disponibilidade e resiliência das soluções.
  • Traduzir necessidades de negócio em soluções técnicas escaláveis;
  • Atuar próximo aos times de Analytics, Data Science, Produto e Engenharia;
  • Apoiar decisões estratégicas com base em dados.

Perfil acadêmico e habilidades:

  • Formação em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas correlatas;
  • Experiência sólida em engenharia de dados, arquitetura e construção de pipelines em larga escala;
  • Domínio avançado em SQL, PySpark e processamento distribuído;
  • Experiência prática com arquiteturas modernas (Lakehouse, Data Lake, Medallion);
  • Forte conhecimento em cloud (AWS e/ou Azure), incluindo serviços como S3, Glue, ADLS, Lambda;
  • Experiência com orquestração (Airflow, Step Functions, Databricks Workflows);
  • Vivência com versionamento (Git) e boas práticas de desenvolvimento;
  • Excelente comunicação e capacidade de traduzir necessidades de negócio em soluções técnicas;
  • Perfil analítico, organizado e orientado à entrega de valor.

Qualificações desejáveis:

  • Certificações em Databricks, AWS ou Azure;
  • Experiência com DataOps, CI/CD e Infraestrutura como Código (Terraform, CloudFormation);
  • Conhecimento em Data Governance e Data Quality;
  • Experiência com observabilidade (Grafana, Prometheus, Datadog);
  • Vivência com pipelines de Machine Learning (MLflow, Feature Store);
  • Conhecimento em FinOps e otimização de custos em cloud;
  • Experiência com arquiteturas orientadas a eventos e streaming (Kafka, Kinesis);
  • Vivência em ambientes ágeis (Scrum/Kanban);
  • Experiência prévia em empresas de tecnologia, loyalty ou retail media é um diferencial.