Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro de Dados Pleno

CLT (Efetivo)Presencial (Local)VIPSão Paulo-SPEmpresa Confidencial (Cadastre-se)

* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Pleno


Quem é o candidato que buscamos:

Buscamos um(a) profissional comprometido(a), curioso(a) e orientado(a) a resultados, capaz de transformar dados em valor real para a Rock Encantech. O candidato ideal tem forte capacidade analítica, domínio técnico em engenharia de dados e paixão por resolver problemas complexos com eficiência e escalabilidade. Deve ser colaborativo, ter boa comunicação e saber transitar entre times de tecnologia, produto e negócio, contribuindo para a evolução da Rock.

Principais atividades:

  • Arquitetura e Desenvolvimento de Pipelines: Projetar, desenvolver e manter pipelines de dados utilizando PySpark, SQL e Python garantindo ingestão, transformação e integração de dados provenientes de múltiplas fontes (APIs, bancos de dados transacionais, arquivos Parquet/CSV, etc.).
  • Gestão e Modelagem de Dados: Criar e otimizar estruturas de dados no Lakehouse da Rock Encantech assegurando alta performance, governança e disponibilidade.
  • Automação e Eficiência Operacional: Automatizar processos de ETL/ELT e deploys utilizando CI/CD, Airflow, Step Functions ou Databricks Workflows, promovendo a redução de retrabalho e aumento da produtividade.
  • Colaboração Estratégica: Trabalhar em parceria com os times de Analytics, Data Science e Produto, entregando dados confiáveis e bem estruturados para análises avançadas e modelos de Machine Learning.
  • Monitoramento e Escalabilidade: Implementar processos de observabilidade e alertas para pipelines e infraestrutura, garantindo a escalabilidade e estabilidade do ambiente de dados em produção.

Perfil acadêmico e habilidades:

  • Formação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas correlatas;
  • Experiência comprovada em engenharia de dados, data pipelines e modelagem de dados;
  • Domínio em SQL avançado e PySpark para manipulação e transformação de dados em larga escala;
  • Conhecimento em arquiteturas de Lakehouse e boas práticas de particionamento, versionamento e schema evolution;
  • Experiência com plataformas de cloud (AWS e Azure), incluindo serviços como S3, Glue, ADLS, Lambda e Redshift;
  • Vivência com controle de versionamento (Git) e orquestração de jobs (Airflow, Step Functions ou Workflows);
  • Boa comunicação e capacidade de traduzir necessidades de negócio em soluções técnicas;
  • Perfil analítico, organizado e orientado à entrega de valor.

Qualificações desejáveis:

  • Certificações em Databricks, AWS ou Azure;
  • Experiência com DataOps, CI/CD e Infraestrutura como Código (Terraform, CloudFormation);
  • Conhecimento em Data Governance;
  • Experiência com monitoramento e observabilidade (Grafana)
  • Noções de Machine Learning pipelines (MLflow, Feature Store);
  • Familiaridade com FinOps e otimização de custos em nuvem;
  • Vivência em ambientes colaborativos e ágeis (Scrum/Kanban);
  • Experiência prévia em empresas de tecnologia, loyalty ou retail media é um diferencial.