* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)
* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.
Área: Tecnologia da Informação
Nível: Pleno
Quem é o candidato que buscamos:
Buscamos um(a) profissional comprometido(a), curioso(a) e orientado(a) a resultados, capaz de transformar dados em valor real para a Rock Encantech. O candidato ideal tem forte capacidade analítica, domínio técnico em engenharia de dados e paixão por resolver problemas complexos com eficiência e escalabilidade. Deve ser colaborativo, ter boa comunicação e saber transitar entre times de tecnologia, produto e negócio, contribuindo para a evolução da Rock.
Principais atividades:
- Arquitetura e Desenvolvimento de Pipelines: Projetar, desenvolver e manter pipelines de dados utilizando PySpark, SQL e Python garantindo ingestão, transformação e integração de dados provenientes de múltiplas fontes (APIs, bancos de dados transacionais, arquivos Parquet/CSV, etc.).
- Gestão e Modelagem de Dados: Criar e otimizar estruturas de dados no Lakehouse da Rock Encantech assegurando alta performance, governança e disponibilidade.
- Automação e Eficiência Operacional: Automatizar processos de ETL/ELT e deploys utilizando CI/CD, Airflow, Step Functions ou Databricks Workflows, promovendo a redução de retrabalho e aumento da produtividade.
- Colaboração Estratégica: Trabalhar em parceria com os times de Analytics, Data Science e Produto, entregando dados confiáveis e bem estruturados para análises avançadas e modelos de Machine Learning.
- Monitoramento e Escalabilidade: Implementar processos de observabilidade e alertas para pipelines e infraestrutura, garantindo a escalabilidade e estabilidade do ambiente de dados em produção.
Perfil acadêmico e habilidades:
- Formação completa em Engenharia da Computação, Ciência da Computação, Sistemas de Informação ou áreas correlatas;
- Experiência comprovada em engenharia de dados, data pipelines e modelagem de dados;
- Domínio em SQL avançado e PySpark para manipulação e transformação de dados em larga escala;
- Conhecimento em arquiteturas de Lakehouse e boas práticas de particionamento, versionamento e schema evolution;
- Experiência com plataformas de cloud (AWS e Azure), incluindo serviços como S3, Glue, ADLS, Lambda e Redshift;
- Vivência com controle de versionamento (Git) e orquestração de jobs (Airflow, Step Functions ou Workflows);
- Boa comunicação e capacidade de traduzir necessidades de negócio em soluções técnicas;
- Perfil analítico, organizado e orientado à entrega de valor.
Qualificações desejáveis:
- Certificações em Databricks, AWS ou Azure;
- Experiência com DataOps, CI/CD e Infraestrutura como Código (Terraform, CloudFormation);
- Conhecimento em Data Governance;
- Experiência com monitoramento e observabilidade (Grafana)
- Noções de Machine Learning pipelines (MLflow, Feature Store);
- Familiaridade com FinOps e otimização de custos em nuvem;
- Vivência em ambientes colaborativos e ágeis (Scrum/Kanban);
- Experiência prévia em empresas de tecnologia, loyalty ou retail media é um diferencial.
