* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)
* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.
Área: Tecnologia da Informação
Nível: Pleno
Serão suas atividades principais:
Receber e gerenciar demandas de dados estratégicas, atuando como parceiro técnico de diferentes áreas do negócio;
* Projetar, construir e manter pipelines de dados robustos e escaláveis (ETL/ELT), garantindo confiabilidade, rastreabilidade e qualidade dos dados em toda a cadeia;
* Modelar e integrar dados de múltiplas fontes (bancos relacionais, APIs, eventos, arquivos), criando camadas de dados estruturadas (Raw, Trusted, Refined) para consumo analítico;
* Desenvolver e manter transformações de dados com SQL avançado e linguagens como Python ou NodeJs, seguindo boas práticas de versionamento e testes;
* Criar e evoluir modelos de dados dimensionais e métricas de negócio reutilizáveis, garantindo uma fonte única da verdade (single source of truth);
* Construir e atualizar dashboards e painéis analíticos em ferramentas como Metabase, Superset ou similares, com foco em autonomia para as áreas consumidoras;
* Monitorar a saúde dos pipelines e atuar proativamente na resolução de incidentes de dados (data quality, latência, duplicidades);
* Elaborar documentação técnica e reports com diagnósticos baseados em dados, apoiando decisões estratégicas;
* Propor e liderar melhorias na arquitetura de dados e nos processos analíticos com base em evidências.
Conhecimentos:
Escolaridade: Ensino superior completo em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas;
Experiência: 2+ anos de experiência com engenharia de dados, desenvolvimento de pipelines ou arquitetura de dados em ambiente produtivo.
Conhecimentos Indispensáveis:
Domínio de SQL avançado;
Experiência com Python para manipulação e transformação de dados;
Construção e manutenção de pipelines ETL/ELT em ambiente produtivo;
Experiência com bancos de dados relacionais (PostgreSQL).
Conhecimentos Desejáveis:
Experiência com orquestradores de pipeline (Airflow, Prefect ou similares);
Conhecimento em ferramentas de transformação declarativa como dbt;
Experiência com streaming de dados (Kafka);
Familiaridade com data lakehouse e formatos como Parquet, Iceberg ou Delta Lake;
Experiência com cloud (AWS) e serviços gerenciados de dados;
Infraestrutura como código (Terraform, Docker, CI/CD).
