Caro usuário, habilite o javascript para que esse site funcione corretamente.

DFA2: Engenheiro de Dados SR

* Salário: R$ 11.000 a R$ 20.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Senior

Engenheiro de Dados — 100% Remoto

Sobre a oportunidade:
Procuramos um Analista de BI Sênior para liderar a evolução do nosso ecossistema de dados com foco em visualização (Apache Superset e/ou Power BI), governança, qualidade e performance em cloud (Azure/AWS). Papel hands-on, autonomia e impacto direto no negócio.

Responsabilidades:

  • Padronizar e administrar o Apache Superset (perfis, permissões, versionamento, melhores práticas).
  • Construir e manter dashboards e relatórios (Superset/Power BI) com métricas de negócio e boa UX.
  • Projetar e operar pipelines ELT/ETL escaláveis com monitoramento e alertas.
  • Modelar dados (estrela, 3FN, bronze/prata/ouro) otimizando custo e performance.
  • Otimizar consultas, partições, índices e storage (ex.: Parquet).
  • Trabalhar com Big Data/Spark e data lakes/lakehouses em cloud.
  • Implementar governança, qualidade e segurança (testes, catálogo/linhagem — Purview, LGPD, RBAC).
  • Colaborar com produto/analytics/negócio; entregar de forma incremental em ágil.
  • Monitorar saúde/custos dos pipelines e documentar arquitetura, fluxos e dicionário de dados.

Requisitos obrigatórios:

  • 6+ anos em BI/Engenharia de Dados/Analytics.
  • SQL avançado e modelagem para Analytics.
  • Superset (implantação/uso) e/ou Power BI (admin, gateway, DAX, modelagem).
  • Spark e bancos SQL/NoSQL.
  • Cloud: Azure (Data Factory, Synapse, Purview) e/ou AWS (Glue, Athena/Redshift, EMR).
  • Pipelines ETL/ELT, orquestração, versionamento (Git) e CI/CD (Azure DevOps/GitHub Actions).
  • Métodos ágeis e comunicação clara com públicos técnicos e de negócio.
  • Databricks, dbt, Airflow, Kafka/Kinesis.

Diferenciais:

  • Lakehouse (Delta/Iceberg) e otimização de custos em cloud.
  • Infra como Código (Terraform), segurança e LGPD na prática.
  • Python/PySpark.
  • Boas práticas de Data Viz (design system) e testes de dados (Great Expectations).
  • Inglês técnico.

BUSCAS DE VAGAS SEMELHANTES