Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro(a) de Dados (On-Premise) - Remoto

* Salário: R$ 3.000 a R$ 6.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Junior

Descrição da vaga

Com mais de 15 anos de trajetória, a Confidencial (Apenas para Cadastrados) Tecnologia se posiciona como parceira estratégica na transformação digital de empresas em todo o Brasil. Nossa essência é guiada por valores sólidos que colocam o ser humano no centro — diversidade, meritocracia e valorização de talentos — criando um ambiente que une profissionalismo e proximidade.

Atuamos no desenvolvimento de soluções completas em tecnologia, desde a fábrica de software, que entrega projetos sob medida com agilidade e qualidade, até a formação de equipes de dados capazes de transformar informação em inteligência para decisões estratégicas. Além disso, estruturamos a alocação de profissionais e squads de alta performance, presenciais ou remotos, sempre alinhados às necessidades e objetivos de cada cliente.

Mais do que fornecer tecnologia, a Confidencial (Apenas para Cadastrados) constrói relações duradouras, gerando impacto real e ajudando empresas a alcançarem novos patamares de eficiência e inovação.

Responsabilidades e atribuições

  • Desenvolver e manter pipelines de dados utilizando Python (PySpark);
  • Atuar na ingestão, transformação e disponibilização de dados no modelo Lakehouse (Landing → Gold);
  • Orquestrar fluxos de dados com Apache Airflow;
  • Integrar diferentes fontes de dados (APIs, bancos, sistemas internos);
  • Monitorar e corrigir falhas em pipelines e jobs;
  • Otimizar consultas e processamento de dados;
  • Apoiar boas práticas de qualidade e governança de dados;
  • Trabalhar com ambientes containerizados (Docker);
  • Colaborar com o time na evolução da arquitetura.

Requisitos e qualificações

  • Experiência prévia como Engenheiro(a) ou Analista de Dados;
  • Domínio de Python e SQL;
  • Experiência com PySpark ou Apache Spark;
  • Vivência com Apache Airflow (criação e manutenção de DAGs);
  • Experiência com construção e manutenção de pipelines de dados;
  • Conhecimento em arquitetura de dados (Data Lake ou Lakehouse);
  • Experiência com banco analítico (ClickHouse ou similares);
  • Vivência com armazenamento S3-compatible (MinIO ou similares);
  • Experiência com Docker / Docker Compose;
  • Familiaridade com ferramentas de observabilidade (Grafana);
  • Conhecimento em testes de dados (Pytest ou similares);
  • Experiência com ambiente Linux e infraestrutura on-premise.

Diferenciais

  • Experiência com Spark Connect ou arquiteturas desacopladas;
  • Vivência com Portainer;
  • Conhecimento em Data Hub / catálogo de dados;
  • Experiência com alta disponibilidade em Airflow;
  • Conhecimento em Lean Data Architecture;
  • Experiência com integrações complexas (múltiplas fontes e sistemas críticos).

Informações adicionais

BENEFICIOS:

  • 🎈 Day-off e vale compras no aniversário;
  • 📚 Incentivo Educacional;
  • 💪 Confidencial (Apenas para Cadastrados) Fitness;
  • 🎉 Cultura colaborativa, de gestão horizontal e incentivo à troca de feedbacks.
  • 💡Dinamismo e abertura para troca de ideias e experiências.
  • 💰Remuneração compatível com a nível mercado.