Caro usuário, habilite o javascript para que esse site funcione corretamente.

Engenheiro de Dados Sênior (Azure/Databricks)

Que tal fazer parte do nosso time como Engenheiro(a) de Dados Sênior (Azure/Databricks)?

Sua missão será liderar a concepção, implementação e otimização de soluções de dados avançadas, focando na integração entre dados e estratégias de negócios da organização. Além de garantir a eficiência e escalabilidade, o foco está na inovação contínua dos processos de coleta, transformação, armazenamento e disponibilização de dados, alinhando-os estrategicamente às necessidades do negócio. É esperado que seja referência no tema na companhia e capaz de apoiar a gestão do conhecimento internamente e externamente a partir de treinamento de outros colaboradores.

Essa é uma oportunidade no modelo remoto.

RESPONSABILIDADES E ATRIBUIÇÕES

Como Engenheiro(a) de Dados Sênior, você focará em:

  • Liderar o desenvolvimento e a implementação de soluções técnicas avançadas para obtenção, processamento e armazenamento de dados, alinhadas com as necessidades e estratégias específicas do negócio.
  • Definir camadas de dados e seu respectivo uso.
  • Preparar os dados para a modelagem preditiva e prescritiva.
  • Desenvolver algoritmos para acesso e manipulação de dados brutos, impulsionando a tomada de decisão estratégica.
  • Automatizar e otimizar fluxos e processos de dados, buscando constantemente melhorias de desempenho.
  • Entender dos dados da organização e liderar a estratégia e implementação do ambiente de Data Lake.
  • Projetar e implementar processos de ETL/ELT escaláveis, resilientes e eficientes, suportando as demandas analíticas.
  • Gerenciar a aquisição de dados, identificando e avaliando fontes relevantes e implementando mecanismos para garantir sua qualidade e relevância.


REQUISITOS E QUALIFICAÇÕES

  • Estes são os pilares para garantir que o profissional consiga sustentar o ambiente de dados e as entregas atuais:

    • Domínio do Ecossistema Databricks & PySpark: Experiência sólida no desenvolvimento de processamento distribuído, otimização de jobs e manipulação de grandes volumes de dados.
    • Experiência em Azure Cloud: Proficiência em serviços de dados da plataforma, com foco em Azure Data Factory (ADF) para orquestração de pipelines complexos.
    • Construção de Pipelines de Dados: Capacidade de desenhar e implementar fluxos de dados ponta a ponta (Ingestão, Transformação e Carga).
    • DevOps & Versionamento: Domínio de Git/GitHub e implementação de fluxos de CI/CD para garantir deploys seguros e automatizados.
    • Inglês Fluente: Capacidade técnica e comportamental para participar ativamente de reuniões, apresentações e negociações técnicas totalmente em inglês.

REQUISITOS DESEJÁVEIS (Nice-to-have)

Estes requisitos são diferenciais que aceleram a maturidade tecnológica da equipe:

  • Infraestrutura como Código (IaC): Conhecimento em Terraform para provisionamento e gestão de recursos em cloud.
  • Desenvolvimento de Aplicações de Dados: Experiência com Databricks Apps ou Streamlit para criação de interfaces e dashboards interativos.
  • Processamento de Dados Não Estruturados: Experiência no tratamento de imagens, vídeos, PDFs ou logs complexos.
  • Fundamentos de Redes: Conhecimento em VNETs, Subnets, Private Links e conectividade segura em ambiente cloud.
  • Frameworks de Qualidade: Experiência com frameworks de Data Quality (como DQX) para governança e confiabilidade dos dados.

Se inscreva e embarque nessa jornada com a gente! 🚀