Que tal fazer parte do nosso time como Engenheiro(a) de Dados Sênior (Azure/Databricks)?
Sua missão será liderar a concepção, implementação e otimização de soluções de dados avançadas, focando na integração entre dados e estratégias de negócios da organização. Além de garantir a eficiência e escalabilidade, o foco está na inovação contínua dos processos de coleta, transformação, armazenamento e disponibilização de dados, alinhando-os estrategicamente às necessidades do negócio. É esperado que seja referência no tema na companhia e capaz de apoiar a gestão do conhecimento internamente e externamente a partir de treinamento de outros colaboradores.
Essa é uma oportunidade no modelo remoto.
RESPONSABILIDADES E ATRIBUIÇÕES
Como Engenheiro(a) de Dados Sênior, você focará em:
- Liderar o desenvolvimento e a implementação de soluções técnicas avançadas para obtenção, processamento e armazenamento de dados, alinhadas com as necessidades e estratégias específicas do negócio.
- Definir camadas de dados e seu respectivo uso.
- Preparar os dados para a modelagem preditiva e prescritiva.
- Desenvolver algoritmos para acesso e manipulação de dados brutos, impulsionando a tomada de decisão estratégica.
- Automatizar e otimizar fluxos e processos de dados, buscando constantemente melhorias de desempenho.
- Entender dos dados da organização e liderar a estratégia e implementação do ambiente de Data Lake.
- Projetar e implementar processos de ETL/ELT escaláveis, resilientes e eficientes, suportando as demandas analíticas.
- Gerenciar a aquisição de dados, identificando e avaliando fontes relevantes e implementando mecanismos para garantir sua qualidade e relevância.
REQUISITOS E QUALIFICAÇÕES
Estes são os pilares para garantir que o profissional consiga sustentar o ambiente de dados e as entregas atuais:
- Domínio do Ecossistema Databricks & PySpark: Experiência sólida no desenvolvimento de processamento distribuído, otimização de jobs e manipulação de grandes volumes de dados.
- Experiência em Azure Cloud: Proficiência em serviços de dados da plataforma, com foco em Azure Data Factory (ADF) para orquestração de pipelines complexos.
- Construção de Pipelines de Dados: Capacidade de desenhar e implementar fluxos de dados ponta a ponta (Ingestão, Transformação e Carga).
- DevOps & Versionamento: Domínio de Git/GitHub e implementação de fluxos de CI/CD para garantir deploys seguros e automatizados.
- Inglês Fluente: Capacidade técnica e comportamental para participar ativamente de reuniões, apresentações e negociações técnicas totalmente em inglês.
REQUISITOS DESEJÁVEIS (Nice-to-have)
Estes requisitos são diferenciais que aceleram a maturidade tecnológica da equipe:
- Infraestrutura como Código (IaC): Conhecimento em Terraform para provisionamento e gestão de recursos em cloud.
- Desenvolvimento de Aplicações de Dados: Experiência com Databricks Apps ou Streamlit para criação de interfaces e dashboards interativos.
- Processamento de Dados Não Estruturados: Experiência no tratamento de imagens, vídeos, PDFs ou logs complexos.
- Fundamentos de Redes: Conhecimento em VNETs, Subnets, Private Links e conectividade segura em ambiente cloud.
- Frameworks de Qualidade: Experiência com frameworks de Data Quality (como DQX) para governança e confiabilidade dos dados.
Se inscreva e embarque nessa jornada com a gente! 🚀

