Salário: R$ 11.000 a R$ 20.000 por mês
Área: Tecnologia da Informação
Nível: Senior
ESTAMOS PROCURANDO UMA PESSOA QUE:
Integrando-se a equipes ágeis e colaborativas, você será o(a) responsável por construir e otimizar pipelines de dados de ponta a ponta que impulsionam operações globais do nosso cliente. Seu trabalho será fundamental para garantir que ele tenha acesso a dados confiáveis e escaláveis, colaborando ativamente tanto com pares técnicos quanto com stakeholders de negócio para traduzir necessidades em soluções de dados robustas.
RESPONSABILIDADES:
- Desenvolver e manter pipelines de dados de ponta a ponta (end-to-end), garantindo a ingestão, processamento e transformação eficiente de grandes volumes de dados.
- Trabalhar ativamente em equipes de entrega ágil, participando de todas as fases do ciclo de desenvolvimento de dados.
- Colaborar de perto com engenheiros, cientistas de dados e analistas, bem como com stakeholders de negócio, para entender requisitos e projetar soluções de dados que atendam às necessidades do negócio.
- Garantir a qualidade, integridade e segurança dos dados ao longo de todo o pipeline.
- Otimizar o desempenho de pipelines e consultas, assegurando a entrega de dados de forma eficiente e oportuna.
REQUISITOS BÁSICOS:
- Experiência Prática e Comprovada com Databricks: Conhecimento aprofundado e hands-on em Databricks, incluindo Delta Lake e PySpark.
- Desenvolvimento de Pipelines: experiência no desenvolvimento de pipelines de dados de ponta a ponta.
- Linguagens de Programação: PySpark e SQL. Python (para automação e scripts de suporte).
- Metodologias de Trabalho: Conforto e experiência em trabalhar em equipes de entrega ágil.
- Inglês Avançado/Fluente para comunicação no dia a dia do projeto e com clientes internacionais
- Engajamento com Stakeholders: Confiança e fluência para interagir e colaborar com stakeholders de negócio.
DIFERENCIAIS:
- Experiência com outras plataformas de nuvem (Azure, AWS ou GCP) e seus serviços de dados relevantes.
- Conhecimento de ferramentas de orquestração de pipelines (e.g., Apache Airflow, Azure Data Factory).
- Familiaridade com conceitos de Data Governance e Data Catalog.
- Experiência com Data Warehousing e Data Lake design.
- Conhecimento de ferramentas de versionamento de código (e.g., Git).
BENEFÍCIOS DE TRABALHAR COM A DTI:
- Previdência Privada (Para cada real depositado pelo colaborador, limitado a 6% do salário, a dti complementa com o mesmo valor);
- Plano Odontológico;
- Vale Refeição e/ou Vale alimentação (R$890/mês);
- Plano de Saúde sem desconto para o colaborador e dependentes;
- Auxílio home office de 120,00;
- Parceria com SESC para desconto em acomodações e atividades de lazer;
- Reembolso de certificação;
- Desconto em cursos de inglês com a Open English, CNA e EHeadset;
- Parceria com USP/ESALQ: descontos em cursos de pós-graduação e especialização;
- Parceria com a PUC-RS: desconto em cursos de graduação, pós-graduação, especialização, idiomas e certificações;
- Parceria com FIAP: desconto em cursos de graduação e pós-graduação;
- Parceria com a ESPM: desconto em cursos de pós-graduação e cursos de curta duração;
- Descontos em Farmácias-Drogasil e Droga Raia;
- Ambiente descontraído, flexível e com feedbacks constantes;
- Rotina com aprendizado constante, com Tech Shots, Mentorias, Rodas de Conversa e Knowledge Transfers.
E aí, se identificou com a nossa cultura? Então corre para se inscrever 😉
Se o seu currículo for selecionado para a primeira fase do nosso processo seletivo, entraremos em contato, então fique atenta(o) ao seu e-mail (inclusive na pasta do spam) e telefone, ok? Caso seu currículo não seja triado, não enviamos feedback, mas você ficará no nosso banco de currículos e poderá se candidatar novamente em outro momento ;)
