* Salário: R$ 2.000 a R$ 5.000 por mês (estimado)
* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.
Área: Outros
Nível: Senior
Resumo do Cargo
Profissional responsável por projetar, desenvolver, otimizar e manter pipelines de ETL/ELT em ambientes corporativos de dados, assegurando qualidade, integridade, desempenho e governança das informações ao longo de todo o ciclo de ingestão, transformação e disponibilização dos dados para consumo analítico e estratégico.
Responsabilidades Principais
Desenhar, implementar e manter pipelines de ETL/ELT robustos, escaláveis e eficientes.
Integrar dados provenientes de múltiplas fontes, estruturadas e não estruturadas.
Modelar e transformar dados para suportar análises, dashboards, relatórios e produtos de dados.
Monitorar, otimizar e realizar tuning de jobs, fluxos, consultas e cargas de dados.
Garantir a qualidade e confiabilidade dos dados por meio de validações, regras de negócio e automações.
Documentar processos, fluxos e modelos de dados de forma clara, padronizada e atualizada.
Atuar na resolução de incidentes e problemas relacionados a pipelines de dados, realizando análise de causa raiz.
Colaborar com squads de Analytics, Engenharia e Negócio para atender requisitos técnicos e funcionais.
Assegurar conformidade com práticas de segurança e governança de dados, incluindo versionamento, controle de acesso e padrões corporativos.
Competências Técnicas Essenciais
Linguagens e Transformações
SQL avançado (CTEs, funções de janela, tuning e modelagem).
Python para automações, transformações e orquestração de dados.
Conhecimento em Shell Script para ambientes Linux.
Ferramentas ETL/ELT
Ferramentas tradicionais de mercado: Informatica PowerCenter, Talend, SSIS, DataStage, Pentaho.
Frameworks e soluções modernas: dbt, Apache Airflow, AWS Glue, Azure Data Factory, GCP Dataflow.
Armazenamento e Bancos de Dados
Data Warehouses: Snowflake, Amazon Redshift, BigQuery, Azure Synapse.
Bancos de dados relacionais: Oracle, SQL Server, PostgreSQL, MySQL.
Data Lakes: Amazon S3, Azure Data Lake Storage (ADLS), Google Cloud Storage (GCS).
Arquitetura e Modelagem
Modelagem dimensional (Kimball).
Modelagem relacional e normalização.
Boas práticas de DataOps e observabilidade (logs, métricas, alertas).
Orquestração e DevOps
Ferramentas de orquestração: Airflow, Prefect, Dagster ou similares.
Controle de versão com Git e pipelines de CI/CD.
Uso de contêineres (Docker) e ambientes distribuídos.
Benefícios Confidencial (Apenas para Cadastrados):
💪🏽 TotalPassWellhub;
👨🏾🤝👩🏽🤝👩🏼 Seguro de vida em grupo;
🍕🛒 Vale Refeição/ Alimentação;
🏨 Plano de saúde e odontológico - Bradesco;
💻 Ações de treinamento: palestras, fóruns, trocas e conversas de conhecimentos relativos ao nosso negócio. Estamos em constante conexão para aprender mais e juntos;
👉 Programa +Confidencial (Apenas para Cadastrados)er: programa interno de indicação onde você indica um colega para trabalhar conosco e se esse relacionamento der match, você ganha um prêmio.
💲 Parcerias: quer desconto? Temos um grupo no Workplace onde divulgamos parcerias com instituições de ensino, escolas de idiomas, academias, restaurantes, produtos e outros serviços;
