* Salário: R$ 11.000 a R$ 20.000 por mês (estimado)
* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.
Área: Tecnologia da Informação
Nível: Senior
Atuar como Arquiteto(a) de Dados Especialista responsável por desenhar, evoluir e governar a arquitetura corporativa de dados em ambientes híbridos e multi-cloud. A posição tem como missão garantir escalabilidade, interoperabilidade, segurança e eficiência dos dados, suportando iniciativas analíticas e estratégicas do negócio. Trabalha de forma hands-on e estratégica, influenciando padrões, práticas e decisões técnicas em toda a organização.
Responsabilidades:
— Projetar e evoluir a arquitetura de dados em ambientes híbridos (on-premises, AWS, Azure, GCP).
— Desenvolver e apoiar pipelines de ingestão, transformação e processamento de dados.
— Definir padrões de integração entre sistemas legados e ambientes cloud.
— Estruturar pipelines distribuídos em larga escala (batch e streaming).
— Definir lifecycle de dados (camadas Bronze, Silver e Gold).
— Implementar governança de dados (qualidade, catálogo, lineage e metadados).
— Garantir arquitetura resiliente, segura, performática e otimizada em custos.
— Integrar ambientes de analytics, BI e ciência de dados entre clouds.
— Conduzir POCs e avaliações comparativas entre provedores cloud.
— Orientar squads na adoção de padrões arquiteturais.
— Atuar junto a áreas de negócio na definição de domínios e modelos corporativos.
Requisitos:
— Sólida experiência em arquitetura de dados multi-cloud (AWS, Azure, GCP).
— Experiência com integração híbrida (on-premises + cloud).
— Conhecimento avançado em pipelines de dados: AWS (Kinesis, Glue, S3, Lake Formation, Redshift, EMR, Lambda), GCP (BigQuery, Dataflow/Beam, Pub/Sub, Composer), Azure (Data Factory, Synapse, ADLS, Databricks, Event Hub).
— Experiência com Terraform e práticas de Infraestrutura como Código.
— Conhecimento em ingestion patterns (CDC, streaming, batch, APIs, arquivos).
— Forte conhecimento em modelagem de dados (conceitual, lógica, física e canonical).
— Experiência com Big Data e processamento distribuído (Spark, Databricks, EMR).
— Experiência com governança de dados, qualidade, catálogo e lineage.
— Conhecimento em segurança e IAM em cloud.
— Experiência com mensageria (Kafka, Pub/Sub, Event Hub, Kinesis).
— Experiência com BI (Power BI obrigatório; Looker/Tableau desejáveis).
— Experiência com CI/CD e GitOps.
— Perfil hands-on com capacidade de execução técnica.
Diferenciais:
— Experiência com ODI.
— Conhecimento em Data Warehouse e Data Mesh.
— Conhecimento em Microsoft Fabric.
— Vivência em ambientes corporativos complexos e distribuídos.
Informações adicionais:
Modelo: Remoto
Horário: Comercial
