Caro usuário, habilite o javascript para que esse site funcione corretamente.

Senior Data Engineer

Pessoa JurídicaPresencial (Local)VIPSão Paulo-SPEmpresa Confidencial (Cadastre-se)

* Salário: R$ 11.000 a R$ 20.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Senior

Sobre a INSIDER

#WE ARE INSIDER
Você terá a chance de trabalhar lado a lado com profissionais obcecados pelo cliente, participando ativamente de projetos e iniciativas que impactam diretamente o negócio e transformam a realidade do mercado.

#ALWAYS EVOLVING
Oportunidade para quem deseja desenvolver sua carreira em um ambiente inovador, onde constantemente subimos a barra.

#MADE FOR THE FUTURE
A INSIDER oferece um espaço de aprendizado contínuo e desenvolvimento acelerado, com experiências que expandem seu conhecimento e elevam seu nível de execução. Operamos como uma empresa AI-first, usando inteligência artificial para escalar decisões, processos e impacto. Somos o futuro e nos preparamos para construí-lo todos os dias.

#INTENTIONALITY
Se você é uma pessoa proativa, curiosa e está sempre em busca de novos desafios, essa posição é perfeita para você.

Sobre a Vaga

Descrição:

Buscamos um(a) Senior Data Engineer para projetar, construir e operar a plataforma de dados que suporta análises, relatórios, produtos de dados e modelos de machine learning da INSIDER Store.

Essa é uma posição sênior, com atuação em toda a cadeia de dados — ingestão, processamento, orquestração, modelagem, testes, observabilidade e infraestrutura — garantindo dados confiáveis, frescos e escaláveis para Squads de Growth, Produto, Operações, Analytics Engineering, Data Science e Machine Learning.

Esperamos uma pessoa hands-on, tecnicamente forte e com maturidade para operar dados em produção, lidar com problemas complexos, propor melhorias de arquitetura e construir soluções robustas considerando confiabilidade, custo, performance e impacto para o negócio.

Responsabilidades:

  • Projetar, desenvolver e operar pipelines de dados escaláveis em GCP ou stack equivalente, com foco em confiabilidade, qualidade e manutenibilidade.
  • Implementar rotinas ELT/ETL, orquestrações e automações com observabilidade, alertas e mecanismos seguros de reprocessamento.
  • Construir integrações com fontes como Shopify, UseInsider, APIs externas, eventos, logs e demais sistemas relevantes para o negócio.
  • Garantir qualidade e governança de dados por meio de testes automáticos, monitoramento, SLAs/SLOs, documentação e runbooks operacionais.
  • Desenvolver e manter infraestrutura como código, preferencialmente com Terraform, além de pipelines de CI/CD para jobs, infraestrutura e componentes de dados.
  • Otimizar custos e performance no Data Warehouse, especialmente em BigQuery, considerando particionamento, clustering, materializações e custo por consulta.
  • Trabalhar em parceria com Analytics Engineers, Data Scientists, ML Engineers e stakeholders para fornecer dados, features e pipelines consumíveis, confiáveis e escaláveis.

Requisitos:

  • Experiência sólida em Engenharia de Dados, com atuação em pipelines, plataformas ou sistemas de dados em produção.
  • Excelência em SQL e experiência sólida em Python, Scala, Java ou linguagem equivalente.
  • Experiência com GCP, especialmente BigQuery, Pub/Sub e Dataflow, ou tecnologias equivalentes em AWS/Azure.
  • Experiência com orquestração, como Airflow ou Composer, e construção de pipelines batch ou streaming.
  • Experiência com infraestrutura como código, preferencialmente Terraform, Git, CI/CD e entrega de soluções em produção.
  • Conhecimento de testes de dados, monitoramento, observabilidade, SLAs/SLOs, runbooks e boas práticas de operação.
  • Capacidade de desenhar soluções end-to-end, avaliar trade-offs técnicos e colaborar com times de Analytics Engineering, Data Science, ML Engineering e negócio.

Diferencial:

  • Experiência com dbt, semantic layer, metric layer ou integração com camadas analíticas modernas.
  • Conhecimento em Kafka, Spark, Dataproc ou outras tecnologias escaláveis de batch e streaming.
  • Experiência com Shopify APIs, UseInsider, plataformas de mensageria, eventos ou dados de e-commerce.
  • Experiência com MLOps, feature stores, pipelines de Machine Learning ou integração com modelos em produção.
  • Experiência com otimização de custos no BigQuery, migrações de plataforma, reestruturação de data lake ou modern data stack.

Mais detalhes:

  • Modelo de contrato: PJ;
  • Modelo de trabalho: Híbrido, em São Paulo — Av. Paulista — flexível a acordo;
  • Descanso sem ser descontado: 22 dias úteis anuais, disponível após os três primeiros meses;
  • Cartão Flexível;
  • Plano de Saúde;
  • Plano Odonto;
  • Totalpass e Wellhub;
  • Seguro de Vida;
  • Udemy;
  • INSIDER Perks;
  • Oportunidade de crescimento e aprendizado em uma startup em rápida expansão;
  • Ambiente de trabalho colaborativo e inovador, com exposição a novas tecnologias e processos.

Nossa História

A INSIDER nasceu para desafiar o status quo da indústria da moda. Aprendemos, inovamos e melhoramos constantemente, para criar um mundo onde todos são encorajados a subir a barra e buscar excelência desde 2017.

Hoje, temos mais de 1 milhão de clientes e um portfólio de produtos que tecem tecnologia, inovação e sustentabilidade. Esse é só o início de uma jornada que busca mudanças estruturais em uma das mais tradicionais e poluentes indústrias do mundo: a indústria da moda.

Principais destaques:

  • Participação no programa Startup School da aceleradora Y Combinator.
  • Acelerada 2 vezes nos programas Endeavor Scale Up varejo e consumer goods.
  • Acelerada pelo programa Endeavor Outliers pelo crescimento fora da curva dentro do peer group, ganhando o título de Empreendedores Endeavor.
  • Eleita pela revista Forbes como uma das 25 startups mais promissoras do Brasil.

BUSCAS DE VAGAS SEMELHANTES