Caro usuário, habilite o javascript para que esse site funcione corretamente.

24198 – Desenvolvedor Databricks Pleno Backend / Data Engineer

CLT (Efetivo)Presencial (Local)São Paulo-SPEmpresa Confidencial (Cadastre-se)

* Salário: R$ 6.000 a R$ 11.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Tecnologia da Informação

Nível: Pleno

  • Backend, Data engineer, Databricks, Desenvolvedor, IT, Pelno, pleno, Senior, Sistemas da informação, Software, Tecnologia da informação, TI

Curte transformar dados em produto real e código limpo em escala? Esta vaga é para você.

Buscamos um Desenvolvedor Databricks Pleno com forte base em backend para atuar em uma stack moderna de dados, ajudando a construir pipelines robustos e APIs que suportam decisões estratégicas do negócio. Você fará parte de um time ágil, 100% remoto, com autonomia técnica e espaço para propor soluções.


  • Desenvolver e manter pipelines de dados em Databricks.
  • Construir e evoluir APIs e serviços backend (data-driven).
  • Modelar dados para consumo analítico e operacional.
  • Otimizar performance de jobs, queries e custos em nuvem.
  • Garantir qualidade, versionamento e governança dos dados.
  • Colaborar com squads de produto, dados e negócio.
  • Participar de code reviews e definição de boas práticas.

Requisitos:

✔ Experiência como Desenvolvedor Databricks, Data Engineer ou Backend focado em dados.

✔ Sólida experiência com Databricks (Spark, notebooks, jobs, Delta Lake).

✔ Domínio de Python ou Scala para processamento de dados.

✔ Vivência com desenvolvimento backend (APIs REST, microsserviços).

✔ Experiência em nuvem (Azure, AWS ou GCP) aplicada a dados.

✔ Boas práticas de versionamento (Git), testes e CI/CD.

✔ Inglês Avançado para conversação e interação em contexto global.


Diferenciais:

– Experiência com Azure Databricks e Azure Data Factory / Synapse.
– Conhecimento em arquitetura de dados (Lakehouse, Data Lake, DW).
– Vivência com ferramentas de orquestração (Airflow, Databricks Workflows).
– Atuação prévia em ambientes de alta escala e performance.
– Participação em times ágeis (Scrum, Kanban).

Idioma: Inglês


Modelo de Trabalho Remoto


CANDIDATE-SE AGORA