Caro usuário, habilite o javascript para que esse site funcione corretamente.

535F: Especialista Kafka / Engenheiro(a) de Streaming

* Salário: R$ 12.000 a R$ 20.000 por mês (estimado)

* O valor exibido é uma estimativa calculada com base em dados públicos e referências do mercado. Não garantimos que este seja o salário oferecido para esta vaga específica.

Área: Engenharia

Nível: Senior

Detalhes da vaga

  • Há 10 dias

Qualificações

  • CI/CD
  • Azure
  • Ansible
  • DevOps
  • Certificação AWS
  • Java
  • RBAC
  • AWS
  • Docker
  • SSL
  • Terraform
  • Continuous integration
  • GitHub
  • Segurança
  • Apache
  • Kafka
  • Jenkins
  • GitLab
  • Python
  • ZooKeeper

Descrição completa da vaga

Especialista em Apache Kafka
Atuação no desenho, implementação e sustentação de arquiteturas de streaming de dados de alta escala.

Você fará parte do time responsável por garantir a disponibilidade, confiabilidade e performance das plataformas de mensageria e eventos da empresa, contribuindo diretamente para sistemas críticos de negócio.

Responsabilidades

  • Projetar, implementar e administrar clusters Apache Kafka (on-premise ou cloud).
  • Criar e manter topologias de streaming usando Kafka Connect, Kafka Streams ou ksqlDB.
  • Garantir a observabilidade da plataforma (métricas, logs, traces, alertas).
  • Realizar tuning de desempenho, otimização de throughput, partições e réplicas.
  • Implementar pipelines de dados resilientes e escaláveis.
  • Gerenciar esquemas com Confluent Schema Registry.
  • Atuar em troubleshooting de problemas complexos envolvendo produtores, consumidores, offsets e performance.
  • Trabalhar em conjunto com equipes de desenvolvimento, infraestrutura, DevOps e segurança.
  • Criar e manter documentação técnica e padrões internos.
  • Participar do ciclo de deploy, esteira CI/CD e automações (Terraform / Ansible / Helm, conforme stack disponível).
  • Participar ativamente de treinamentos relacionados.

Hard Skills

  • Experiência com Confluent Platform ou Red Hat AMQ Streams.
  • Experiência com Terraform ou Ansible para automação.
  • Conhecimento em algum provedor cloud (AWS MSK / Azure Event Hubs / GCP PubSub + Confluent Cloud).
  • Experiência com ferramentas de observabilidade (Prometheus, Grafana, Datadog, ELK, OpenTelemetry).
  • Conhecimentos em outras tecnologias de mensageria (RabbitMQ, Pulsar, ActiveMQ).
  • Experiência com linguagens de backend como Java, Python ou Go.

Soft Skills

  • Experiência prática com Apache Kafka em produção.
  • Domínio dos conceitos: tópicos, partições, replicação, offsets, grupos de consumo, retention, compaction.
  • Vivência com Kafka Connect e conectores.
  • Conhecimentos sólidos em Kafka Streams ou ksqlDB.
  • Administração de clusters (Zookeeper ou KIP-500, conforme versão).
  • Experiência com ambientes Linux.
  • Experiência com containers (Docker) e Kubernetes/OpenShift (desejável).
  • Familiaridade com protocolos de segurança: SSL/TLS, SASL, ACLs, RBAC.
  • Conhecimento em CI/CD (GitLab, Jenkins, GitHub Actions etc.).