A Leega é uma empresa focada no atendimento eficiente e inovador em seus clientes.
Isso não poderia ser diferente com o nosso principal combustível: as pessoas!
Nossa cultura é inspiradora e nossos valores estão presentes no dia a dia: ética e transparência, excelência de qualidade, trabalho em equipe, responsabilidade econômica, social e ambiental, relações humanas e credibilidade.
Buscamos profissionais inovadores que sejam movidos por desafios e focados em resultados.
Se você busca uma empresa dinâmica e parceira e que investe em seus colaboradores através de capacitação constante, a Leega é o lugar para você!
>> A LEEGA É PARA TODOS, ficaremos muito felizes em ter você em nosso time. Venha fazer parte da nossa história e da construção do nosso futuro.
Cadastre-se agora mesmo em nossas vagas!
Responsabilidades e atribuições
- Projetar, desenvolver e otimizar pipelines de dados em tempo real utilizando Streaming e seus ecossistemas e correlatos (Apache Flink, Kafka Streams, Connect, Schema Registry, etc.).
- Definir e aplicar práticas de modelagem eventual, construindo estruturas orientadas a eventos que suportem consistência, rastreabilidade e performance.
- Integrar diferentes sistemas de origem e destino (bancos de dados, APIs, data warehouses, data lakes, microsserviços).
- Garantir governança de dados, versionamento de schemas e observabilidade dos pipelines.
- Trabalhar em conjunto com equipes de engenharia, arquitetura e ciência de dados para construir soluções escaláveis e resilientes.
- Participar da definição de padrões de arquitetura de dados em event-driven.
Requisitos e qualificações
- Experiência prática com ferramentas de streaming, Kafka, Kinesis, Flink, RMQ (administração, tuning, configuração e monitoramento).
- Domínio de modelagem eventual e arquiteturas orientadas a eventos.
- Forte conhecimento em processamento de dados em streaming (Kafka Streams, Flink, Spark Streaming, etc.).
- Experiência em linguagens como Java, Scala ou Python.
- Conhecimentos sólidos em bancos de dados relacionais e não relacionais.
- Experiência com cloud providers (AWS, GCP ou Azure), preferencialmente com serviços gerenciados de Kafka.
- Prática em versionamento de código (Git) e CI/CD para pipelines de dados.
Informações adicionais
Diferenciais
- Experiência em DataOps e MLOps.
- Conhecimento em ferramentas de observabilidade e monitoração (Prometheus, Grafana, OpenTelemetry).
- Experiência com arquiteturas serverless ou microservices event-driven.
- Certificações em Kafka ou plataformas de dados.
Soft Skills
- Pensamento analítico e estruturado.
- Capacidade de trabalhar em ambiente ágil e colaborativo.
- Boa comunicação para traduzir requisitos de negócio em soluções técnicas.
- Modalidade de trabalho 100% remoto
Etapas do processo
- Etapa 1: Cadastro
- Etapa 2: Mapeamento Comportamental
- Etapa 3: Avaliação de Perfil
- Etapa 4: Entrevista Gestor
- Etapa 5: Entrevista Cliente
- Etapa 6: Contratação
Vem trabalhar com a gente!
A LEEGA é referência em consultoria e outsourcing para soluções de Data Analytics .
Temos 15 ANOS de mercado e mais de 20 ANOS de experiência em soluções de Business Intelligence, Data Integration e Analytics, atendendo grandes empresas dos mais diversos segmentos do mercado e contamos com mais de 400 colaboradores.
Conquistamos capacidade técnica e reunimos as melhores pessoas para proporcionar aos nossos clientes a melhor experiência.
Brasileiros, com escritório de projetos, fábrica de software e centro de treinamento em São Paulo (capital) , atuação internacional com escritório também em Portugal, somos conhecidos por viver e respirar Analytics e Big Data, inovando nossa tecnologia, compartilhando conhecimento, evoluindo talentos e entregando VALOR.
Em nosso porftólio de serviços ofertamos consultoria especializada, alocação de profissionais, treinamento e desenvolvimento de soluções customizadas para Cloud Computing, Business Intelligence, Big Data, Data Analytics, Machine Learning, Inteligência Artificial, Data Quality, MDM, Governança de Dados e demais soluções de dados