Pular para o conteúdo principal

DataOps Engineer

Descrição da vaga

Você é um profissional dinâmico, proativo, orientado por dados, com uma paixão por viagens e sede por crescimento? Somos a Gipsyy, uma empresa líder em tecnologia no setor de viagens, e estamos em busca de um(a) (Insira o cargo aqui) para ajudar a impulsionar nosso negócio para novos patamares.

 

Sobre Nós:

A Gipsyy está a frente da inovação no mercado de viagens de ônibus, utilizando a tecnologia para ajudar a moldar o futuro das viagens e criar experiências inesquecíveis para nossos clientes. Com foco em fornecer um serviço de primeira linha e soluções de ponta, estamos em busca de alguém talentoso para embarcar a bordo do nosso ônibus e criar viagens que transformam.

 

Visão Geral da Função:

Buscamos um(a) DataOps Engineer para ser o pilar de confiabilidade, automação e governança da nossa plataforma de dados. Sua missão é aplicar os princípios de DevOps, SRE e Engenharia de Software para construir e operar um ecossistema de dados de classe mundial. Você irá garantir que nossos pipelines de dados e modelos de IA sejam robustos, escaláveis, seguros e entreguem dados confiáveis na velocidade que o negócio precisa. 

Você será responsável por transformar nossa infraestrutura de dados em código, implementar CI/CD para dados, garantir observabilidade completa e orquestrar fluxos complexos, permitindo que nossas equipes de Analytics, Data Science e Machine Learning inovem com segurança e agilidade. 

Responsabilidades e atribuições

  • Infraestrutura como Código (IaC) e Automação: Projetar, provisionar e gerenciar nossa infraestrutura de dados (AWS, GCP) utilizando Terraform. Automatizar tudo, desde a configuração de redes e permissões até o auto-scaling de clusters. 
  • Orquestração e CI/CD para Dados: Construir e otimizar pipelines de CI/CD (GitHub Actions) para automação de testes, validação de schemas e deploy seguro de fluxos de dados, transformações (dbt) e modelos de ML. 
  • Pipelines de Dados Robustos: Orquestrar fluxos de dados complexos (batch e streaming) com ferramentas como Airflow, Kafka, Flink, garantindo recuperação automática de falhas, alertas proativos e execução eficiente. 
  • Observabilidade e Confiabilidade (Data SRE): Implementar um sistema de monitoramento completo com Prometheus, Grafana ou Datadog. Definir e garantir SLAs, SLOs e SLIs para os pipelines de dados, liderando a resposta a incidentes e a análise de causa raiz. 
  • Qualidade de Dados e Governança: Integrar frameworks de testes automatizados de dados (Great Expectations, dbt tests) no ciclo de desenvolvimento. Implementar governança de dados com versionamento de schemas, catalogação e controle de linhagem (data lineage). 
  • Performance e Otimização de Custos (FinOps): Otimizar o desempenho e o custo de e pipelines em ambientes distribuídos. Implementar estratégias de particionamento, cache e paralelização para garantir a eficiência dos nossos recursos de cloud. 
  • Parceria Estratégica: Atuar como um parceiro técnico para as equipes de Engenharia de Dados, ML Engineering e Ciência de Dados, fornecendo uma plataforma estável e dados confiáveis para acelerar a inovação e a entrega de valor. 

Requisitos e qualificações

  • Proficiência em Python, SQL e automação de scripts (shell). 
  • Experiência sólida com Infrastructure as Code (Terraform) para ambientes de dados. 
  • Experiência prática na construção de pipelines de CI/CD (GitHub Actions, GitLab CI, Jenkins) aplicados a dados e ML. 
  • Profundo conhecimento em orquestradores de workflow, especialmente Apache Airflow
  • Vivência com processamento de dados em larga escala usando Apache Spark (batch e streaming). 
  • Familiaridade com o ecossistema de dados moderno, incluindo ferramentas como dbt, Kafka, Flink e Airbyte
  • Experiência na implementação de monitoramento e observabilidade com ferramentas como Prometheus, Grafana ou ELK Stack. 

Diferenciais (Conhecimentos Avançados): 

  • Experiência com múltiplas plataformas de cloud (AWS, GCP, Azure) e Databricks. 
  • Conhecimento de arquiteturas modernas como Data Lakehouse e Data Mesh. 
  • Vivência com frameworks de teste de dados (ex: Great Expectations, Soda). 
  • Experiência com orquestração de containers com Kubernetes (e ferramentas como Kubeflow). 
  • Conhecimento em bases de dados analíticas (OLAP) como ClickHouse, Pinot ou Trino. 
  • Familiaridade com ferramentas de governança como Unity Catalog ou OpenMetadata. 


Informações adicionais

Visando o seu bem-estar, nós oferecemos: 

  • Vale Refeição no cartão Caju (flexível para outras despesas);
  • Assistência Médica com coparticipação (SulAmérica);
  • Reembolso do Gympass de acordo com o seu cargo;
  • Gratuidade na passagem de ônibus Guanabara;
  • 13° Nota;
  • Recesso remunerado;


Além disso, pensando na sua experiência, contamos com... 

  • Ambiente de trabalho dinâmico e que incentiva a criatividade;
  • Horário flexível;
  • No dress code;
  • Day off no mês de aniversário.


Por que vir para a Gipsyy?

  • Oportunidade de fazer parte de uma equipe de alto impacto em um ambiente acelerado e impulsionado pela tecnologia.
  • Uma cultura de inovação, colaboração e aprendizado contínuo.
  • Nos comprometemos a criar um ambiente de trabalho diversificado e inclusivo, incentivamos candidaturas de pessoas de todos os backgrounds.

Gostou? Embarque com a gente nessa viagem!

Etapas do processo

  1. Etapa 1: Cadastro
  2. Etapa 2: Entrevista com RH
  3. Etapa 3: Entrevista com a Gestão
  4. Etapa 4: Entrevista Técnica
  5. Etapa 5: Oferta
  6. Etapa 6: Contratação

Vem pegar a estrada com a gente!

Somos a Gipsyy, uma startup de tecnologia com DNA em viagens. Temos orgulho de ser o elo digital que conecta passageiros as maiores eempresas do setor rodoviário no país.


Nossa missão é facilitar e revolucionar a experiência de compra de passagens, tornando as viagens rodoviárias mais acessíveis, digitais e convenientes para todos.


Estamos constantemente em busca de talentos inovadores e apaixonados por tecnologia e viagens, que queiram fazer a diferença e crescer conosco.


E aí, embarca nessa com a gente?