- Oficina en Osasco
Nosso modo de fazer no time
Acreditamos que dados só têm valor quando geram impacto real. No nosso time, buscamos a intersecção entre a robustez da Engenharia e a visão estratégica de Negócios. Valorizamos a autonomia técnica: aqui, você não espera os dados ficarem prontos, você vai lá e constrói. Apoiamos um ambiente de troca técnica intensa, onde o Sênior atua como referência, elevando a régua de qualidade do código e garantindo que nossas análises escalem junto com o volume gigantesco de transações do iFood.
Cardápio diário (Responsabilidades)
- Processamento em Escala: Utilizar PySpark e SQL avançado para manipular grandes volumes de dados (Big Data), criando datasets analíticos performáticos e confiáveis.
- Além do Básico: Fugir do "arroz com feijão" do BI tradicional. Em vez de apenas criar dashboards, você aplicará modelos estatísticos e de Machine Learning básicos (clusterização, regressão, propensão) para responder perguntas complexas de negócio.
- Parceria Estratégica: Atuar como ponte principal entre Stakeholders de negócio e o time técnico. Você precisará traduzir dores de negócio (ex: "estamos perdendo usuários") em soluções de dados técnicas, negociando prazos e expectativas.
- Qualidade e Governança: Garantir que as análises sejam reprodutíveis e o código seja limpo. Revisar códigos de analistas júnior/pleno e disseminar boas práticas de engenharia de software dentro do time de analytics.
- Investigação Autônoma: Mergulhar nos data lakes para encontrar padrões, inconsistências ou oportunidades de melhoria no produto, sem depender 100% da estruturação prévia da Engenharia de Dados.
Ingredientes que buscamos (Requisitos Obrigatórios)
- Python e SQL Avançados: Domínio de PySpark é mandatório. Você precisa se sentir confortável processando Terabytes de dados otimizando performance. O uso de Pandas/NumPy é esperado para análises locais.
- Experiência com Big Data: Vivência prática em ambientes de nuvem (AWS, Databricks ou Azure) lidando com tabelas particionadas e estruturas complexas.
- Pé na Ciência de Dados: Experiência prática aplicando modelos descritivos ou preditivos simples (ex: Scikit-Learn) para segmentação de base ou análise de comportamento. Não buscamos um MLE, mas alguém que saiba usar estatística para gerar insights.
- Comunicação de Alto Nível: Capacidade comprovada de apresentar resultados técnicos para audiências não-técnicas e influenciar a tomada de decisão.
- Mentalidade de Engenharia: Uso habitual de Git, versionamento e preocupação com a modularização do código.
Para realçar o sabor (Diferenciais)
- Conhecimento em orquestração de pipelines (Airflow) para automatizar suas próprias análises recorrentes.
- Experiência com Data Lakehouse (Delta Lake, Iceberg).
- Conhecimento e Sagemaker e EKS.
- Vivência prévia em empresas de tecnologia com alto volume de dados (varejo, e-commerce, apps).
- Capacidade de mentorar tecnicamente membros menos experientes do time.