Atividades: Criação/Sustentação de pipeline de dados, assim como otimização. Preparação/modelagem de base de dados; Ingestão de bases de dados (Oracle DB) para o data lake; Garantir o funcionamento dos processos e do ambiente produtivo; Pró atividade para identificação prévia de problemas de perfomance e/ou dados. Auxiliar no desenvolvimento de Dashboards (Data Studio, Power Bi, Tableau ou QlikView);
Requisitos: Experiência com Git; Experiência avançada em Python e SQL para manipulação de dados; Experiência na construção e otimização de pipelines de dados ETL, arquiteturas e fontes de dados; Experiência em processamento de dados com spark (PySpark); Experiência em orquestração de dados com Apache Airflow; Experiência com serviços de nuvem AWS: S3, Lambda, EC2, Glue, Redshift, MWAA, Athena; Experiência/ter interesse em Infrastructure as code (AWS CDK) e Docker; Conhecimento em alguma ferramenta de dashboard (Data Studio, Power Bi, Tableau ou QlikView).