Find4You
Estamos em busca de um(a) Engenheiro(a) de dados Sênior com sólida experiência em pipeline de dados (Datalake), que domine práticas modernas de desenvolvimento, especialmente com Microsoft Azure. Você fará parte de um time técnico multidisciplinar, atuando em projetos escaláveis e de alta disponibilidade.
Requisitos Formação acadêmica:
Graduação em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
Pós-graduação ou certificações relevantes são um diferencial (ex: Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer).
Mínimo de 3 a 5 anos de experiência focada com engenharia de dados, arquitetura de dados ou funções similares.
Experiência comprovada em projetos de grande escala envolvendo ingestão, transformação e modelagem de dados.
Inglês avançado
Linguagens: Proficiência em Python, SQL e pyspark.
Plataformas de Big Data: Experiência com Spark, Hive, Kafka.
Cloud: Domínio em pelo menos uma plataforma (Azure, AWS ou GCP).
Banco de Dados: Relacionais (SQL Server e Mysql) e não-relacionais (MongoDB, Cassandra).
Data Lake & Data Warehouse: Conhecimento em arquitetura moderna de dados (ex: Delta Lake, Snowflake, Redshift, BigQuery).
DevOps/DataOps: Experiência com CI/CD, versionamento de código (Git), infraestrutura como código (Terraform, CloudFormation).
Familiaridade com conceitos de Data Mesh e Data Fabric.
#J-18808-Ljbffr
Requisitos Formação acadêmica:
Graduação em Ciência da Computação, Engenharia, Sistemas de Informação ou áreas correlatas.
Pós-graduação ou certificações relevantes são um diferencial (ex: Azure Data Engineer, AWS Big Data, Google Cloud Data Engineer).
Mínimo de 3 a 5 anos de experiência focada com engenharia de dados, arquitetura de dados ou funções similares.
Experiência comprovada em projetos de grande escala envolvendo ingestão, transformação e modelagem de dados.
Inglês avançado
Linguagens: Proficiência em Python, SQL e pyspark.
Plataformas de Big Data: Experiência com Spark, Hive, Kafka.
Cloud: Domínio em pelo menos uma plataforma (Azure, AWS ou GCP).
Banco de Dados: Relacionais (SQL Server e Mysql) e não-relacionais (MongoDB, Cassandra).
Data Lake & Data Warehouse: Conhecimento em arquitetura moderna de dados (ex: Delta Lake, Snowflake, Redshift, BigQuery).
DevOps/DataOps: Experiência com CI/CD, versionamento de código (Git), infraestrutura como código (Terraform, CloudFormation).
Familiaridade com conceitos de Data Mesh e Data Fabric.
#J-18808-Ljbffr